SILMA CORTES DA COSTA BATTEZZATI COMUNICAÇÃO SOCIAL COM SOFTWARE LIVRE Universidade Metodista de São Paulo Programa de Pós-Graduação em Comunicação Social São Bernardo do Campo, 2009. SILMA CORTES DA COSTA BATTEZZATI COMUNICAÇÃO SOCIAL COM SOFTWARE LIVRE Tese apresentada em cumprimento parcial às exigências do Programa de Pós-Graduação em Comunicação Social da UMESP – Universidade Metodista de São Paulo, para a obtenção do grau de Doutora. Orientador: Prof. Dr. Sebastião Carlos de Morais Squirra Universidade Metodista de São Paulo Programa de Pós-Graduação em Comunicação Social São Bernardo do Campo, 2009. FOLHA DE APROVAÇÃO A tese de doutorado sob o título “Comunicação Social com Software Livre” elaborada por Silma Cortes da Costa Battezzati foi defendida e aprovada em 14 de abril de 2009, perante a banca examinadora composta por Daniel dos Santos Galindo, Fábio Josgrilberg, Luiz Cláudio Martino, Sérgio Amadeu da Silveira. Assinatura do orientador: _______________________________________________ Nome do orientador: Sebastião Carlos de Morais Squirra. Data: São Bernardo do Campo, 15 de maio de 2009. Visto do Coordenador do Programa de Pós-graduação: _______________________ Área de concentração: Processos Comunicacionais. Linha de Pesquisa: Processos da Comunicação Científica e Tecnológica. Projeto temático: Comunicação e Tecnologias Digitais. . DEDICATÓRIA Dedico este estudo aos meus familiares. Especialmente aos meus filhos Rafael, Bruno e Lígia por terem compreendido os longos momentos de ausência nos quais deixei de lhes dar merecida atenção. Ao Valverde, pelo incondicional apoio, amizade, atenção e carinho de todos os dias. EPÍGRAFE Todos os dias de manhã, na África, o antílope desperta. Ele sabe que terá de correr mais rápido que o mais rápido dos leões, para não ser morto. Todos os dias, pela manhã, desperta o leão. Ele sabe que terá de correr mais rápido que o antílope mais lento para não morrer de fome. Não interessa que bicho você é, se leão ou antílope. Quando amanhecer, é melhor começar a correr. Provérbio Africano. (Friedman 2005, p. 135). AGRADECIMENTOS Ao professor Dr. Sebastião Squirra pela prestimosa atenção e importantes orientações durante esta jornada acadêmica. À Márcia Maria Pitton Henrique, pela constante e carinhosa atenção. Ao professor Márcio Antônio Kowalski, pela valiosa colaboração. LISTA DE TABELAS CATEGORIA 1. ANÁLISE COMPARATIVA ENTRE SOFTWARES PARA PROCESSAMENTO DE AUDIOVISUAL Tabela 1. Categoria 1. Dados Gerais 143 Tabela 2. Categoria 1. Plataformas de Operação 145 Tabela 3. Categoria 1. Formatos de Alta Definição para Importação de Vídeo 146 Tabela 4. Categoria 1. Formatos de Arquivos de Trabalho e Saída 149 CATEGORIA 2. COMPARAÇÃO ENTRE SOFTWARES DE PROCESSAMENTO DIGITAL DE SOM Tabela 1. Categoria 2. Dados Gerais 169 Tabela 2. Categoria 2. Plataformas de Operação 170 Tabela 3. Categoria 2. Interfaces aceitas pelos Softwares 171 Tabela 4. Categoria 2. Tipos de Arquivos para Leitura e Gravação 173 CATEGORIA 3. COMPARAÇÃO ENTRE SOFTWARES DE COMPUTAÇÃO GRÁFICA 3D Tabela 1. Categoria 3. Dados Gerais 182 Tabela 2. Categoria 3. Plataformas de Operação 183 Tabela 3. Categoria 3. Tipos de Aplicação Suportada pelo Software 183 Tabela 4. Categoria 3. Funcionalidades e Recursos dos CGI 184 Tabela 5. Categoria 3. Sistema de Rendering 185 Tabela 6. Categoria 3. Suporte a Formatos de Arquivos Vetoriais 3D 186 (Importação/Exportação) CATEGORIA 4. COMPARAÇÃO ENTRE SOFTWARES EDITORES DE IMAGEM MATRICIAL OU RASTER Tabela 1. Categoria 4. Dados Gerais 197 Tabela 2. Categoria 4. Plataformas de Operação 198 Tabela 3. Categoria 4. Funcionalidades Operacionais 199 Tabela 4. Categoria 4. Sistema de Cores 203 Tabela 5. Categoria 4. Suporte a Formatos de Arquivos Raster 204 CATEGORIA 5. COMPARAÇÃO ENTRE SOFTWARES DE DESENHO VETORIAL Tabela 1. Categoria 5. Dados Gerais 209 Tabela 2. Categoria 5. Plataformas de Operação 209 Tabela 3. Categoria 5. Formatos de Arquivos Vetoriais: Importação 210 Tabela 4. Categoria 5. Formatos de Arquivos Vetoriais: Exportação 210 SUMÁRIO INTRODUÇÃO 12 CAPÍTULO I. COMUNICAÇÃO SOCIAL NO BRASIL 36 1.1. CURSOS DE COMUNICAÇÃO SOCIAL 37 1.2. NOVAS DIRETRIZES CURRICULARES PARA A ÁREA DA COMUNICAÇÃO SOCIAL 40 1.3. A COMUNICAÇÃO SOCIAL E O MERCADO DE TRABALHO 45 1.4 . COMUNICAÇÃO SOCIAL E TECNOLOGIAS DIGITAIS 48 CAPÍTULO II. SOFTWARES DE COMPUTADORES: CONCEITOS GERAIS 53 2.1. SOFTWARE PROPRIETÁRIO: PARTICULARIDADES 61 2.2. SOFTWARE LIVRE: PARTICULARIDADES 67 2.3. O SOFTWARE LIVRE E O PARADIGMA LIBERTÁRIO 69 2.4. O MODELO DE DESENVOLVIMENTO DO SOFTWARE LIVRE 78 2.5. MOVIMENTO PELO SOFTWARE LIVRE E AS CULTURAS DA INTERNET 84 CAPÍTULO III. O ENSINO DE COMUNICAÇÃO E A TECNOLOGIA DE SOFTWARE 96 3.1. UMESP – UNIVERSIDADE METODISTA DE SÃO PAULO 100 3.1.1. O Curso de Radialismo da UMESP 105 3.2. FACULDADES ESEEI: ESCOLA SUPERIOR DE ESTUDOS EMPRESARIAIS E INFORMÁTICA 108 3.2.1. O Curso de Radialismo da ESEEI 111 CAPÍTULO IV. COMPARAÇÃO ENTRE SOFTWARES PROPRIETÁRIOS E LIVRES 114 4.1. ANÁLISE COMPARATIVA ENTRE SOFTWARES PARA PROCESSAMENTO DE AUDIOVISUAL 131 4.2. COMPARAÇÃO ENTRE SOFTWARES DE PROCESSAMENTO DIGITAL DE SOM 151 4.3. COMPARAÇÃO ENTRE SOFTWARES DE COMPUTAÇÃO GRÁFICA 3D 175 4.4. COMPARAÇÃO ENTRE SOFTWARES EDITORES DE IMAGEM MATRICIAL OU RASTER 187 4.5. COMPARAÇÃO ENTRE SOFTWARES DE DESENHO VETORIAL 205 CONCLUSÃO 211 REFERÊNCIAS 218 APÊNDICE A . QUESTIONÁRIO – SOFTWARES UTILIZADOS NOS CURSOS DE RADIALISMO DA UMESP E DA ESEEI 231 APÊNDICE B. QUESTIONÁRIO - CURSO DE RADIALISMO DA UMESP 237 ANEXO 1. FACULDADE DE COMUNICAÇÃO FAC – PROJETO PEDAGÓGICO DO CURSO DE RADIALISMO 241 ANEXO 2. GRADE CURRICULAR DO CURSO DE RADIALISMO DAS FACULDADES ESEEI 246 ANEXO 3. DIRETRIZES CURRICULARES PARA CURSOS DE RADIALISMO 250 ANEXO 4. LINUX.LOCAL 263 ANEXO 5. SOFTWARES PROPRIETÁRIOS LICENÇAS 267 GLOSSÁRIO 273 RESUMO A tecnologização que a sociedade experimenta nas últimas décadas trouxe a profusão de máquinas informatizadas e seus sistemas de operação. Neste período a indústria desenvolveu sofisticados e caros softwares aplicativos proprietários para o pleno uso destas máquinas, o que colocou boa parte do mercado social nas mãos de poucas empresas multinacionais, entre elas, a Microsoft, e outras. Mas, o espírito libertário de membros das comunidades científicas e hackers promoveu o desenvolvimento do software livre e aberto, que pode ser usado como bem social mais amplo e, principalmente, evoluir no melhor do espírito colaborativo. O presente trabalho estuda os dois modelos de produção de software, os compara visando tornar evidentes as qualidades de cada um, seus custos, rendimentos e possibilidades de adoção. Projeta a possibilidade de que as habilitações da área da comunicação possam migrar para o modelo de software livre, dadas as plenas qualidades deste sistema, a radical redução de custos e as constatações que amplos segmentos da produção audiovisual os está adotando. Para tanto, compara as experiências aplicadas com ambos os sistemas em dois cursos de comunicação, em sua habilitação de Rádio e Televisão. Palavras-chave: Comunicação Social. Software Livre. Rádio e Televisão. ABSTRACT The Information Technologies that western societies have been experimenting for the last few decades brought a profusion of digital machines and their operating systems. During this period, industry developed sophisticated and expensive proprietary application softwares for the full use of these machines, and took good part of the social market to the hands of few multinational companies, Microsoft among them. But the libertarian spirit of some members of scientific and hakers communities promoted the development of free and open software, that can be used as a ampler social good, and, mainly, evolve in optimum of the collaborative spirit. The present work studies the two models of software production, compares them aiming at the evidentes of qualities of each one, its costs and possibilities of adoption. It projects the possibility that courses of the Social Communication area could migrate to the free software model, given the qualities of this system, the radical reduction of costs and the conclusions that ample segments of communication production are adopting them. For this purpose, it compares the experiences applied with both systems in two courses of communication, in its qualification for audio and motion picture production. Keywords: Social Communication. Free Software. Radio and Television. 12 INTRODUÇÃO Esta pesquisa analisa possibilidades de uso de tecnologias de microcomputadores e softwares em processos de criação de produtos comunicacionais para rádio e televisão pelas faculdades brasileiras no contexto de cursos de Comunicação Social. Para facilitar entendimento sobre o estado da arte destas tecnologias nos cursos de Comunicação Social é importante discorrer, ainda que brevemente, sobre alguns fatos que possibilitaram a evolução, até o estágio atual, de algumas outras tecnologias de comunicação. Uma forma interessante para o agrupamento destes fatos é utilizar a metáfora de Ondas proposta por Alvin Toffler1 e descrita na obra A Terceira Onda: A Morte do Industrialismo e o Nascimento de uma Nova Civilização (2001). Nesta obra o autor explica as fases do desenvolvimento civilizatório, às mudanças culturais, sociais e tecnológicas que se sucederam, mas que não substituíram integralmente as antigas. Algumas destas mudanças assemelham-se muito mais àquelas Ondas que ao invés de substituírem as águas das Ondas anteriores a elas se misturam. Portanto, conforme descrito no decorrer deste estudo, a metáfora de Ondas é empregada com o objetivo de facilitar a compreensão das etapas da evolução humana e das tecnologias de comunicação, desde nosso surgimento na terra nas três Ondas definidas por Toffler. A Primeira Onda, explica Toffler (2001 p. 8), “[...] começou por volta de 800 a.C. e dominou a terra sem qualquer desafio até 1750 d.C.” Provocou as mudanças que levaram o homem nômade, caçador e coletor de alimentos a fixar-se no campo e, desse modo, iniciar a Civilização Agrícola. A comunicação humana se desenvolveu durante essa Onda dentro de pequenos grupos – na família e na comunidade. O surgimento da fala, da linguagem e a invenção da escrita fonética ilustram algumas tecnologias que marcaram a evolução e a busca dos humanos por recursos que facilitassem sua vida, e o processo de comunicação com outros humanos. Um processo complexo que envolveu interação através da fala, gestos ou de outros meios que permitiram a expressão de ideias e conhecimentos no contexto das relações sociais. Podemos resumir estes fatos com base nas explicações apresentadas por Melvin 1 Alvin Toffler é doutor em Letras, Leis e Ciência. Seus estudos e pesquisas dão enfoque, notadamente, às tecnologias e seu impacto e efeitos para os seres humanos. 13 DeFleur e Sandra Ball-Rokeach2, autores da obra Comunicação de Massa (1989 p. 31), para quem a fala e a linguagem parecem ter se originado por volta de 40 mil anos atrás entre pessoas que fisicamente se assemelhavam com os seres humanos de hoje. “Há pouco mais de 5 mil anos”, continuam os pesquisadores, “os chineses, maias, egípcios e sumérios dominaram a escrita, utilizando pictogramas para representar ideias. Por volta de 1.700 anos a.C. os sumérios tiveram a ideia de substituir os pictogramas por pequenos símbolos estilizados para representar um determinado som em vez de uma ideia e criaram a escrita fonética.” Assim, com a fixação do homem na terra, para beneficiar-se da agricultura, foram criados sistemas numéricos. E a necessidade de ampliar o comércio de produtos levou-o a inventar a escrita a partir de técnicas que haviam sido empregadas nos sistemas numéricos. A escrita fonética simplificou significativamente a escrita complexa dos pictogramas e possibilitou a expansão de seu uso. Mas somente alguns milhares de anos depois, com a descoberta do papiro foi possível transportar a informação com facilidade, e isso contribuiu para um processo de mudança na forma de escrita de modo a agilizá-la. O grande problema com os hieróglifos, e até certo ponto com as tabuletas cuneiformes, foi o da portabilidade. [...] tinha a capacidade de durar através do tempo, mas não podia ser facilmente transportada através do espaço. Cerca de 2.500 anos a.C. os egípcios descobriram um método de fazer uma espécie de papel duradouro usando o papiro. [...] Os hieróglifos começaram a ser simplificados à medida que os escribas exigiram tipos mais lisos e fáceis para escrever depressa. (DEFLEUR e BALLROKEACH 1989 p. 35). A história tem nos mostrado que, uma vez adotadas amplamente pelas sociedades, as tecnologias provocam significativas modificações sociais, culturais e econômicas em todo o tecido social das civilizações que as empregam, porém, conforme DeFleur e Ball-Rokeach (1989, p. 36): O mais importante nessa mudança da pedra pesada para veículos leves e portáteis é ter aberto a possibilidade para uma significativa mudança da organização social e cultural da sociedade. [...] A estrutura institucional inteira foi influenciada. Por exemplo, no Egito em 2.000 a.C. o papiro era amplamente utilizado para transmitir ordens escritas e registrar informações de vários tipos. A administração central empregava um 2 DeFleur é doutor em Psicologia Social pela Universidade de Washington. Professor e pesquisador da Escola de Comunicação Pública da Universidade de Siracusa. Ball-Rokeach, doutora em sociologia pela Universidade de Washington e professora da Universidade do Sul da Califórnia. 14 exército de escribas. Alfabetização era uma habilidade valiosa, proporcionando uma porta de entrada para a prosperidade e a elevação social. Os escribas tornaram-se uma classe privilegiada sobre o controle da elite. [...] Abriram-se bibliotecas. Doutrinas e escrituras religiosas foram registradas. Foram criadas escolas para ensinar aos escribas. Até as artes e a ciência começaram a se desenvolver. Tratamentos bem sucedidos para doença puderam ser anotados por escrito. Observações de numerosos aspectos da natureza e suas interpretações puderam ser registradas. A mente humana ficou liberada da pesada tarefa de ter de recordar-se de culturas inteiras e reproduzi-las nas mentes e memórias de cada nova geração. As ideias puderam ser armazenadas, acumuladas e consultadas por gerações subsequentes. Esse foi o grande passo para frente quando os seres humanos penetraram na Era da Escrita. Outra característica do impacto das Ondas no desenvolvimento das civilizações é que as tecnologias são absorvidas e ampliadas à medida que de fato resolvem problemas presentes no ceio das sociedades ou grupos sociais, ou trazem vantagens econômicas significativas como ocorreu com a introdução da imprensa no século XV. Anteriormente ao século XV, as pessoas reproduziam livros na Europa preparando manu script cópias de livros pré-existentes, laboriosamente reproduzidos à mão. [...] o processo amiúde introduzia erros. [...] o número de livros disponíveis ficava severamente restrito e só podiam ser adquiridos por pessoas de consideráveis recursos. A impressão trouxe uma modificação fantástica. [...] milhares de cópias de um determinado livro podiam ser reproduzidas com grande precisão. [...] uma invenção fabulosa que espantou o mundo alfabetizado da época. (DEFLEUR e BALLROKEACH 1989, p. 36-37). Destacamos ainda que as tecnologias não surgem espontaneamente, e sim como resultado de necessidades de determinado estágio de evolução social, de muito trabalho de pesquisa e da existência dos requisitos técnicos, culturais e econômicos necessários ao desenvolvimento de novas tecnologias a partir de outras invenções anteriores. Nesse sentido, DeFleur e Ball-Rokeach (idem p. 37) observam que a invenção da imprensa não teria sido possível sem a tecnologia substituta do papiro, o papel, embora o processo de imprimir já fosse conhecido há muito tempo. Os chineses haviam feito isso e imprimido o Sutra Diamante, o primeiro livro do mundo, por volta do ano de 800 d.C. séculos antes da impressão surgir na sociedade ocidental. [...] Um ponto crítico do eventual surto da impressão no mundo ocidental foi quando o papel começou a substituir o pergaminho no mundo islâmico durante o século VII. (o papel surgira muito antes na China.) A partir daí difundiu-se pela Europa cristã. 15 O surgimento da imprensa3 também não teria sido possível, continuam os pesquisadores, sem a invenção dos tipos móveis adequados à impressão sobre papel. Gutenberg acabou descobrindo um meio de misturar chumbo com outros metais numa espécie de liga que funcionou muito bem mesmo. [...] Prensas haviam sido utilizadas havia séculos para espremer azeite das azeitonas e vinho das uvas. [...] Ficou lindo! A impressão estava nítida e perfeita; não havia erros como os cometidos comumente nas cópias à mão. [...] Sua Bíblia de 42 linhas foi um dos mais belos exemplos jamais produzidos na arte de impressão. [...] Dez anos depois, Gutenberg morreu na pobreza, um homem arruinado. Nunca soube que serviço realmente importante prestara a todos nós […] Ao iniciar-se o século XVI, prensas com tipos móveis estavam produzindo milhares de exemplares de livros impressos em papel. [...] podiam ser lidos por qualquer pessoa alfabetizada em seu idioma. A disponibilidade desses livros incentivou interesse mais disseminado pela aprendizagem da leitura. [...] Pela primeira vez, as Escrituras estavam acessíveis em outras línguas e não o latim. Não mais podia a Igreja Romana guardar cautelosamente as escrituras sagradas graças ao emprego de uma língua antiga. A acessibilidade das Escrituras pelas pessoas comuns, em suas próprias línguas, acabou levando desafios à autoridade e às interpretações de Roma. Um novo veículo de comunicação, pois, abriu caminho para protestos contra a cultura religiosa e social existentes. O surto do Protestantismo levou as novas modificações profundas que tiveram impacto na sociedade ocidental até os dias de hoje (DEFLEUR e BALL-ROKEACH 1989, p.38-39). Ao refletir sobre as explicações de DeFleur e Ball-Rokeach podemos constatar que o surgimento e o desenvolvimento da civilização Ocidental Moderna estão diretamente relacionados com o surgimento da imprensa e foram resultado direto da Revolução Industrial e das transformações que ocorreram na Ciência, na Religião, na Arte e Cultura e na Economia. Transformações que segundo Richard Tarnas (2008)4 levaram o mundo ocidental ao que chamamos de Era Moderna. Como acontecera na revolução cultural da Idade Média muitos séculos antes, as invenções técnicas desempenharam um papel essencial na formação da nova era. Neste momento, especialmente quatro delas (todas com precursores no oriente) entraram em uso disseminado no Ocidente, com imensas ramificações culturais: a bússola magnética, [...] a pólvora, [...] o relógio mecânico e a imprensa, que produziu um fabuloso aumento no aprendizado, levando tanto as obras clássicas como as modernas a um público cada vez mais amplo [...] a imprensa rapidamente divulgava por toda a Europa novas ideias, muitas vezes revolucionárias. Sem ela, a reforma se 3 4 O alemão Johannes Gutenberg inventou a prensa de tipos móveis em 1450. Ph. D. pelo Saybrook Institute em 1976. Professor de filosofia e psicologia no California Institute of Integral Studies em San Francisco, fundador e diretor do programa de graduação em Filosofia, Cosmologia e Consciência. 16 teria limitado a uma disputa teológica relativamente pequena em alguma província germânica; a Revolução Científica, tão dependente da comunicação internacional entre muitos cientistas, também seria totalmente impossível. Além do mais, a disseminação da palavra impressa e o crescente aumento da alfabetização contribuíram para um novo ethos cultural, marcado por formas não-comunitárias de comunicação e experiências cada vez mais individualizadas e privadas, incentivando assim o crescimento do individualismo. A leitura silenciosa e a reflexão solitária ajudaram a liberar o indivíduo das maneiras tradicionais de pensar e do controle que a coletividade exercia sobre o pensamento; agora os leitores individuais obtinham acesso privado a inúmeras perspectivas e formas de experiência (TARNAS 2008 p. 247-248). A história da mídia impressa tem demonstrado a íntima relação entre a propagação do conhecimento científico e a Revolução Industrial, como demonstra Manuel Castells5 em sua obra A Sociedade em Rede – A Era da Informação: economia, sociedade e cultura (1996 p. 46-51): [A] informação em seu sentido mais amplo, por exemplo, como comunicação do conhecimento, foi crucial a todas as sociedades, inclusive à Europa medieval que era culturalmente estruturada e, até certo ponto, unificada pelo escolasticismo, ou seja, no geral uma infra-estrutura intelectual. [...] A primeira Revolução Industrial, apesar de não se basear em ciência, apoiava-se em um amplo uso de informações, aplicando e desenvolvendo os conhecimentos pré-existentes. E a segunda Revolução Industrial6, depois de 1850, foi caracterizada pelo papel decisivo da ciência ao promover a inovação. De fato, laboratórios de P&D aparecem pela primeira vez na indústria química alemã nas últimas décadas do século XIX [...]. Pois foi justamente a industrialização, resultante da segunda Onda civilizatória, que propiciou o surgimento do que podemos considerar o primeiro veículo de comunicação de massa: O jornal do tostão. Um jornal barato, de ampla distribuição e que, de acordo com DeFleur e Ball-Rokeach, “foi o primeiro verdadeiro veículo de comunicação de massa da humanidade.” Continuam os autores, “Essas coisas, ocorreram em meados da década de 1830 na cidade de Nova York. O jornal de massa foi um grande sucesso e dali a poucos anos espalhara-se por muitas partes do mundo” (idem, p. 39). 5 No período de 1967 a 1979 foi professor na Universidade de Paris. Em 1979, nomeado professor de Sociologia e Planejamento Regional na Universidade de Berkeley, Califórnia. Em 2001, tornou-se pesquisador da Universidade Aberta da Catalunha em Barcelona. Em 2003, professor de Comunicação na Universidade da Califórnia do Sul. Segundo o Social Sciences Citation Index foi o quarto cientista social mais citado no mundo no período 2000-2006, e o mais citado acadêmico da área de comunicação no mesmo período. 6 O fato que caracteriza a segunda Revolução Industrial é a mecanização das atividades industriais para a substituição do trabalho humano por máquinas movidas a vapor. 17 Portanto, sem dúvida, a invenção de tecnologias como a prensa de tipos móveis por Gutenberg – inicialmente usada para produção de livros – foi fundamental para o progresso da civilização humana e propiciou a criação do primeiro jornal de massa. Nesse contexto é importante lembrar que o surgimento do Jornal do Tostão, quase 300 anos depois da invenção de Gutenberg, só foi possível a partir de outros fatores que o viabilizaram. Uma contribuição importante nesse contexto está relacionada ao crescimento da produção industrial de grandes volumes de produtos padronizados, pois este fenômeno provocou o aumento das vendas dos produtos que passaram a necessitar de publicidade, assim, foi o valor pago pela publicidade que, por sua vez, financiou o jornal cujo custo de produção não permitiria que fosse vendido por um tostão. Em seu livro Consumidor versus Propaganda (1991) Gino Giacomini Filho7 esclarece que no contexto brasileiro também houve íntima relação entre a imprensa de massa e a propaganda quando aponta o surgimento da imprensa brasileira no início do século XIX. Mas que se tornou de massa somente no primeiro quarto do século XX: Remonta ao início do século XIX a introdução da imprensa, através do Correio Brasiliense. Em 1808 surge a Gazeta do Rio de Janeiro, publicada em uma coluna com circulação aos sábados [...] o Brasil dá a partida para massificar a imprensa […]. Em 1825 surgia o Diário de Pernambuco, jornal mais antigo em circulação no país. [...] Surge em 1875 o jornal A Província de São Paulo, mais tarde transformado em O Estado de São Paulo [...] mas que não teve consistência [...], pois sua aplicação era ao mesmo tempo desnecessária e inviável sob o ponto de vista dos meios de comunicação de massa. [...] Como a publicidade dependeria inicialmente dos veículos impressos, só a partir dos anos 20 do século passado é que começaria a haver um desenvolvimento nessa área. (GIACOMINI 1991, p. 28). Uma segunda contribuição essencial ao surgimento do jornal de massa foi, segundo DeFleur e Ball-Rokeach (1983, p. 39), a criação de um mercado consumidor formado por “[...] ampla base de artesãos, mecânicos e mercadores que constituíam as classes média e trabalhadora nascentes da emergente sociedade urbano-Industrial”, uma nova classe econômica cuja alfabetização foi requisito para empregar-se na indústria e que passou a utilizar o jornal para informar-se sobre assuntos de seu interesse. A terceira e definitiva contribuição também resultante da Revolução Científica e da 7 Bacharel, Mestre e Doutor em Propaganda e Publicidade pela Escola de Comunicação e Artes da USP. 18 industrialização foi a invenção da prensa movida a vapor, que revolucionou as técnicas para a impressão anterior e possibilitou a impressão rápida de grande número de exemplares de livros e jornais. Nossa metáfora de segunda Onda, aplicada às tecnologias de comunicação de massa, iniciou-se com a proliferação do conhecimento acerca da eletricidade e do eletromagnetismo. Esse conhecimento e invenções decorrentes de seu uso levaram a fabricação de novas mídias para comunicação de massa, fato que de acordo com Dizard8 (2000, p. 53) “ocorreu com a introdução da transmissão por ondas eletromagnéticas – o rádio em 1920 e a televisão em 1939”. A invenção da tecnologia para transmissão de ondas do rádio em 1873 é atribuída ao italiano Guglielmo Marconi, porém somente em 1915 o americano David Sarnoff encontrou uma utilidade para viabilizar o uso dessa tecnologia na comunicação de massa. Schiffer nos apresenta a ideia de Sarnoff: Eu tenho em mente um plano para desenvolver o rádio no sentido de se transformar numa utilidade doméstica, no mesmo sentido que o piano ou o fonógrafo. A ideia é levar música às casas pela comunicação sem fio... O receptor pode ser desenhado na forma de uma simples Radio Music Box equipada com válvulas de amplificação e um alto-falante. A caixa pode ser colocada numa mesa da sala, a sintonia regulada apropriadamente, e a transmissão da música recebida. (SCHIFFER9 apud MEDITSCH10 2001, p. 32). Foi essa ideia que a empresa Westinghouse, na qual trabalhava Sarnoff, utilizou para produzir aparelhos de receptores de rádio e organizar uma emissão regular de música. No dia 2 de novembro de 1920 a emissora KDKA de Pittsburg, em colaboração com o jornal Pittsburg Post, irradiou os resultados das eleições presidenciais americanas, e desse momento em diante o crescimento foi rápido e constante até seu auge nos anos 1940, com quinhentas emissoras licenciadas nos Estados Unidos: 8 Wilson Dizard Jr., associado sênior do programa de políticas do Center for Strategic International Studies em Washington. 9 Michael Brian Schiffer - um dos fundadores e expoentes da arqueologia comportamental. A partir da década de 1980 realizou estudos sobre mudanças provocadas pelas tecnologias elétricas e eletrônicas. 10 Eduardo Meditsch é doutor pela Universidade Nova de Lisboa. Mestre pela Universidade de São Paulo e professor da Universidade Federal de Santa Catarina. Autor da obra O Rádio na Era da Informação – Teoria do Novo Radiojornalismo 2001. 19 [...] foram os chamados 'anos dourados do rádio', período em que este veículo ocupou uma posição hegemônica na mídia, não só como meio de informação, mas sobretudo de propaganda e entretenimento. Nessa época o rádio foi considerado 'a oitava arte', nadou em recursos econômicos e desenvolveu como nunca as suas potencialidades, como centro das atenções de artistas e intelectuais (SCHIFFER apud MEDITSCH, 2001, p. 32). Nessa época as emissoras de rádio possuíam a limitação de somente transmitir programas ao vivo. Essa limitação só foi resolvida em abril de 1948 com a fabricação em escala comercial de gravadores de áudio em fita magnética. Neste ano a Ampex, empresa americana que se dedicara à construção de componentes para radares durante a guerra, tornou-se pioneira na fabricação de gravadores de áudio de qualidade quando entregou as primeiras sete gravadoras modelo 200 à ABC – American Broadcasting Company colocadas imediatamente em serviço para reprodução e transmissão de programas gravados antecipadamente. As tecnologias do rádio, acrescidas de outros desenvolvimentos tecnológicos, principalmente relacionados ao desenvolvimento de tubos catódicos para fabricação de aparelhos de TV, tornaram possível a invenção do terceiro e, possivelmente, mais importante meio de comunicação de massa até o presente – a televisão. Embora experiências pioneiras tenham sido realizadas na Europa – Alemanha (1928), Inglaterra (1929), Itália (1930) e França (1932) – o uso da TV como utilidade pública ocorreu somente a partir de 1936 na Inglaterra. Quase uma década mais tarde, em 7 de setembro de 1941, a CBS – Columbia Broadcast System fez o primeiro noticiário da televisão na América do Norte mostrando o envolvimento dos EUA na Segunda Guerra Mundial. Em 12 de junho de 1951 passou a emitir sinais de TV em cores, no que foi seguida pela NBC - National Broadcast Corporation em 1954, ambas nos Estados Unidos. O pesquisador e professor Dr. Sebastião Squirra11 registra na obra O Século Dourado: A comunicação eletrônica nos EUA (1995, p. 36) a importância da televisão quando observa que “num terreno amplamente dominado pela mídia impressa, a TV se firmava como ágil veículo de comunicação na abordagem, discussão e esclarecimento dos temas quentes do momento”. De modo a enfatizar o poder de mediação por imagens e áudio da TV, Squirra (idem, ibidem), apresenta a eficácia da televisão após o atentado contra Kennedy, no dia 22 de 11 Jornalista de televisão, mestre e doutor em Ciências da Comunicação pela Universidade de São Paulo, (1992). Pós-Doutorado pela University of North Carolina, Estados Unidos (1996). Professor da UMESP e da ECA/USP. Disponível em: http://buscatextual.cnpq.br/buscatextual/busca.do Acesso 07- 01-09. 20 novembro de 1963, em Dallas: “Cronkite foi ao ar quatro minutos após a primeira transmissão do fato, feita pela rádio ABC de Nova York. O rádio saiu na frente, mas a população correu à televisão, pois ansiava 'ver para acreditar no que estava ouvindo' [...] e uma longa maratona televisiva passou pelas telas. [...] Todos queriam saber tudo e a televisão estava lá para atendê-los”. No Brasil a televisão foi inaugurada em 18 de setembro de 1950 pelo jornalista e empresário Assis Chateaubriand, dono dos Diários e Emissoras Associados, e segundo Squirra (1995 p.104) “[...] no dia seguinte ao da inauguração, em São Paulo, da primeira emissora brasileira de TV, a PRF-3 TV [...] foi ao ar um programa de caráter jornalístico que se chamava Imagens do Dia”. Do mesmo modo que o rádio, Squirra nos lembra (1995, p.32) que no início das transmissões pela televisão os programas eram apresentados ao vivo, e assim permaneceram até o surgimento do videotape ou VTR – Video Tape Recorder. “O primeiro gravador de imagens para televisão surgiu só em 1956, quando a Ampex Corporation apresentou o primeiro aparelho de videoteipe [...] com o videoteipe, a produção ficou mais barata e permitia que todos os programas fossem gravados, editados e estocados”. Apesar do conhecimento já adquirido com o gravador de áudio, o desenvolvimento do VTR não foi simples. Até seu lançamento no mercado pelo menos dois projetos de pesquisa e desenvolvimento inusitados foram pioneiros: O primeiro foi o projeto VERA – um acrônimo para Vision Electronic Recording Apparatus – iniciado na BBC em 1952 e cujo resultado foi um videotape que passou a ser utilizado pela emissora após um teste de transmissão realizado em abril de 1958. O segundo projeto foi o desenvolvido pela Ampex que, dois anos antes da conclusão do projeto VERA pela BBC, forneceu ao mercado o primeiro gravador de videotape VRX-1000 às emissoras da CBS em março de 1956. Mesmo em evolução, a gravação de programas em videoteipe praticamente obrigava as pessoas a utilizarem um sistema de edição para modificar ou adequar o conteúdo gravado. De início, os primeiros processos de edição consistiram no corte e emenda física da fita magnética, de modo similar a cinescopia12, até que em 1963 a Ampex lançou o primeiro editor eletrônico de videoteipe: o Electronic Editor. Uma característica básica dos primeiros sistemas de edição era que a edição tinha que ser feita de modo linear, ou seja, com fitas para entrada sequencial do sinal de vídeo no editor (normalmente duas) e uma fita para saída do material editado. Por ser sequencial 12 Método utilizado para montagem de filmagens realizadas em película e reveladas quimicamente. 21 tornava-se impraticável introduzir no editor pontos da fita de entrada que não estivessem na sequência. Dependendo da complexidade da edição, às vezes, os editores produziam saídas editadas, posteriormente utilizadas como entrada, mas que neste caso traziam prejuízo para a qualidade da imagem resultante da edição. O ideal seria que a edição pudesse ser não-linear, ou seja, que fosse possível pinçar trechos do conteúdo de entrada de modo não-sequencial, aleatório. Nesse contexto, além do desenvolvimento dos primeiros sistemas de edição, Toffler (2001 p. 28) nos lembra que a partir de 1955 a segunda Onda civilizatória ganhou força. “[...] A civilização Industrial, [...] dominou então o planeta por sua vez, até atingir a altura máxima. Este último ponto máximo ocorreu nos Estados Unidos, durante a década iniciada por volta de 1955 – a década que viu os trabalhadores de macacão. Esta foi a década que viu a introdução do computador, o jato comercial, a pílula anticoncepcional e muitas outras invenções de alto impacto.” A esta altura, a tecnologia de computação já estava razoavelmente avançada e havia desenvolvido sistemas de armazenamento em discos magnéticos que permitiam acesso randômico (aleatório). Os sistemas de armazenamento de informações em discos magnéticos permitiam, por exemplo, acesso direto a conteúdos gravados em trilhas do meio do disco sem a necessidade de se ler sequencialmente a partir da primeira trilha – e, portanto, seria de se esperar o surgimento de iniciativas voltadas à integração de computadores e de editores eletrônicos com o objetivo de se criar sistemas de edição de vídeo não lineares mais sofisticados. A primeira iniciativa nesse sentido foi realizada pela empresa CMX Editing Systems, que ao integrar computadores e editores analógicos de videotape construiu o primeiro sistema não-linear de edição de vídeo em 1971. Segundo informa Peter Sharp (2007)13, os sistemas CMX foram desenhados para possibilitar tanto edição linear, inclusive para editar conteúdo gravado ao vivo, quanto não-linear em fase de pós-produção a partir de conteúdos de vídeo e áudio gravados em videotapes. Ocorreu que esta iniciativa pioneira não teve o sucesso esperado, pois na época as duas principais tecnologias – os computadores e os editores eletrônicos – ainda eram muito caras. Um sistema CMX600 não custava menos que US$ 250.000,00, ou seja, um quarto de milhão de dólares, quantia elevada até mesmo para grandes empresas de mídia, esclarece Sharp. Entretanto, esta questão do preço começou a ser resolvida com a miniaturização do hardware eletrônico, com o desenvolvimento da indústria dos microprocessadores e da 13 Autor de Da lâmina de barbear ao desktop - Uma história de edição de vídeo (2007). Disponível em: http://www.netribution.co.uk/content/view/1236/277/ Acesso em 20/01/09. 22 indústria de software, potencializada pela computação gráfica e pelo desenvolvimento e popularização das GUI – Graphic User Interface. A partir de meados dos anos 80, fabricantes de hardware e software, como a Steinberg Media Technologies GmbHpor14 começaram a desenvolver placas (hardware) especializadas no processamento de sinais de áudio e vídeo, bem como imensa variedade de softwares de edição e composição de áudio e vídeo para funcionamento em plataformas PC – Personal Computer da IBM – e Macintosh da APPLE Computer. Encontramos-nos no estado da arte onde praticamente todas as atividades relacionadas à produção de audiovisuais já podiam utilizar-se de tecnologias digitais baseadas em sistemas (computadores, placas, interfaces) e softwares especializados para a produção de conteúdos comunicacionais, notadamente para rádio e televisão. Squirra (2000 p. 1) ilustra este estado da arte ao afirmar que: Impossível não abordar as imagens digitais, já que o mundo ciberespacial está presente e repleto de situações onde as imagens (e suas novas interpretações artísticas) são veiculadas, dos CD-ROMs aos videojogos, dos novos quadrinhos às Home Pages etc. Atualmente, grandes volumes de imagens (e textos) estão sendo guardados em gigantescos bancos de dados que se encontram, conforme o caso acessível a muitos. O mundo digital chegou e já atingiu todas as mídias, sobretudo a fotografia, o cinema e a televisão. (ibidem). Portanto, do ponto de vista da tecnologia o contexto da terceira Onda é, a princípio, caracterizado pelo período que marca o final do século XX e início do século XXI. Um período marcado pelo aparecimento de inovadores dispositivos de comunicação, mais baratos, menores e mais performativos e que facilitam enormemente a comunicação entre humanos. Na concepção de Toffler (2001 p.28) embora tenha iniciado por volta de 1955, foi no final do século XX “[...] que a Terceira Onda começou a ganhar força nos Estados Unidos. Desde então chegou – em datas um pouco diferentes – à maioria das outras nações industrializadas, inclusive a Grã-Bretanha, a França, a Suécia, a Alemanha, a União Soviética e o Japão”. Nesse momento, nos explica o pesquisador, o aparecimento de inovadores dispositivos de comunicação modificou drasticamente o modo como cada indivíduo passou a ver, entender e interagir no mundo, pois, novos aparatos tecnológicos de comunicação trouxeram consigo, além de inovadoras possibilidades para a comunicação, novas 14 Empresa sueca pioneira nesse tipo de produção. 23 possibilidades para o acesso às informações nos mais distantes pontos do globo. Neste cenário, Pierre Lévy15 (1999) observa que “o universo da cibercultura16 traz consigo a promessa de permitir que todos possam ter acesso a novas formas de comunicação e informação independentemente de localização geográfica e de tempo.” Outra característica básica da terceira Onda postulada por Toffler (idem p. 172) é a desmassificação dos media. A desmassificação “[...] intensifica os meios de comunicação, traz com ela um enorme salto na quantidade de informação que todos trocaremos uns com os outros. E é este aumento que explica por que estamos nos tornando a ‘sociedade da informação’.” A desmassificação dos media é um fenômeno diretamente relacionado com o acesso de todo tipo e tamanho de empresas e até mesmo de indivíduos as tecnologias de produção e de acesso a conteúdos. Com a desmassificação formam-se milhares de grupos de interesse, cujos membros podem atuar tanto como receptores quanto como produtores de mensagens comunicacionais através dos acessos às tecnologias de produção e publicação de mensagens. O sucesso global do fenômeno Youtube é um exemplo desta realidade, pois neste início do século XXI, parece que cada vez mais o ser humano concede aos novos meios de comunicação e, portanto, a tecnologia, um status especial. Como se fosse uma lei natural, que não leva em consideração o fato de que “[...] a tecnologia está longe de ser neutra. Ela modela nossas escolhas, ela dirige as nossas ações” (NAISBITT 1999, p.28). As ideias de Toffler e de Naisbitt17 se complementam quando constatamos que ambos ressaltam que a desmassificação que os media refletem e intensificam simultaneamente traz consigo um enorme salto na quantidade de informações que trocamos uns com os outros. Este aumento na troca de informações pode explicar, por exemplo, porque cada vez mais os humanos se comunicam por meios de novas tecnologias digitais, que facilitam o acesso e a troca de informações à distância e em tempo real. Antes do surgimento da sociedade da Informação, explica Dizard (2000 p. 102) “as inovações se desenvolviam lentamente, a intervalos de muitos anos, dando tempo para a adaptação das novas técnicas às realidades sociais existentes, atualmente o tempo é cada vez mais um bem precioso e escasso, tal qual o conhecimento, o acesso às informações e o uso das novas tecnologias não aceitam limitações 15 Filósofo, especialista em novas tecnologias da comunicação e professor da Universidade de Paris VIII Departamento de Hipermídia. 16 O termo é formado pela junção do prefixo cyber com a palavra cultura. É empregado para descrever as novas culturas virtuais - da qual fazem parte pessoas familiarizadas com as novas tecnologias digitais e que navegam com desenvoltura pela rede mundial de computadores-Internet. 17 Ex-executivo da IBM e da Eastman Kodak, trabalhou na equipe presidencial americana durante a administração John F. Kennedy e foi assistente especial do presidente Lyndon Johnson. Autor da Obra High Tech - High Touch (1999). 24 geográficas ou de tempo.” Com isso torna-se necessária uma maior integração entre os sistemas educacionais e o mercado de trabalho já que na nova economia do conhecimento os estudantes devem ser preparados para aprender a aprender durante toda a vida, como forma de manterem-se atualizados em um ambiente tecnológico de rápidas e constantes mudanças. Nesse contexto, Juan Luis Cebrián18, na obra intitulada A Rede: como nossas vidas serão transformadas pelos novos meios de comunicação (1999 p. 17), ressalta: A aprendizagem converteu-se em um desafio para a vida inteira. Quando um jovem se forma na universidade, muito do que aprendeu em seu primeiro curso já ficou obsoleto. As fábricas modernas estão transbordando de computadores, robôs e redes, e os operários aprendem continuamente técnicas novas e sofisticadas. Como a nova economia é uma economia do conhecimento, a aprendizagem faz parte da atividade econômica cotidiana e da vida, e tanto as empresas quanto os indivíduos descobriram que têm de assumir a responsabilidade de aprender, se querem realmente funcionar. A capacidade para se aprender a utilizar profissionalmente novas tecnologias de informação e comunicação pode ser um fator primordial para o desenvolvimento econômico das nações. O jornalista Thomas Friedman19, autor de O Mundo é Plano (2005), nos relata alguns exemplos do que dissemos. Para ele as novas tecnologias de informação e comunicação, notadamente a Internet, e a capacidade para utilizá-las têm sido importantes para aumentar a geração de empregos em países como China e Índia. O pesquisador constatou que nestes países20 a Internet permite que os cidadãos possam interagir no ciberespaço21 com novos conteúdos, ideias e como membros de grupos organizados de trabalho capazes de mobilizar, aproveitar e canalizar correntes de informações em benefício próprio e coletivo. É inegável que agora um número maior do que nunca de pessoas tem a possibilidade de colaborar e competir em tempo real com um número maior de outras pessoas de um 18 Filósofo e jornalista europeu, membro da Real Academia Espanhola e do Clube de Roma em Madri. Tornou-se famoso na década de 1960 ao publicar o informe: Os limites do crescimento, elaborado por uma equipe do Massachusetts Institute of Technology – MIT. 19 Friedman é jornalista e conquistou três vezes o Prêmio Pulitzer por suas colunas de política externa no jornal The New York Times. É autor de De Beirute a Jerusalém – ganhador do National Book Award; O Lexus e a Oliveira; Entendendo a Globalização; e Longitudes and Attitudes: Exploring the World After September 11”. 20 Durante viagem o autor visitou algumas empresas de terceirização de trabalhos na Índia, como a Infosys Technologies Limited, atuante na área da tecnologia da informação. 21 Espaço que exclui limitações geográficas e a necessidade da presença física das pessoas em processos de comunicação, pois a comunicação ocorre no espaço virtual, mediada por computadores, a qualquer tempo, lugar ou hora. 25 número maior de cantos do globo, num número maior de diferentes áreas e num pé de igualdade maior do que em qualquer momento anterior da história do mundo – graças aos computadores, ao correio eletrônico, às redes, à tecnologia de teleconferência e a novos softwares mais dinâmicos. [...] estamos interligando todos os centros de conhecimento do planeta e costurando uma única rede global, o que (se a política e o terrorismo não atrapalharem) pode precipitar uma era notável de prosperidade e inovação (ibidem, p.16). Para ilustrar a afirmação acima Friedman relata como os computadores e outras tecnologias digitais de informação estão a transformar a vida das pessoas nessa parte do mundo, incluindo-as no mercado de trabalho global, desde que estejam preparadas para lidar com tecnologias de informação e comunicação: [...] Fui parar em Bangalore, o Vale do Silício indiano. Cheguei à Índia pelo leste. Tudo o que eu queria era entender por que os indianos que conheci estavam tirando o trabalho dos americanos, por que haviam se tornado uma referência tão importante no campo da terceirização de serviços e tecnologia da informação dos EUA e outros países industrializados. [...] muitas pessoas que lá conheci mais pareciam americanas. Algumas chegaram a adotar nomes americanos, enquanto outras reproduziam à perfeição o sotaque americano nos call centers e as técnicas americanas de gerenciamento nos laboratórios de software. [...] o que aconteceu nos últimos anos foi que houve um investimento maciço em tecnologia, sobretudo no período da bolha, quando centenas de milhões de dólares foram investidos na instalação de conectividade em banda larga no mundo inteiro, cabos submarinos, essas coisas. Paralelamente, [...] houve o barateamento dos computadores, que se espalharam pelo mundo todo, e uma explosão de softwares; correio eletrônico, motores de busca como o Google e softwares proprietários capazes de retalhar qualquer operação e mandar um pedaço para Boston, outro para Bangalore e um terceiro para Pequim, facilitando o desenvolvimento remoto. Quando todos esses fatores se reuniram, por volta do ano 2000 [...] engendraram uma plataforma com base na qual o trabalho e o capital intelectuais poderiam ser realizados de qualquer ponto do globo; tornou-se possível fragmentar projetos e transmitir, distribuir, produzir e juntar de novo as suas peças, conferindo uma liberdade muito mais ampla ao nosso trabalho, principalmente o trabalho intelectual. [...] o que se vê em Bangalore, não passa do clímax desse processo de convergência. [...] países como a Índia hoje estão aptos a competir pelo trabalho intelectual global como nunca antes. (ibidem, p.12-15). No relato de Friedman, que apresentamos a seguir, também é possível perceber que a comunicação em alta velocidade pela rede propicia novas oportunidades de comunicação e de trabalho, sobretudo terceirizados, para pessoas com diferentes profissões e nos mais diversos lugares do mundo. 26 Cerca de 70 mil contadores, acrescenta ele, se formam na Índia a cada ano; muitos são contratados pelas empresas locais por um salário inicial de 100 dólares por mês. A comunicação em alta velocidade o treinamento rigoroso e os formulários padronizados permitem converter esses jovens indianos, num prazo relativamente breve e a um custo pífio, em contadores ocidentais rudimentares. Certos escritórios de contabilidade indianos chegam a divulgar seus serviços junto às firmas americanas por meio de teleconferências, a fim de economizar a viagem. [...] A profissão de contador está atravessando um momento de transição. Aqueles que se aferrarem ao passado e resistirem às mudanças vão se afundar na massificação. Por outro lado, os que se mostrarem aptos a agregar valor – mediante a sua liderança, os seus relacionamentos e sua criatividade – não só transformarão o setor como vão fortalecer seus relacionamentos com os clientes (ibidem, p.23). Em outro exemplo, Friedman nos mostra como as novas tecnologias também estão a provocar mudanças e novas oportunidades de trabalho em áreas que até há pouco tempo eram consideradas intocáveis do ponto de vista de seus profissionais, como o jornalismo. Sobre este fenômeno relata o autor: Graças a Deus sou jornalista, não contador nem radiologista. No meu caso não tem terceirização (por mais que alguns dos meus leitores preferissem que a minha coluna fosse despachada para a Coréia do Norte). Pelo menos era o que eu pensava – até tomar conhecimento da operação da agência de notícias Reuters na Índia. [...] com 2.300 jornalistas em todo o mundo, espalhados em 197 escritórios, e atendendo um mercado que vai desde bancos de investimentos, corretoras de ações e investidores que aplicam no mercado de derivativos até jornais, rádios, emissoras de televisão e sites da Internet, a Reuters sempre teve de satisfazer um público muito complexo. Depois da derrocada das empresas ponto-com, no entanto, quando muitos dos seus clientes passaram a prestar mais atenção aos seus gastos, a agência começou a se perguntar, por uma questão tanto de custo quanto de eficiência: onde realmente precisamos que o nosso pessoal esteja, a fim de alimentar nossa cadeia global de fornecimento de notícias? Não será possível dividir o trabalho de um jornalista, mantendo parte em Londres e Nova York e transferindo o resto para a Índia? [...] Não seria possível dividir as funções do jornalista e transferir as funções de baixo valor agregado para a Índia? [...] reduzir ao máximo as redundâncias na folha de pagamento da Reuters, ao mesmo tempo preservando o maior número possível de cargos para bons jornalistas. [...] a primeira coisa foi contratar, a título de experiência, seis jornalistas de Bangalore. A ideia era que eles cuidassem das notas rápidas, das tabelas e tudo o mais que pudesse ser feito por lá. Os novos funcionários indianos tinham formação em contabilidade e foram treinados pela Reuters, mas recebiam salários, férias e benefícios de acordo com o mercado local. [...] a terceirização dos boletins para a Índia permitiu a Reuters ampliar sua cobertura, que agora inclui um maior número de pequenas empresas – algo inviável para a agência antes, em virtude dos salários mais altos dos jornalistas de Nova York. (ibidem, p. 27 -29). 27 As mudanças provocadas pela terceira Onda de evolução das tecnologias, notadamente digitais, da informação e comunicação são, objetivamente, apresentadas por Squirra apud Marques de Melo (2008 p.160 grifo nosso) quando este pesquisador explica: As infindáveis configurações dos processos digitais, sistemas que delineiam extraordinárias abrangências de conexão e alto poder de sedução, representam realidades palpáveis em todos os cantos do globo nos dias atuais. Este dinâmico e moderníssimo cenário de possibilidades e incrementos – e entendimento – dos desejos pessoais representa uma radical mudança de paradigmas tecnológicos, uma vez que até passado recente as descobertas do mundo moderno separavam o Hemisfério Norte do Sul, distanciando as nações evoluídas daquelas que se encontravam realizando esforços desenvolvimentistas. O mundo digital praticamente rompeu com esta tradição, principalmente no tempo de implantação do excitante parque de modernidades tecnológicas, pois a voracidade globalizante do capital, a alta competitividade empresarial e a diminuição – e consequente barateamento dos equipamentos e seus componentes, além da comunicação em tempo instantâneo, têm feito com que as evoluções tecnológicas sejam adotadas quase ao mesmo tempo no planeta inteiro. Entendo ser seguro afirmar que isto vem alterando de forma consistente os hábitos e opções de comunicação entre todos os seres humanos, uma vez que a sociedade está interconectada – e em tempo real, nas ‘pontas dos dedos’ –, fazendo com que todos aqueles com algum recurso e conhecimentos elementares de tecnologia possam desfrutar das benesses tecnológicas disponibilizadas nos últimos anos. As distintas concretizações que os avanços tecnológicos trouxeram constituemse como multifacetados processos comunicacionais, possibilitados por tecnologias altamente complexas (mas que são ‘amigáveis’ na presença do consumidor), que materializam os sempre sonhados projetos de colocar à disposição do ser humano volume expressivo de possibilidades de conexão para seu bem-estar, entretenimento, cultura e evolução, pessoal e profissional. No Brasil, como em alguns outros países em desenvolvimento, o acesso aos novos sistemas digitais de informação e comunicação também abre novas possibilidades de trabalho. Entretanto, para muitos brasileiros sem nenhuma qualificação profissional, muitos analfabetos funcionais, as novas tecnologias digitais trazem medo e insegurança. Nesse sentido, cabe às empresas e, principalmente, às instituições educacionais a tarefa de aproximar os cidadãos da nova realidade tecnológica que toma conta dos setores produtivos do país e prepará-los para que possam interagir com tranqüilidade, segurança e competência no seu meio social e profissional. Pelo que expusemos até agora, parece-nos essencial que a formação dos egressos de comunicação social contemple o uso intensivo das tecnologias digitais, em especial a formação dos egressos de Radialismo que utilizam novas tecnologias o tempo todo para realizar suas atividades profissionais. Isto posto, é importante que as instituições de educação 28 superior do país analisem o emprego destas tecnologias nos processos de ensino conforme determinam as Diretrizes Curriculares Nacionais – Parecer n.º 492/2001 do CNE/CES, aprovadas em 03/04/2001 pelo CNE que, no caso do ensino superior, definiram as regras a partir das quais a área da comunicação e suas habilitações deveriam se estruturar. As Diretrizes Curriculares Nacionais podem ser compreendidas como um conjunto de princípios, fundamentos e procedimentos que devem ser observados na organização pedagógica e curricular dos cursos que integram o sistema de ensino brasileiro, conforme determina a Lei 9394/96 – Lei de Diretrizes e Bases da Educação Nacional. É um documento que estabelece parâmetros gerais e específicos para formação profissional dos egressos da comunicação e que enaltece a importância do desenvolvimento de competências para uso das novas tecnologias digitais nas mais diversas atividades produtivas da área tendo em vista a vinculação entre educação, mundo do trabalho e prática social, consolidando assim a preparação do indivíduo para o exercício da cidadania e para o trabalho. Conforme o Parecer n.º 492/2001 do CNE/CES, as diretrizes nasceram com os objetivos de: a) flexibilizar a estruturação dos cursos, não mais submetidos à exigência de um currículo mínimo obrigatório, buscando a diversificação de experiências de formação para atender as variedades de circunstâncias geográficas, político-sociais e acadêmicas, para ajustar-se ao dinamismo da área, e para viabilizar o surgimento de propostas pedagógicas inovadoras e eficientes; b) recomendar procedimentos e perspectivas essenciais, de modo a funcionar como um padrão de referência para todas as instâncias que, buscando a qualidade, objetivem uma sintonia com posições majoritariamente defendidas pelas instituições e entidades representativas da área; c) estabelecer critérios mínimos de exigência, no que se refere à formulação e à qualidade da formação, que possam funcionar como parâmetro básico de adequação e pertinência para os cursos da área. Segundo Faro apud Peruzzo (2003 p. 143), este documento deixa claro, portanto, a missão das escolas de comunicação do país: [...] desenvolver nos jovens competências intelectuais e profissionais para que possam compreender o meio social em que vivem e para refletirem sobre os problemas brasileiros; saberem utilizar as novas tecnológicas em suas atividades profissionais e conviverem em harmonia com as mudanças que se apresentam no contexto da sociedade da informação. A vinculação entre educação, mundo do trabalho e prática social pressupõe o desenvolvimento de competências para uso de novos recursos tecnológicos nas diversas profissões de comunicação. Portanto, a formação e a qualificação profissional para uso de 29 tecnologias de hardware e software compõem o conjunto de responsabilidades das universidades brasileiras, pois, notadamente a partir da década de 1990, os processos de comunicação, produção e geração de riquezas se tornaram muito dependentes destas tecnologias. Isto posto, perspectivas acerca do uso correto e útil das tecnologias de software como instrumentos para difusão de ideias e criação de variados produtos de informação para rádio, televisão ou Internet tornam-se questões centrais – política, econômica e social – para as escolas de comunicação do Brasil diante da responsabilidade de formarem profissionais qualificados e com capacidade para interagir no mundo de trabalho. Em especial na área de Radialismo (rádio e televisão), pois a maioria das atividades realizadas nesse campo profissional demanda o uso intensivo de novos recursos tecnológicos. Outros desafios relacionados à formação de profissionais qualificados e que precisam ser enfrentados e superados pelas faculdades de comunicação neste início do século XXI estão relacionados à necessidade de pesados investimentos em equipamentos (hardwares, softwares, instalações e suporte técnicos) e a questão das preferências individuais e do mercado por determinada tecnologia, já que muitas áreas da indústria de tecnologia são dominadas por oligopólios e monopólios. Do ponto de vista econômico, na maioria das vezes, as empresas usuárias de softwares além de comprá-los são obrigadas a realizar investimentos contínuos para atualizar versões anteriores e, em alguns casos, arcar também com pagamentos de licenças para uso, assistência e manutenção destes produtos, popularmente conhecidos por softwares proprietários. Algumas indústrias de software proprietário parecem utilizar a estratégia da obsolescência planejada para vender seus produtos, o mesmo produto várias vezes e com um mínimo de inovações utilizáveis, pois o propósito maior é o de obter ganhos para financiar suas máquinas de pesquisa, desenvolvimento e marketing. Uma nova opção de tecnologia de software tem sido cada vez mais discutida entre os empresários em todas as partes do mundo, e pela sociedade em geral: os softwares livres, também conhecidos por softwares com código aberto. Este tipo de software é, geralmente, desenvolvido por comunidades de especialistas e empresas que têm entre seus objetivos compartilhar conhecimentos sobre inovações tecnológicas, sem, necessariamente, visar lucro, pois os usuários desta tecnologia podem saber como o software foi ou é construído, copiá-lo, modificá-lo e distribuí-lo na sua forma original ou com modificações, inclusive através da própria Internet, sem, necessariamente, ter que pagar licença. Assim, do ponto de vista econômico, os softwares livres podem contribuir para superação de alguns problemas relacionados à necessidade de pesados investimentos em equipamentos pelas faculdades de comunicação, uma vez que contribuem para a redução de despesas com pagamentos de 30 licenças, por exemplo. No capítulo 2 desta pesquisa explicamos com detalhes as características dos softwares livres, todavia, para se compreender a importância dessa tecnologia no estado da arte do ambiente tecnológico da sociedade contemporânea é preciso, primeiro, contextualizar a relevância econômica do segmento do software na indústria de Tecnologia da Informação – TI. Indústria que, de acordo com Joseph Straubhaar22 e Robert LaRose23 autores de Comunicação, Mídia e Tecnologia (2004, p. 205), têm dois setores principais: a dos fabricantes de hardware e a dos publicadores de software: Fabricantes de hardware fazem as máquinas, e os publicadores de software fazem os programas que rodam nas máquinas. Combinados, os negócios mundiais de hardware de computador e de software compreendiam um mercado de mais de US$ 300 bilhões por ano ao final do século XX (Departamento do Comércio Americano, 1993). Enquanto algumas empresas estão envolvidas nos dois setores de negócios, como a IBM e a Apple, a maioria das empresas prefere se especializar em hardware ou em software e mesmo se especializar em nichos específicos. (STRAUBHAAR e LAROSE, ibidem). A indústria de hardware, explicam os autores, divide-se em quatro áreas principais: [...] os próprios computadores […], os dispositivos de armazenamento de computador (como os leitores de disco), os terminais de computadores e os periféricos (como impressoras e modens). [...] Coletivamente, os fabricantes de hardware de computador nos Estados Unidos compunham uma indústria de US$ 65 bilhões por ano que empregava cerca de um quarto de milhão de pessoas ao final do século XX. (idem, ibidem). Enquanto na indústria de softwares as empresas são agrupadas em três segmentos distintos: [...] companhias que escrevem programas de computador personalizados, companhias que vendem softwares pré-empacotados e companhias que projetam sistemas 22 Professor de Comunicações do Departamento de Rádio-TV-Film - Universidade do Texas em Austin, Estados Unidos. Diretor associado de Programas Internacionais do Instituto de Telecomunicações e Informação Política na Universidade do Texas. 23 Professor Titular e Diretor do Departamento de Telecomunicações da Universidade de Michigan. Realiza pesquisas sobre os usos e efeitos da Internet. Disponível em: https://www.msu.edu/~larose/ Acesso 10/12/08. 31 integrados por computador, como aqueles que costumam rodar em grandes fábricas. Em termos de empregos, a ponta de software da indústria é duas vezes maior que a ponta de hardware com mais de 400 mil empregados nos Estados Unidos (nos anos 90); os empregados são igualmente divididos entre esses segmentos principais da indústria. (STRAUBHAAR e ROBERT LAROSE 2004, 207). No segmento dos fabricantes de softwares pré-empacotados estão as companhias “que fornecem programas de aplicação popular (processadores de textos, planilhas eletrônicas, jogos de computador) para computadores pessoais. Atualmente, esse é um negócio de mais de US$20 bilhões por ano nos Estados Unidos, cerca de cinco vezes o tamanho de outra indústria de software muito conhecida, os filmes de cinema.” (idem, ibidem). Neste mesmo segmento se encontram os fornecedores dos softwares cada vez mais necessários para a criação de produtos comunicacionais e para a veiculação de mensagens e símbolos através do rádio, televisão, Internet, telefone ou de outros tipos de mídia, como DVD, CD etc. São, por exemplo, os softwares especializados no processamento de imagens e desenho, modelagem e animação 2D e 3D, processamento de som, processamento de vídeo etc. Em outras palavras, a participação do componente software na indústria de TI demonstra sua importância na área da computação, e isso é bem percebido no segmento do software personalizado, também denominado sistemas embarcados, como demonstra Cezar Taurion24 em sua obra Software Livre - Potencialidades e Modelos de Negócios (2004 p. 2). À medida que a computação torna-se onipresente, embutindo-se nos objetos que nos cercam, os softwares passam a ser a mola mestra para o controle de bilhões de dispositivos que, em sua maioria, estarão operando em tempo real, interconectando-se uns com os outros. O software passará a ser o cerne das atividades humanas. Sem softwares, nosso elevador não funciona, nosso automóvel ficará parado, não conseguiremos completar uma ligação telefônica, não vemos televisão, não teremos luz elétrica, água e nem gás (TAURION, ibidem). 24 Taurion é formado em Economia pela UFRJ, com pós-graduação em Ciências da Computação pela PUC-RJ e MBA em Marketing pela FGV-RJ (Informações enviadas pelo pesquisador por correio eletrônico em 20/01/09). 32 Outra questão importante, relacionada aos softwares, diz respeito às formas como os programas são fornecidos pela indústria de TI. De modo geral, os softwares são registrados como propriedade intelectual dos produtores, ou seja, são softwares proprietários, fornecidos sob licença, de modo a proteger os direitos autorais dos fabricantes. Por esse motivo, as vendas de softwares proprietários estão condicionadas por licenças de uso, ou seja, o usuário não compra o produto e sim o direito de utilizá-lo dentro dos limites da licença. Na maioria dos casos, as cópias adquiridas são fornecidas na forma de programas executáveis25 e as licenças impedem que o comprador tire cópias ou conheça como o produto foi construído ou como o programa opera. As licenças, por suas vez, podem variar em função da clientela e da forma como os softwares são utilizados ou vendidos: [...] vendas para usuários individuais são feitas através de pontos de venda de varejo, que oferecem uma ampla coleção de títulos de softwares. Muitos dos softwares que chegam às mãos de consumidores privados são vendidos em pacotes já instalados em hardware de computador por ocasião da compra inicial. [...] Cada vez mais as empresas de software vendem seus programas na forma de licenças locais, que permitem que um número especificado de usuários de redes de computadores acesse o software simultaneamente, em vez de comprar cópias em separado para cada membro da organização (STRAUBHAAR e ROBERT LAROSE 2004, 207-208). Alguns softwares livres também são licenciados, mas, geralmente, são distribuídos com código aberto26, assim, como já dissemos, os usuários dessa tecnologia podem conhecer, estudar e aperfeiçoar seus códigos fonte. A principal força produtiva de software livre não é a indústria tradicional de TI e sim comunidades de desenvolvedores. Muitos destes desenvolvedores fazem parte do movimento pelo software livre no qual estão envolvidas milhares de comunidades. São comunidades muito recentes e, na maioria dos casos, se estabeleceram em fábricas virtuais sediadas na World Wide Web. Em alguns casos, as comunidades que desenvolvem software são financiadas pelas próprias empresas líderes da Indústria de TI, que ao invés de desenvolverem elas próprias os produtos, pagam pelos serviços dos membros dessas comunidades e, além de os utilizarem, concordam que os mesmos sejam disponibilizados na Web para uso por todas as pessoas ou organizações que se 25 Os programas executáveis impedem que os humanos conheçam como foram codificados. O código executável é gerado em linguagem de máquina e somente os computadores são capazes de interpretá-los. 26 Isto significa que o usuário tem acesso aos códigos fonte, ou seja, podem ver como o programa foi escrito e o que faz desde que tenha conhecimentos da linguagem de programação utilizada. 33 interessarem. Trata-se de um novo paradigma de financiamento das operações de empresas de software, mas que, exatamente por esse motivo, suscita algum a desconfiança. Muitas pessoas se perguntam, por exemplo, se terão o suporte necessário ao funcionamento dos produtos caso haja substituição de softwares proprietários por softwares livres nas empresas. No contexto educacional parece ocorrer o mesmo, ou seja, talvez pelo fato alguns docentes conhecerem pouco ou nem mesmo conhecerem as tecnologias de software livre a maioria das entidades de ensino superior utiliza apenas softwares proprietários em suas atividades escolares. Esta opção pela tecnologia de código fechado parece reduzir as possibilidades de estudantes e educadores conhecerem as tecnologias de código aberto e, desse modo, contribui para perpetuar a hegemonia de uso dos produtos proprietários. Considerando ser importante abrir oportunidades para docentes, discentes e profissionais da área da comunicação social conhecerem as tecnologias de software livre, realizamos este estudo com o objetivo de apresentar as principais características, funcionalidades, diferenças e semelhanças existentes entre estes dois tipos de tecnologia. Isto posto, este estudo reúne alguns conceitos que permitem sugerir o uso de softwares livres nas escolas de comunicação do Brasil, entretanto, para considerar a plataforma de software livre uma alternativa tecnológica interessante para a criação de produtos audiovisuais foi necessário, primeiro, verificar se existem softwares livres adequados e capazes de realizar as mesmas tarefas que os softwares proprietários em processos de criação de produtos para rádio e televisão. Com essa problemática em mente realizamos pesquisa tomando por base os softwares utilizados nos cursos de Radialismo da Universidade Metodista de São Paulo27 – UMESP e da Escola Superior de Estudos Empresariais e Informática – Faculdades ESEEI de Curitiba. Justificamos a escolha dos cursos de Radialismo destas duas entidades porque a UMESP utiliza apenas tecnologia de software proprietário e é uma instituição de excelência e que figura entre as mais conceituadas do país. A ESEEI foi escolhida pelo fato de utilizar somente tecnologia livre, software com código aberto, em todas as suas atividades educacionais, o que caracteriza um particular diferencial desta faculdade no cenário nacional, conforme explicado oportunamente. Empregamos os métodos característicos do estudo comparativo para analisar os dois tipos de softwares. Tal análise foi feita com base nas informações descritas nos questionários 27 Neste estudo adotamos as siglas UMESP para fazer referência a Universidade Metodista de São Paulo e ESEEI para referenciar a Escola Superior de Estudos Empresariais e Informática. 34 respondidos pelos professores Marcio Antonio Kowalski – coordenador da Agência de Comunicação Multimídia – AgComMM da UMESP – e Professor Dr. Joaquim Valverde coordenador do curso de Radialismo da ESEEI. Tais informações serviram como base para a definição das variáveis fundamentais existentes entre estes dois tipos de tecnologias. Outras informações gerais sobre os softwares e cursos28 foram extraídas dos sites das duas entidades. Para realizar o processo de comparação os softwares foram agrupados em cinco categorias: a primeira categoria detalha as variáveis fundamentais dos softwares para processamento de audiovisual; a segunda dos softwares de processamento digital de som; a terceira dos softwares de computação gráfica 3D; a quarta categoria detalha as variáveis fundamentais dos softwares editores de imagens matricial ou raster; e a quinta dos softwares de desenho vetorial. A partir desse agrupamento elaboramos tabelas que descrevem as variáveis fundamentais de cada software e que mostram suas especificidades e as possibilidades de uso em processos de criação de produtos para rádio e televisão. Tais tabelas foram, originalmente, elaboradas e adaptadas a partir do modelo de um quadro comparativo criado por Benoît Saint-Moulin, professor convidado de técnicas infográficas da Escola Superior Albert Jacquard, da Bélgica. A Wikipedia e o estudo de obras de pesquisadores especialistas em tecnologia de software também foram ferramentas importantes para a definição das tabelas. A comparação entre alguns dos dois tipos de softwares também foi feita com base em um modelo com três macrofunções: Entrada => Processamento => Saída. Tal modelo considerou os recursos disponíveis nos softwares para importar conteúdos, para tratálos digitalmente e para exportar os resultados em formatos e resoluções de arquivos e dispositivos de representação adequados. Em síntese, nas duas entidades pesquisadas se destaca a variedade de softwares disponíveis para a realização de atividades de criação de produtos audiovisuais. Atividades que têm por finalidade levar os estudantes a vivenciarem e colocarem em prática os conhecimentos adquiridos em sala de aula e necessários às suas tarefas profissionais, conforme determinam as Diretrizes Curriculares Nacionais – DCN. Fato que justifica, no nosso entender, a importância de todas as escolas de comunicação do país conhecerem e prepararem os egressos para utilizarem a tecnologia de software livre, pois se as faculdades não conhecem e não usam, e também não ensinam os estudantes a usarem tais softwares não 28 O professor Márcio respondeu questionário com informações específicas sobre o curso de Radialismo da UMESP, conforme apresenta o apêndice B. Este questionário não foi respondido pelo professor Dr. Joaquim Valverde por termos acesso direto às informações do curso de Radialismo da ESEEI, onde atuamos como docente e diretora acadêmica. 35 haverá profissionais qualificados para trabalharem com esta tecnologia no competitivo mercado de trabalho, que, por sua vez, também não adotará este tipo de software, ficando dependente do uso de produtos proprietários e, portanto, das regras impostas pelas empresas que monopolizam a indústria de softwares. Isto posto, acreditamos que os resultados desta pesquisa poderão despertar o interesse de diretores, coordenadores, professores, profissionais e estudantes de comunicação social, em especial daqueles que se dedicam à área de Radialismo, pois nos permitem confirmar a existência de softwares livres adequados para a criação de produtos para rádio e televisão, conforme os padrões de qualidade necessários. Com a finalidade de facilitar a compreensão do leitor acerca dos assuntos pesquisados, este documento foi assim organizado. No capítulo I – Comunicação Social no Brasil, discorremos sobre o surgimento dos cursos de comunicação social no país. Sobre a relação entre as escolas de comunicação e mercado de trabalho. Sobre as novas diretrizes curriculares estabelecidas pelo MEC para a área e sobre os desafios do ensino de comunicação diante do crescimento e do uso de novas tecnologias digitais nas diversas profissões da área. No capítulo II – Softwares de Computadores: conceitos gerais – discorremos inicialmente sobre os conceitos da tecnologia de softwares para sustentar sua importância no contexto do ensino da comunicação e justificar a importância do uso das tecnologias digitais nas mais diversas atividades profissionais da atualidade, principalmente aplicadas à comunicação. Em seguida apresentamos as características ou especificidades dos softwares proprietários e livres. Argumentos importantes atribuem relevância à tecnologia de software livre, ao paradigma libertário, ao movimento pelo software livre e as culturas da Internet. Buscamos relatos de experiências sobre o emprego da tecnologia de código-aberto em variados contextos sociais, econômicos e de negócios no Brasil e no mundo. No capítulo III – O Ensino de Comunicação e a tecnologia de Software – descrevemos as características gerais da UMESP e da ESEEI. Descrevemos os perfis dos cursos de Radialismo das duas entidades e a importância dos softwares que utilizam na criação de produtos de comunicação para rádio e televisão. No capítulo IV – Comparação entre softwares livres e proprietários, apresentamos as análises comparativas das cinco categorias de softwares, feitas por meio de tabelas nas quais descrevemos as funcionalidades e as variáveis comparadas entre os dois tipos softwares. Na sequência apresentamos as conclusões. Por último, as referências, apêndices, anexos e glossário. 36 CAPÍTULO I. COMUNICAÇÃO SOCIAL NO BRASIL Reflexões sobre alguns fatos históricos que marcaram a criação dos Cursos de Comunicação Social no Brasil são importantes para se compreender o atual contexto do ensino de comunicação no país. Marques de Melo29 na obra Comunicação e Modernidade: o ensino e a pesquisa nas escolas de comunicação (1991) nos apresenta reflexivas avaliações acerca dos modelos pedagógicos que prevaleceram ao longo dos anos nos cursos de comunicação social brasileiros, considerados, muitas vezes, defasados para a construção de modernas estruturas didáticas e científicas diante das constantes mudanças sociais e tecnológicas que provocaram e continuam a provocar alterações radicais em determinados paradigmas educacionais, ideológicos e profissionais. Sem a intenção de reduzir a importância de conhecermos todos os fatos que historicamente marcaram o surgimento dos cursos de comunicação brasileiros, daremos ênfase neste estudo à criação dos cursos de Radialismo – Rádio e Televisão – por ser este curso foco central desta pesquisa. Quando estudamos a criação dos cursos de Radialismo não podemos ignorar a influência que o CIESPAL – Centro Internacional de Estudos Superiores de Periodismo para a América Latina – exerceu sobre o ensino de comunicação no Brasil. Também não podemos deixar de analisar alguns fatos mais recentes decorrentes da aprovação das Novas Diretrizes Curriculares – NDC para a área da Comunicação Social em 2001, como o aclamado discurso de inovação no ensino de comunicação e sua relação com as novas tecnologias digitais. No contexto específico do curso de Radialismo, as NDC destacam a importância de os egressos serem preparados para refletir criticamente sobre as práticas profissionais do campo da comunicação, bem como para saberem utilizar as novas tecnologias digitais empregadas nas atividades da área. Portanto, para saberem utilizar softwares nos processos de criação de produtos para rádio e televisão. 29 José Marques de Melo. Primeiro Doutor em Jornalismo titulado por universidade brasileira. Professor titular da UMESP. Diretor da Cátedra UNESCO de Comunicação. Pesquisador científico e consultor acadêmico. Disponível em: http://buscatextual.cnpq.br e http://www.marquesdemelo.pro.br/perfil.htm/ 37 1. 1. CURSOS DE COMUNICAÇÃO SOCIAL A tarefa de analisar, ainda que de forma abreviada, o panorama dos cursos de comunicação no Brasil exige compreensão de alguns desafios enfrentados pelas escolas a partir última década do século XX. Quando Marques de Melo publicou o livro Comunicação e Modernidade: o ensino e a pesquisa nas escolas de comunicação, em 1991, por exemplo, o ensino de comunicação já tinha um longo histórico de fatos e experiências acumuladas desde suas primeiras iniciativas na Argentina e no Brasil, desde a década de 1930. Por volta das décadas de 1940 e 1950, um dos principais objetivos das faculdades de comunicação, no auge do desenvolvimento Industrial e crescimento do número de emissoras de radiodifusão na América Latina, era atender a demanda por profissionais qualificados, pois já nessa época as empresas de comunicação necessitavam de pessoas bem preparadas para o exercício das várias profissões da área. Conforme nos lembra Marques de Melo (1991 p.1215) “[...] por volta dos anos 50 haviam 13 instituições dedicadas à formação de especialistas para os meios de comunicação na América Latina, notadamente na Argentina, Brasil, Colômbia, Cuba, Equador, México, Peru e Venezuela. Nos anos 60 esse número era três vezes maior, havia escolas em 2/3 dos países latinos. Este ritmo de crescimento foi mantido nas duas últimas décadas do século XX, embora com menor intensidade.”. Embora as últimas décadas do século XX tenham sido marcadas por uma singular expansão no número de instituições dedicadas à formação de especialistas para os meios de comunicação, nem todas as faculdades apresentavam inovações pedagógicas ou tecnológicas. Na verdade, o surgimento de várias faculdades de comunicação provocou inseguranças e, em muitos casos, uma míope percepção acerca da formação de profissionais para os meios de comunicação na América Latina em decorrência da influência do CIESPAL, pois o Centro distorceu a concepção do modelo sociológico de 1958 da School of Mass Communication – da Universidade de Stanford – e criou um novo conceito de comunicador polivalente. A partir deste novo conceito propôs, de forma equivocada, que em um mesmo espaço acadêmico fosse possível formar um profissional com especializações simultâneas em jornalismo, publicidade, rádio, televisão, relações públicas, etc. Explica Marques de Melo (1991 p. 13-14), que tal modelo contemplou um esquema curricular que procurou “[...] fazer um amálgama dos diversos instrumentos de trabalho peculiares aos media, cimentados por uma concepção 38 positivista30 da teoria da comunicação (atomizada em sociologia da comunicação, psicologia da comunicação, antropologia da comunicação, etc.).” Assim, até o final do século XX a concepção de ensino ou educação expressa pelo CIESPAL influenciou intensamente as escolas de comunicação brasileiras e as convenceu de que sua proposta teórica deveria orientar suas práticas, mas que o contrário nunca poderia acontecer. Para isso, o Centro elevou a um nível superior o papel e o status do comunicólogo – do estudioso teórico da comunicação – e reduziu a um nível bem inferior de importância o papel dos profissionais da mídia, por não despertarem o interesse do Centro. Mesmo vivenciando problemas decorrentes da concepção de ensino equivocada e proposta pelo Centro, em 1947 foi criado no Brasil o primeiro curso de Jornalismo na pioneira Faculdade Cásper Líbero, que adotou a matriz pedagógica da Universidade Pro Deo de Roma – uma versão italianizada do modelo americano e que tinha o propósito de formar novos empresários e profissionais liberais para assumirem o comando da vida italiana. Ao mesmo tempo, a Universidade Federal do Rio de Janeiro adotava a matriz francesa do Instituto Francês de Imprensa para seu curso de jornalismo, que preconizava uma formação mais erudita, humanista e menos profissionalizante. No início das décadas de 60 surge a Faculdade de Comunicação de Massa da UnB. Criada a partir de uma visão inovadora a faculdade inovou com a criação de cursos ou habilitações específicas para o ensino de Jornalismo, Televisão, Rádio e Cinema e Publicidade e Propaganda. Porém, em 1964 devido a ocorrência de diversos acontecimentos políticos o projeto inicial da UnB foi interrompido, embora nesse momento já existisse o curso de Jornalismo. Os primeiros cursos de Publicidade e Propaganda, a exemplo da Escola Superior de Propaganda e Marketing – ESPM, foram criados em um momento em que o país vivia próspero período de crescimento econômico. Vivia, entre outros marcos históricos da sociedade e da econômica brasileira, a euforia do pós-guerra e do surgimento da televisão. Muitas escolas de comunicação desse período surgiram dentro das estruturas das Faculdades de Filosofia e nesse contexto a formação excessivamente humanista provocou atraso e desvalorização na formação dos profissionais para o campo da comunicação. Para alguns estudiosos como Marques de Melo problema que se agravou em decorrência da cultura acadêmica tradicional empregada pelo CIESPAL, pois, de certa forma, tal cultura não 30 O principal representante e fundador do Positivismo foi o filósofo francês, pai da sociologia, Augusto Comte para quem o pensamento Positivista deveria ser aplicado a todas as atividades humanas, especialmente às ciências sociais. 39 acompanhou a dinâmica do progresso das tecnologias e do mercado de trabalho mundial. Neste contexto, em alguns cursos de comunicação os projetos pedagógicos demonstravam verdadeira aversão para aproximação com a indústria midiática ou com o mercado. Tinham posicionamento ludita31 com relação às atividades práticas que envolvessem o uso de tecnologias e o mercado da indústria midiática. Marques de Melo (1991 p. 13-14) observa que os cursos da área de comunicação no Brasil, nesse período, não eram pensados e organizados como unidades profissionalizantes, foram estruturados de acordo com padrões pedagógicos inadequados e ineficazes, pois “o saber transmitido apresentava-se fragmentado, os alunos freqüentavam disciplinas estanques e o processo de conhecimento mostrava-se anárquico”. Outra questão que contribuiu para retardar a utilização de recursos tecnológicos e o desenvolvimento de atividades práticas nos cursos de comunicação foi o fato de as entidades educacionais da época privilegiarem a contratação de professores com titulação acadêmica, mas, com pouco ou nenhum conhecimento e experiência no uso de tecnologias necessárias às atividades da área. Neste contexto, por diversos motivos, inclusive políticos e ideológicos, a teoria sempre foi considerada mais importante do que a prática, fato que aumentou o desprezo ou desinteresse pelas atividades práticas profissionais como objeto de estudo por parte dos docentes. Tal atitude agravou o distanciamento entre o ensino e a prática cotidiana de comunicação processada nas empresas do ramo. Em outras palavras, os cursos de comunicação eram marcados pelo reducionismo pedagógico, pela reprodução do conhecimento e memorização de conteúdos, pois privilegiavam a formação humanista em detrimento da formação profissional. Não havia, explica Marques de Melo (1999 p. 15) “atividade laboratorial nem simulações didáticas e tampouco pesquisa sistemática. O estoque do saber transferido assumia feição defasada, estática incompleta. Quando os diplomados enfrentavam concretamente as tarefas profissionais nos jornais, emissoras de rádio ou canais de televisão descortinavam um outro mundo, precisando reciclar-se rapidamente para ter um desempenho satisfatório.” Os problemas citados por Marques de Melo se mantiveram presentes no cenário do ensino da comunicação brasileira por toda década de 1990. Embora, segundo este pesquisador, nesta década alguns cursos de jornalismo, publicidade ou cinema conseguiram se estruturar autonomamente dentro da universidade, “[...] assumindo a forma de escolas, 31 Ludismo - nome do movimento que se insurgiu contra as profundas alterações trazidas pela Revolução Industrial. O ludita opunha-se ao uso de máquinas em substituição à mão-de-obra humana nas fábricas. 40 faculdades ou departamentos de comunicação.” Os fatos relatados nos mostram que em praticamente toda a América Latina o ensino da comunicação foi fortemente marcado pela filosofia, sociológica e humanista, da “School of Mass Communication” da Universidade de Stanford. No Brasil, esta influência era bastante presente até no final da década de 1990. Por volta de 1966, por exemplo, a Escola de Comunicação Cultural da Universidade de São Paulo, atual Escola de Comunicações e Artes – ECA/USP, ainda recebia forte influência deste modelo americano. Embora o surgimento da televisão no Brasil na década de 50, assim como o surgimento do rádio na década de 30, tenha contribuído para aumentar a demanda por profissionais habilitados para atuação no campo do Radialismo, poucos cursos de rádio e televisão existiam no país nessa época. A maioria dos profissionais que atuava no rádio ou televisão era egressa dos cursos de jornalismo ou de outras áreas, como direito, engenharia, letras etc. Com veremos mais adiante, um dos grandes empecilhos enfrentados pelas faculdades de comunicação para a criação de cursos de Radialismo estava, e talvez em alguns contextos ainda esteja, relacionado com as dificuldades para a montagem de estúdios e laboratórios, fato que impediu o desenvolvimento de atividades práticas e o uso de tecnologias também em outros cursos de comunicação. 1.2. NOVAS DIRETRIZES CURRICULARES PARA A ÁREA DA COMUNICAÇÃO SOCIAL No ano de 2001, por meio do Parecer 492 do CNE/CES32, a Comissão composta pelos Conselheiros Silke Weber (relatora), Eunice Ribeiro Durham (conselheira) e Vilma de Mendonça Figueiredo (conselheira) recomendou a aprovação das Diretrizes Curriculares Nacionais – DCN para a área da Comunicação Social. Histórico sobre a aprovação das referidas Diretrizes contempla alguns fatos importantes descritos por Faro33 na obra Retrato 32 33 Publicado no Diário Oficial da União de 09/7/2001, Seção 1, p. 50. José Salvador Faro - graduado em História pela Universidade de São Paulo (1973). Mestre em Comunicação Social pela UMESP (1992). Doutor em Ciência da Comunicação pela Universidade de São Paulo (1996). 41 do Ensino da Comunicação no Brasil: análises e tendências de autoria de Cicília Peruzzo34 e Robson B. da Silva35 (org). Fatos que alteraram a estrutura dos cursos de comunicação no Brasil para atender as determinações da nova Lei de Diretrizes e Bases da Educação Nacional – Lei 9394/96. Nas palavras de Faro apud Peruzzo e Silva (2003 p. 139): [...] a nova LDB acabou com todos os currículos mínimos que vigoravam de acordo com as resoluções do antigo Conselho Federal de Educação, estabelecendo em seu lugar a ideia de que o ensino superior de graduação, em qualquer área do conhecimento, deveria nortear-se, na sua estrutura, por um conjunto de normas gerais que assegurassem, às instituições, liberdade na formulação de seus projetos pedagógicos. No caso dos cursos de Comunicação Social, essa nova ordem significou o fim da Resolução 2/84, embora, no momento da vigência da nova LDB, nada existisse como alternativa para orientação dos cursos e suas diversas habilitações. O problema da falta de orientação para a elaboração dos novos Projetos Pedagógicos de Cursos - PPC se estendeu de 1997 até 2001, e fez com que as diversas comunidades universitárias se organizassem para discutir as novas DCN e as ações necessárias para sua implantação nos diversos cursos de graduação do país. De acordo com Faro apud Peruzzo e Silva (idem p. 140, grifo nosso). A chamada do MEC para a discussão sobre o assunto deve ter representado o mais amplo movimento de mobilização e debate que os cursos de graduação da área, de comunicação, viveram até hoje, e serviu para que se formasse um espectro de percepções absolutamente heterogêneas sobre os rumos que deveriam ser oferecidos ao ensino [...] confundindo o questionamento do antigo currículo mínimo com uma desmontagem geral de qualquer parâmetro para o ensino de Comunicação Social. Faro explica que nessa época a área da comunicação social estava, de certa forma, desequilibrada diante dos desafios impostos pela nova LDB, notadamente, diante da tarefa de “reunir, numa única proposta, a heterogeneidade com a qual as diversas habilitações compreendiam a sua inserção nos cursos de graduação”. Em outras palavras, a tarefa de reunir 34 Mestre em Comunicação Social. Doutora em Ciências da Comunicação pela Escola de Comunicações e Artes da Universidade de São Paulo. Docente do Programa de Pós-Graduação em Comunicação Social da UMESP. 35 Doutor em Comunicação e Semiótica pela Pontifícia Universidade Católica de São Paulo (1996). Mestre em Comunicação Social pela UMESP (1990) e Graduado em Comunicação Social pela Universidade Católica de Santos (1983). 42 numa única proposta as especificidades das diversas habilitações provocava preocupação entre muitos educadores porque parecia dar maior destaque a uma formação técnicoprofissional do que a uma formação humanista, propriamente universitária, fator que para muitos provocaria também mudanças no perfil dos comunicadores. Com a responsabilidade de articular demandas de ordem tão diversa, o único caminho que restou ao CEE/COM foi o de produzir um documento que contemplasse uma dupla dimensão das Diretrizes Curriculares: aquela que decorria de uma visão integradora e horizontalizada das várias especificidades profissionais e uma outra decorrente de um aprofundamento conceitual verticalizado em torno das diversas habilitações profissionais. Em 1999, uma nova proposta para estruturação das DCN para a área da Comunicação Social e suas habilitações foi encaminhada ao CNE – Conselho Nacional de Educação. Tal proposta foi resultado do consenso entre profissionais e estudiosos de jornalismo, portanto, nasceu depois de diversas reivindicações feitas por este grupo de pessoas. Faro (ibidem p. 143) recorda: O parecer da Relatora da matéria na Câmara de Educação Superior, professora Silke Weber – parecer no. 687/99 – negou a SESu - Secretaria de Educação Superior – a possibilidade de criação de uma Comissão de Especialistas de Ensino de Jornalismo. [...] Segundo a relatora, a área de Comunicação Social é ‘essencialmente interdisciplinar e multidisciplinar, que engloba a produção de sentido e mesmo do próprio real mediante símbolos consubstanciados em múltiplas linguagens’, motivo que a levara a rejeitar o ‘especialismo’ (nos termos do parecer) pretendido pela Comissão e que fundamentou o pedido da SESu. Para Silke Weber, o pedido de uma comissão específica era contrário as 'tendências hodiernas' de formação horizontalizada. Finalmente no mês de abriu de 2001 as Diretrizes Curriculares foram aprovadas pelo CNE e sua deliberação pela Câmara de Educação Superior do Conselho levou em conta algumas proposições enviadas ao órgão pela Comissão de Especialistas (CEE-COM) e que definiram as regras, ou premissas como prefere Faro, a partir das quais a área da comunicação e suas habilitações deveriam se estruturar “[...] ressaltando sua ‘organicidade’ e a ‘interpenetração das perspectivas teóricas e de questões referentes a problemas concretos no espaço social’.” Neste contexto, esclarece Faro apud Peruzzo e Silva. (idem, p. 143): 43 [...] as Diretrizes Curriculares ressaltam que o fundamento dos cursos é um Projeto Acadêmico, não mais concebido como ‘nucleado’ em listagem de disciplinas’, mas fundado nas concepções gerais que o norteiam destacando [...] a possibilidade de que exista diversidade de projetos, embora isso não signifique que se trate de uma prática ‘isolacionista’, mas um campo de experimentação pedagógica, de pesquisa, de desenvolvimento profissional e de troca e realimentação mútua entre projetos diversos, entre escolas, portanto. Faro esclarece também que a deliberação da Câmara de Educação Superior do Conselho levou em conta outra proposta enviada ao órgão pela Comissão de Especialistas (CEE-COM) –, em 1999, qual seja: que as Diretrizes Curriculares deveriam partir da premissa que a área da Comunicação Social deveria em sua concepção geral ser “a da superação da ‘antiga dicotomia entre teoria e prática’, razão pela qual a proposta insistia na ideia de que a formação na habilitação, do ponto de vista de conteúdos teóricos, analítico-informativos, ético-políticos e práticos, se constituía num conjunto de reflexões relativas às tecnologias, às técnicas e linguagens da comunicação e de suas habilitações”. Considerando as premissas explicitadas pelas NDC para os cursos de Radialismo, talvez o grande desafio da atualidade seja o de preparar os docentes ou encontrar docentes preparados para compreender o conjunto de técnicas, linguagens e tecnologias que fazem parte das novas práticas profissionais da área que se realizam fora dos espaços acadêmicos, e que envolvem variado arsenal tecnológico necessário a criação de produtos digitais de informação, entretenimento etc. Neste contexto, o provável temor ao uso da tecnologia, parecido com o registrado nos primórdios da Revolução Industrial na Europa, parece levar alguns professores a confundirem técnica com tecnicismo e a pensarem que a técnica se opõe à natureza humana. Conforme explica Marques de Melo (1991, idem p. 36): Tecnicismo é a submissão cega e irresponsável do homem ao domínio das máquinas. É a adoração do saber-fazer sem qualquer relação com os fins. A técnica, entretanto, é o instrumento da libertação do homem. [...] A ameaça que se percebe na técnica não está nas máquinas ou instrumentos, mas na atitude do homem em relação a esses objetos. Com outras palavras, o temor ao uso da tecnologia parece ser o próprio ‘luditismo’ que ainda pode estar presente entre alguns docentes do ensino superior brasileiro. Mesmo assim, as faculdades de comunicação não podem mais manter uma prática ‘isolacionista’ de 44 ensino, que exclui o uso de recursos tecnológicos. Ao contrário, considerando as determinações expressas nas NDC devem transformar, conforme já ressaltou Marques de Melo, os cursos em “um campo de experimentação pedagógica, de pesquisa, de desenvolvimento profissional” para que os egressos possam conhecer e usar modernas tecnologias digitais. Em síntese, as Diretrizes Curriculares Nacionais para a área da Comunicação Social abriram novas perspectivas para reflexões e ajustes nas práticas e nos projetos pedagógicos dos cursos – PPC; para análises acerca da complexidade que envolve a formação dos egressos e profissionais de comunicação; para o desenvolvimento de uma nova infraestrutura tecnológica de comunicação digital que permita aproximar escolas e mercado de trabalho. Conforme explica Alvin Tofller, em matéria Intitulada: "Infraestrutura mesmo é educação" (2007)36. A terminologia para infraestrutura inclui usinas elétricas, linhas de transmissão ou grandes obras de sistema viário. Mas ninguém inclui educação. E ela é a parte mais importante da infraestrutura. Se você construir todas essas estruturas físicas, pode mudar o país. Mas continuará ensinando o passado às crianças. Claramente precisamos valorizar mais a geração de conhecimento. A sociedade cada vez mais vai depender disso. As transformações econômicas do mundo passam a valorizar fatores de crescimento que até então eram tidos como secundários. Nosso sucesso econômico é cada vez mais dependente da geração de ideias – e da forma como esses conhecimentos são transmitidos de uma pessoa para outra. É por isso também que precisamos mudar a forma de educar. [...] Nos anos 60, eu tive contato com os primeiros computadores criados pela IBM. Fiz uma excursão aos laboratórios no Vale do Silício. Ali, tive o contato com os primeiros computadores e com alguns especialistas em inteligência artificial. Naquele momento ficou claro que não sabíamos tudo e que uma grande revolução estava acontecendo. Por fim, considerando que a revolução prevista por Toffler nos anos 60 ainda está acontecendo pressupomos que será necessária dedicação, esforço e responsabilidade por parte dos educadores, pesquisadores e egressos da comunicação social para que seja lançada “a semente que [...] poderá gerar a cobertura que aninhará um agrupamento de interessados nos estudos das tecnologias e suas interfaces com a macro área das comunicações”, embora “as transformações radicais na comunicação sejam concretas e estejam em frente aos olhos de toda a humanidade” (SQUIRRA37 2007). 36 Revista Época – Edição nº 489 - 01/10/2007. 37 Disponível em: www.metodista.br/poscom/cientifico/docentes/sebastiao-squirra. Acesso em 10/02/2006. 45 1.3. A COMUNICAÇÃO SOCIAL E O MERCADO DE TRABALHO Conforme já dissemos, o ensino da comunicação se faz presente no cenário acadêmico brasileiro desde a década de 1940 e, ao longo dos anos, diversas pesquisas foram realizadas com o propósito de se estudar as variadas formas de emprego dos modernos recursos tecnológicos nas diversas atividades práticas e profissionais da área. Bem como para se compreender a histórica necessidade de aproximação entre universidade e mercado de trabalho. Para Marques de Melo (1991) o emprego de recursos tecnológicos exige a realização de diálogos construtivos entre educadores, pesquisadores, comunicólogos e empresariado da área para a modernização dos cursos no país. Embora muitos esforços tenham sido realizados pela academia para aproximar universidade e mercado de trabalho, algumas críticas feitas no passado pelos empresários da indústria midiática brasileira ainda se fazem presentes nos dias atuais, entre elas a contratação de acadêmicos com elevada titulação em detrimento da contratação de profissionais com experiência de mercado, notadamente quando para a condução e desenvolvimento de atividades práticas de aprendizado. Para muitos empresários da comunicação a preferência das universidades pela contratação de acadêmicos, muitos recém-formados, e com pouca experiência acerca da realidade profissional, limitava a formação dos estudantes e, consequentemente, o desenvolvimento de conhecimentos técnicos necessários à realização das práticas profissionais demandas pelo mercado globalizado de trabalho. Para Squirra (2006)38 estas “críticas não levavam em consideração questões de natureza política, teórica, tecnológica etc, ou seja, em muitos casos tais críticas pareciam ser uma desculpa disfarçada que os empresários apresentavam nas suas empresas privadas e que os docentes, catedráticos das entidades públicas, tomaram como argumento para também justificar tal distanciamento.” Eunice Ribeiro Durham, em Fábrica de maus professores39, afirma que talvez ainda 38 Observatório da Imprensa. Abril de 2006. www.observatoriodaimprensa.com.br/artigos.aspcd=510AZL004 http://www.metodista.br/poscom/cientifico/docentes/sebastiao-squirra/artigos-de-sebastiaosquirra/folder_listing?b_start:int=10 39 A antropóloga Eunice Durham – estudiosa e pesquisadora sobre a universidade brasileira. Ex-secretária de política educacional do Ministério da Educação (MEC) no governo FHC - membro da comissão que recomendou a aprovação das Diretrizes Curriculares para Comunicação. Membro do Núcleo de Pesquisa de Políticas Públicas USP. Seus trabalhos mostram como as universidades têm relação direta com a má qualidade do ensino oferecido nas escolas do país. Revista VEJA Edição 2088 de 26 de novembro de 2008. 46 hoje tal justificativa seja necessária para alguns catedráticos porque “É estranho como, no meio acadêmico, uma formação voltada para as necessidades das empresas ainda soa como pecado. As universidades dizem, sem nenhum constrangimento, preferir ‘formar cidadãos’. Cabe perguntar: o que o cidadão vai fazer da vida se ele não puder se inserir no mercado de trabalho?” Para Squirra (2006), embora preocupante a falta de disposição para contratação de docentes com pé na profissão, “geralmente muito críticos e que incentivavam os alunos à sublevação e movimentação por melhores laboratórios, equipamentos etc” não justificava o distanciamento entre universidade e mercado de trabalho, pois, além deste, outros problemas como a falta de recursos para a montagem de salas de redação, estúdios, laboratórios etc e a falta de profissionais aptos para trabalhar com novas tecnologias também prejudicaram tal aproximação. Em síntese, os problemas descritos até o momento podem ser tomados como exemplos para se compreender o fosso que se estabeleceu entre o ensino de comunicação, de perfil conservador, e a realidade da indústria da comunicação no Brasil. Pois enquanto as empresas seguiam os mesmos princípios da indústria convencional da época, importando know-how norte-americano, conhecimento científico e modelos tecnológicos as escolas continuavam aprisionadas ao modelo medieval de ensino escolástico, implantado à imagem e semelhança de Salamanca e Coimbra, sendo, portanto, impedidas de cumprir sua missão de apoiar e acompanhar o desenvolvimento da indústria da cultura e da informação. Neste início do século XXI, alguns dos problemas aqui relatados têm sido intensivamente discutidos pela academia porque estão diretamente relacionados com a importância de se desenvolver conhecimentos para uso de modernas tecnologias digitais necessárias à produção de conteúdos ou produtos de informação, como é o caso da tecnologia de software. Para Squirra (1993, p. 10) na moderna era da comunicação digital “As conquistas científicas tornaram mais eficientes, compactos e baratos tanto os equipamentos profissionais quanto aqueles mais simples, próprios para a produção individual [...] Os fantásticos avanços na área da informática têm proporcionado crescentes – e cada vez mais rápidas – condições de expansão dos diversos meios de comunicação de massa”. Embora os custos de algumas tecnologias, utilizadas para a criação de produtos de comunicação para rádio e televisão, por exemplo, tenham sido reduzidos a partir do uso de microcomputadores e softwares proprietários – em substituição às antigas tecnologias analógicas – ainda assim, os pagamentos com licenças requerem investimentos muitas vezes elevados por parte das entidades de ensino. Uma alternativa para a redução de tais 47 investimentos pode ser o uso de software livre nos sistemas educacionais. Todavia, para que este tipo de tecnologia possa ser amplamente utilizada no contexto da educação e pela indústria midiática é importante que professores, pesquisadores e profissionais das diversas áreas da comunicação social também a conheçam e saibam utilizá-la. Logo, nos parece importante que conheçam algumas características que diferenciam softwares proprietários e softwares livres. Usuários de softwares proprietários devem conhecer algumas especificidades ou restrições que normalizam seu emprego, entre elas: proibição para se fazer cópias; proibição para repassar cópias sem o pagamento de licenças a outros usuários – as cópias feitas em desacordo com as licenças comerciais são consideradas cópias ilegais ou piratas; proibição para se alterar o funcionamento do software ou para adaptá-lo para um fim específico; proibição para comercializá-lo com acesso ao código fonte – os códigos de um software proprietário, que acionam operações no computador, não são “visíveis” aos usuários. Portanto, o uso de softwares proprietários pode trazer prejuízos e penalidades financeiras e processuais para quem não utiliza este tipo de software de acordo com as regras estabelecidas pelos proprietários dos produtos. Assim, empresas, executivos ou usuários comuns podem ser responsabilizados individual, civil e criminalmente pela violação dos direitos autorais – copyright – violação dos direitos de propriedade dos desenvolvedores desses produtos e ou de seus licenciantes. Em artigo intitulado Tipos de Software, contratos de software e sua tributação (1993) Denis Borges Barbosa40 esclarece que “A Lei do software prevê, no Brasil, multas pesadas para aqueles que fazem uso irregular de licenças. As multas podem chegar a 3.000 vezes o valor da licença original.” Usuários de softwares livres também devem conhecer algumas regras definidas para seu uso. Os usuários deste tipo de software devem, por exemplo, prestar atenção na existência simultânea das quatro tipos de liberdades definidas pela Free Software Foundation e aplicadas aos softwares com licença GPL – General Public License ou Licença Pública Geral: liberdade para a execução do programa - acesso ao código fonte - para qualquer propósito; liberdade para se estudar o software, saber como funciona e adaptá-lo às suas necessidades – a liberdade 40 Advogado no Rio de Janeiro. Bacharel em Direito pela Universidade do Estado da Guanabara. Mestre em Direito pela Columbia University School of Law, Nova York. Mestre em Direito Empresarial pela Universidade Gama Filho. Doutor em Direito Internacional e da Integração Econômica pela Faculdade de Direito da Universidade do Estado do Rio de Janeiro. Autor de Tipos de Software, contratos de software e sua tributação e de O Registro do Programa na Nova Lei de Software. Disponível em http://nbb.com.br/english/publications/intellectual_04.html http://buscatextual.cnpq.br/buscatextual/visualizacv.jsp?id=K4781934P7. Acesso em 12/10/08. 48 para acesso ao código fonte é um pré-requisito para esta liberdade; liberdade para a redistribuição de cópias; liberdade para aperfeiçoamento do software e sua liberação de modo que toda comunidade de usuários possa se beneficiar – a liberdade de acesso ao código fonte é um pré-requisito para esta liberdade. Enfim, independente do tipo antes de se iniciar qualquer atividade que demande o uso de softwares é fundamental que os usuários conheçam as características dos softwares proprietários e dos softwares livres. É importante, sobretudo, que possam compreender as novas possibilidades que a tecnologia de software livre pode trazer para o desenvolvimento e modernização das atividades realizadas nas escolas e empresas de comunicação. 1.4. COMUNICAÇÃO SOCIAL E TECNOLOGIAS DIGITAIS Quando estudamos a questão da tecnologia no ensino da comunicação não podemos deixar de refletir sobre as análises de Marques de Melo (1991, p. 33) que nos esclarece que o aparecimento das escolas de comunicação em nosso continente coincidiu com o avanço tecnológico experimentado pelos mass media nos países metropolitanos. Isso aconteceu à medida que aumentava a implantação de parques fabris na América Latina, estruturados com suporte tecnológico aperfeiçoados para difundir bens simbólicos e motivar o consumo de produtos. Portanto, entre outros, um dos motivos que impulsionou o aparecimento das escolas de comunicação no Brasil foi a necessidade de se preparar profissionais capazes para trabalhar com os novos suportes tecnológicos da época, assim, surgiram e se multiplicaram as escolas de comunicação no Brasil – no apogeu das “velhas tecnologias de comunicação”. Com o advento das novas tecnologias digitais, notadamente a partir da ultima década do século XX, surgiram novas atividades profissionais na área da comunicação. Muitas destas atividades são hoje realizadas com o uso de tecnologias de softwares, como é o caso, por exemplo, da produção de desenhos animados e efeitos visuais e sonoros para televisão e cinema, pois este tipo de produção se beneficia de computadores e softwares especializados. 49 Conforme informa Alcantara41 (mimeo, 1999, p. 3) “a tendência dos dias atuais tem sido de cada vez mais mergulharmos no mundo da tecnologia de computadores. Hoje essa tecnologia exerce um papel significativo na vida de todos a ponto de sugerir e criar novos papéis e profissões que nunca pensávamos um dia estarem presentes em nossas vidas”. Embora as atividades profissionais da comunicação possam estar cada vez mais dependentes do uso de novas tecnologias estas não podem ser vistas apenas como um modismo. Cysneiros42 (1996, p. 3) complementa esta observação quando salienta que o emprego das novas tecnologias da comunicação na educação requer cuidados para que seja evitado “um pragmatismo sujeito a flutuações da moda”. Portanto, afirma o pesquisador, “cabe aos educadores desenvolver concepções teóricas coerentes que fundamentem o uso dessas tecnologias nas atividades educacionais e profissionais dos jovens”. Behrens43 apud Moran (2000, p. 67) também ressalta que para se evitar um pragmatismo sujeito a flutuações da moda é necessário que o ensino superior, neste caso o ensino de comunicação, promova o desenvolvimento de “novas habilidades ou talentos que incluem a fluência tecnológica, a capacidade de resolver problemas e os ‘3 c’s’ – comunicação, colaboração e criatividade.” Habilidades indispensáveis ao novo profissional esperado para atuar na sociedade do conhecimento. Em artigo intitulado: A Internet nos ajuda, mas ela sozinha não dá conta da complexidade do aprender; José Moran44 (2003) analisa a importância do desenvolvimento de novas habilidades na educação superior e afirma que o papel dos professores não é mais o de “dar receitas prontas, porque as situações são muito diversificadas, é importante que cada docente encontre o que lhe ajuda mais a sentir-se bem, a comunicar-se bem, ensinar bem, ajudar os alunos a que aprendam melhor.” Portanto, o uso das novas tecnologias digitais pelas escolas deve considerar a realidade das profissões da comunicação. Nesse contexto, para se evitar problemas de receitas prontas os cursos ou escolas de 41 Doutor em Psicologia Educacional. Professor e pesquisado do Programa de Pós-graduação Mestrado em Educação da PUCPR. 42 Doutor (Ph.D.) em Psicologia Educacional pela Syracuse University (1979). Professor do Programa de Pósgraduação em Educação da Universidade Federal de Pernambuco (UFPE). 43 Doutora em Educação. Professora e pesquisadora do Programa de Pós-graduação, Mestrado e Doutorado, em educação na PUCPR. 44 Doutor em Ciências da Comunicação pela Universidade de São Paulo (1987). Atualmente é diretor acadêmico do Instituto Sumaré de Ensino Superior-SP. Matéria de entrevista publicada no site Portal Educacional. Disponível em: educacional.com.br/entrevistas 50 comunicação no país precisam considerar importantes exigências contempladas nas Diretrizes Curriculares Nacionais vigentes e que envolvem a formação dos profissionais da área neste início do século XXI. Segundo este documento: A primeira exigência diz respeito à capacidade de o aprendiz organizar e produzir sistemas e modelos que permitam a operacionalidade e a fluidez dos canais de comunicação; a segunda, aponta a importância de os profissionais terem conhecimentos para lidar com conteúdos informacionais diversos e em diversos setores (políticos, econômicos, sociais e educacionais); a terceira, enfatiza a importância da competência para gerenciar, entre outros, processos que envolvem o uso das novas tecnologias digitais como ferramentas para intensificar a modernização qualitativa do processo de ensino e aprendizado nos cursos de comunicação. Isto posto, a modernização do ensino de comunicação pressupõe, entre outras, a necessidade de as escolas estarem atentas ao crescente uso de novos recursos tecnológicos digitais pelas empresas de comunicação. O crescimento no uso de novos recursos tecnológicos digitais pelas empresas de comunicação é analisado por Marques de Melo (2008), que nos informa estar a indústria de audiovisual (televisão, rádio) brasileira a concentrar dois terços dos investimentos feitos em publicidade no país. Para o pesquisador, esta concentração está relacionada ao fato de que “quanto maior for a capacidade dos anunciantes para comprar espaço nos jornais, rádio, televisão ou internet, mais recursos terão os empresários do ramo para manter seus veículos e melhorar seus produtos”. A distribuição do bolo publicitário é feita de modo paradoxal, segundo os diferentes meios existentes no território brasileiro. Enquanto a indústria audiovisual (televisão, rádio) concentra dois terços dos recursos, a mídia impressa (jornal, revista) absorve um quinto, restando uma quantia inexpressiva para os veículos emergentes (Internet, outdoor) e migalhas para os bolsões marginais (folkmidia). Na verdade, a televisão abocanha a maior fatia (61,9%). Alcançando a totalidade dos 5.564 municípios e atingindo 90,4% dos domicílios, constitui o principal elo entre os cidadãos e o mundo. Seu impacto sobre a sociedade é incomensurável. Dela se apoderam os vendedores de bens e serviços, bem como os mercadores da fé e da política. [...] Apesar de atingir 87,8% das residências e de ser a fonte preferencial de diversão, informação e educação das classes trabalhadoras, o rádio capta apenas 5,2 dos investimentos publicitários. (MARQUES DE MELO, 2008, p. 11-13). 51 Embora o citado percentual de investimentos publicitários para rádio não seja grande em relação aos da televisão, Sonia Virginia Moreira45 apud Marques de Melo (2008, p. 129) ressalta que “em 2005, o rádio estava presente em 88,4% dos lares brasileiros e em praticamente 100% da frota nacional de veículos.” Os dados citados por Moreira e por Marques de Melo nos levam a pressupor que quanto mais os empresários investirem na criação de materiais de publicidade para veiculação no rádio e na TV, maiores serão as exigências de qualificação dos profissionais responsáveis pela produção de criativos conteúdos publicitários para estes veículos. Portanto, neste cenário de crescimento da industria audiovisual no país, conhecimentos sobre o uso adequado de software para áudio e vídeo se tornam fundamentais para o ingresso das novas gerações de comunicadores, que combinam formação universitária e experiência profissional, no mercado brasileiro de Radialismo. No contexto da televisão, a produção de conteúdos de publicidade pressupõe o uso intenso de novas tecnologias de software porque este tipo de tecnologia permite a criação de peças publicitárias agradáveis, divertidas, interativas e modernas. Nas palavras de Sandra Reimão46 apud Melo (2008, p. 137) “Dos vários segmentos da indústria de produtos e bens culturais no Brasil, a televisão é, e tem sido nos últimos anos, aquele que tem maior destaque e maior capacidade de reverberação da sociedade”. Os apontamentos feitos por Moreira, Reimão e Melo estão, no nosso entendimento, relacionados com as reflexões apresentadas pelo professor Fabio Josgrilberg (2007)47 quando aborda a importância de se reduzir a exclusão digital no país, pois, quanto mais esforços para preparar os jovens para utilizarem com competência as novas tecnologias digitais mais o sistema educacional contribuirá para o ingresso das novas gerações de comunicadores no mercado de trabalho. Portanto, o desenvolvimento de capacidades para produzir produtos para rádio e televisão, por exemplo, contribuirá para a inclusão dos jovens no mundo profissional da indústria audiovisual brasileira e, assim, para reduzir não só a exclusão digital, mas também a exclusão social. 45 Doutora em Ciências da Comunicação pela Universidade de São Paulo. Professora adjunta da Universidade do Estado do Rio de Janeiro. Disponível em: http://buscatextual.cnpq.br/buscatextual/visualizacv.jsp?id=K4783920A7 Acesso em 27/12/08. 46 Graduada em Filosofia pela Universidade de São Paulo - USP. Mestre e Doutora em Comunicação pela Pontifícia Universidade Católica de São Paulo - PUC-SP. Professora do Programa de Pós Graduação em Comunicação da UMESP. http://buscatextual.cnpq.br/buscatextual/busca.do Acesso em 15/12/08. 47 Fabio B. Josgrilberg é jornalista e Doutor em Ciências da Comunicação pela Universidade de São Paulo. Mestre em Estudos da Mídia pela Concordia University (Canadá). Professor da Faculdade de Comunicação Multimídia na UMESP. http://buscatextual.cnpq.br. Acesso em 15/12/08. 52 Questões sobre inclusão social, digital, uso de tecnologias e preparação para o mundo do trabalho são importantes no contexto das escolas de comunicação de todo o país, mas, particularmente, para as escolas situadas nas regiões sudeste e sul do Brasil, pois estas regiões estão entre aquelas que mais se destacam no processo de formação de recursos humanos qualificados em nível de graduação para atuar no sistema midiático48. Marques de Melo (idem, p. 18) esclarece que, segundo fontes do Instituto Nacional de Estudos e Pesquisas Educacionais – INEP, a região sudeste está entre as três primeiras e a região sul está em sexto lugar no ranking de formação de recursos humanos qualificados para o sistema midiático. O bacharelado no campo da comunicação ocupa o 5º lugar no ranking nacional do ensino superior, logo depois de Administração (1º) Pedagogia (2º), Direito (3º) e Letras (4º), que possuem mais alunos matriculados. São Paulo, Rio de Janeiro e Minas Gerais são os três primeiros: Isso reflete naturalmente a localização, [...] do bloco hegemônico da indústria de conteúdos que funciona no país, constituindo o mercado de trabalho que mais assimila mão-de-obra diplomada. Com base nos esclarecimentos apresentados por Marques de Melo, entendemos que a responsabilidade das escolas de comunicação, situadas nas regiões sul e sudeste, aumenta quando se trata da formação de pessoas com alto nível de qualificação profissional para o sistema midiático, pois os profissionais dessa área, notadamente de rádio e TV, utilizam cada vez mais sofisticadas tecnologias para criar produtos audiovisuais. Assim, e conforme descrito no capítulo três, pelo fato de estarem localizadas nas duas regiões que mais assimilam mãode-obra diplomada, esta pesquisa destaca a formação dos estudantes dos cursos de Radialismo da UMESP e da ESEEI. Nas duas entidades tal formação privilegia o desenvolvimento de conhecimentos sobre e para o uso de novas tecnologias digitais, especialmente softwares, considerando as perspectivas e o cenário que os egressos irão encontrar no mercado de trabalho. 48 O termo sistema midiático foi empregado por Marques de Melo na obra O Campo da Comunicação do Brasil (introdução, 2008 p.11) em substituição ao termo indústria cultural. 53 CAPÍTULO II. SOFTWARES DE COMPUTADORES: CONCEITOS GERAIS O emprego da tecnologia de software está, neste início do século XXI, cada vez mais intenso nos processos de criação de diversos aparatos e produtos tecnológicos que permitem controle automático de dispositivos, acesso a informações ou a troca instantânea de mensagens à distância, por exemplo. De certa forma os softwares estão presentes na maioria das tecnologias que hoje utilizamos em nossas casas, ambientes de trabalho, lazer etc. Nas palavras de Squirra (2007) a tecnologia e, conseqüentemente, o software “[...] está presente no acesso às informações essenciais, na troca instantânea de mensagens, no controle e compra em frações de segundo - de ações na bolsa, na administração da conta e na vigília do saldo bancário. As telecomunicações e a medicina são hoje exemplos reais da magnanimidade tecnológica, não mais operando em base analógica e linear. Muito menos, solitária. Nossos carros e eletrodomésticos mudaram e têm ‘encorpados’ novos equipamentos que protegem e facilitam a vida familiar, aumentando o conforto e a segurança.” Os softwares estão presentes em praticamente todos os artefatos tecnológicos digitais da atualidade porque são os componentes da engenharia da computação que especializam o uso de outras tecnologias, principalmente do hardware. Assim, a indústria de software enfrenta constantemente os desafios de inovação e de mudanças para atender a indústria do hardware e o mercado em geral, cada vez mais desejosos por novos produtos para fazer frente às necessidades que vão surgindo, até mesmo como consequência do emprego de tecnologias anteriores. Para Taurion (2004 p.4, grifo nosso). Não é novidade a chegada de uma nova categoria de produtos que incorpora uma nova tecnologia ou conceitos. [...] Entretanto, o mercado, conservador por natureza em relação às mudanças, mantém, pelo menos nos primeiros momentos, sua indiferença à nova mudança. Posteriormente, um grupo maior de adeptos, os visionários, é seduzido pela nova tecnologia e contribuem decisivamente para deslocar o eixo do interesse da antiga tecnologia para a nova tecnologia. Aparece a disrupção tecnológica, onde a tecnologia anterior começa a ser substituída rapidamente pela nova tecnologia. Straubhaar e LaRose (idem p.186) têm observado que a inovação e disrupção tecnológica têm estado presentes desde o início da comercialização dos computadores em larga escala: 54 O UNIVAC foi o primeiro computador comercial bem sucedido, e o primeiro modelo foi vendido para o Bureau do Censo Americano em 1951. [...] a IBM não entrou imediatamente no negócio de computadores após a guerra e não entregou seu primeiro computador até 1953. Em 1954 a IBM era apenas a quarta no ranking dos produtores de computadores, bem atrás dos pioneiros da indústria de computadores, a Radio Corporation of América (RCA), a Sperry Rand e a Bendix. Naquele ano, a IBM lançou o Modelo 650, o primeiro computador a utilizar tecnologia de cartão perfurado, algo que a IBM conhecia muito bem, e as vendas de seus computadores começaram a decolar. [...] Em abril de 1964, a IBM lançou o Modelo 360, o primeiro que veio em diversos tamanhos e que era personalizado para muitas aplicações diferentes. [...] O modelo 360 e seu sucessor, o modelo 370, levou a empresa a dominar os mercados nacionais e internacionais. (STRAUBHAAR e LAROSE idem p.186). Entretanto, não podemos confundir a disrupção tecnológica, exemplificada por Straubhaar e LaRose e que implicou na supremacia da IBM, com a inovação que leva ao surgimento de tecnologias adicionais ou alternativas. Em sua dissertação de mestrado, Valverde (mimeo, 2003, p.79-80) destacou esse processo de inovação ao demonstrar como demandas específicas levaram ao desenvolvimento dos minicomputadores49, para servir como alternativa ao uso dos mainframes50 IBM Modelo 360 e 370 em certos tipos de aplicações: A partir dos anos 70, começaram a surgir máquinas menores, denominadas minicomputadores, com o mesmo tipo de arquitetura e funcionalidade que os mainframes. Empresas como AT&T, G.E. e M.I.T. unem-se para desenvolver conceitos, métodos e produtos que visaram, entre outras coisas, o aumento de produtividade no desenvolvimento de software. [...] Foram criadas novas modalidades de operação para os minicomputadores, dentre as quais a denominada Time-Sharing, em que, por meio de terminais, diversos usuários passaram a compartilhar, simultaneamente, os recursos de um mesmo computador para realizar tarefas diferentes. [...] Começam a surgir as especializações em áreas específicas como bancos de dados, teleprocessamento [...] e principalmente aplicações em áreas específicas. Dessa forma os minicomputadores somaram-se aos mainframes nas grandes organizações para realizar tarefas complementares, por exemplo, para processar dados de 49 50 Minicomputadores são máquinas menores que os mainframes e são sempre dedicados a aplicações específicas. Mainframes são computadores de grande porte. Máquinas capazes de fazer processamento de informações em altas velocidades para mais de um usuário ao mesmo tempo. 55 certos departamentos ou como mainframes de menor porte em filiais com menor volume de processamento, em que o uso de computadores maiores tornar-se-ia muito caro. Os minicomputadores, com preço muito mais acessível, passaram a ser usados em nichos de mercado para realizar processamento especializado, a exemplo do primeiro sistema para edição não-linear de vídeo CMX600, e sua importância foi reconhecida por Bill Gates em sua obra A Estrada do Futuro (1995, p. 53-54): Durante toda a minha juventude, a empresa quente de informática era a Digital Equipment Corporation, conhecida como DEC. Por vinte anos pareceu impossível parar a espiral positiva da DEC. Ken Olsen, fundador da empresa, foi um projetista lendário de hardware, meu herói, um deus longínquo. Em 1960, criara a indústria do minicomputador ao oferecer os primeiros computadores pequenos. O mais antigo foi o PDP-1, ancestral do PDP-8 que havia em meu colégio. Um comprador, em vez de pagar os milhões de dólares que a IBM pedia pelos grandalhões, podia comprar um dos PDP-1 de Olsen por 120 mil dólares. Não era tão potente quanto as grandes máquinas, mas podia ser usado para uma variedade de aplicações. A DEC tornou-se uma empresa de 6,7 bilhões de dólares em oito anos, oferecendo uma ampla variedade de computadores em diferentes tamanhos. O passo seguinte foi a construção de máquinas ainda menores equipadas com microprocessadores para atender necessidades individuais nas empresas. Bill Gates (idem p. 54-55, grifos nossos) apresenta um bom exemplo dessa realidade: Durante a década de 70, em escritórios de todo o mundo, os terminais dos processadores de texto Wang começaram a substituir as máquinas de escrever. As máquinas continham um microprocessador, embora não fossem microcomputadores de verdade, porque eram projetadas para fazer uma única coisa – lidar com texto. Wang era um engenheiro visionário. O mesmo tipo de inspiração que o levou a abandonar as calculadoras poderia tê-lo conduzido ao sucesso na indústria de software para PCs, nos anos 80. Mas Wang não enxergou a curva seguinte. Desenvolveu programas excelentes, todos, porém, proprietários, só funcionando em seus processadores de texto. Sem chance nenhuma de deslanchar, portanto, depois que surgiram microcomputadores de uso geral, capazes de rodar inúmeros programas de processamento de texto como WordStar, WordPerfect e Multimate (que aliás imitava o software de Wang). Grifamos a palavra proprietários na citação de Bill Gates para destacar que foi utilizada para ressaltar que os programas não eram portáveis, ou seja, que só funcionavam no hardware da Wang. Isto é, não era possível transportá-los (ou portá-los) para operar em outras plataformas de hardware ou sistema operacional. O segundo grifo foi para ressaltar o verdadeiro sentido de disrupção tecnológica, quando os processadores de texto de Wang 56 foram substituídos por microcomputadores de uso geral, que possibilitaram o uso de softwares diferentes para realizar a mesma função ou funções diferentes. Os microcomputadores51 foram adotados pelas empresas e pessoas comuns principalmente após o lançamento do PC - Personal Computer IBM em 1981. Valverde (2003 p. 84) explica que rapidamente “[...] as empresas começaram a se voltar para a informatização de atividades de produção industrial, no chão de fábrica, e das atividades operacionais nos escritórios [...] em tarefas que iam desde jogos de entretenimento à produção de textos e de cálculos em planilhas eletrônicas”. Se, por um lado, os microcomputadores não substituíram integralmente minicomputadores ou mainframes, por outro, provocaram grandes transformações na indústria da Tecnologia da Informação – TI. Até o surgimento do PC, o software, em especial o sistema operacional, era quase sempre específico para cada tipo de máquina e, portanto, fornecido pelo próprio fabricante. Ao liberar os projetos de engenharia para construção dos PCs, subcontratar a Intel como fornecedora do hardware do PC e a Microsoft como fornecedora do sistema operacional DOS, a IBM facilitou o que muitos autores chamam de revolução da microinformática. No livro Erros de Marketing e Sucessos, Robert F. Hartley (2001, p. 103) nos apresenta sua visão do surgimento e consolidação desse novo segmento industrial de hardware e software para microinformática: No início de 1980, duas pequenas empresas, a Intel e a Microsoft estavam apenas despontando em um setor dominado pela IBM. [...] receberam um grande golpe de sorte ao ser 'agraciadas' como fornecedoras-chave para um novo personal computer (PC) da IBM [...] e com isso arrebataram da IBM o controle sobre o futuro dos PCs. [...] Dez anos antes, em 1982, o valor de mercado de uma ação da Intel e da Microsoft combinadas equivalia aproximadamente a um décimo de uma ação da IBM. Em outubro de 1992, o valor de suas ações combinadas ultrapassou o da IBM [...]. A arquitetura modular do IBM PC permitiu que milhares de empresas passassem a criar dispositivos de hardware complementares – tais como placas de áudio, de redes locais, de digitalização de vídeo, scanners, monitores de alta resolução – e softwares para realizar operações impensáveis nos mainframes e minicomputadores de uso corporativo. 51 Computador pessoal é computador para uso individual. 57 A partir desse momento a indústria de computadores desdobrou-se em vários segmentos, nos quais a maioria das empresas se especializou. A Microsoft se especializou na fabricação de softwares de sistemas operacionais52 e para automação de escritórios53. Outras, como foi o caso da Apple, se especializaram na fabricação de microcomputadores e software multimídia54 para operar, segundo Straubhaar e Larose (idem, p. 189), “[...] com som avançado e recursos de monitor capazes de lidar com imagens em movimento”. Com essa estratégia a Apple se especializou no fornecimento de tecnologia de excelente qualidade para processamento de imagem, de som e de vídeo. A empresa Xerox desenvolveu a tecnologia de hardware para formação de redes de microcomputadores chamada Ethernet. Outra empresa, chamada Novell, desenvolveu software para comunicação em alta velocidade entre microcomputadores pessoais e equipamentos periféricos, formando redes de áreas locais55, assim que: Ficou claro que as grandes organizações poderiam economizar um monte de dinheiro se o software e os periféricos (como impressoras e memória de disco) que os computadores pessoais precisam pudessem ser compartilhados por múltiplos computadores de alta velocidade ligados a rede. Algumas novas aplicações excitantes que poderiam rodar apenas em um ambiente de rede, como o correio eletrônico, também se tornaram populares. Cada vez mais as aplicações de software que antes podiam ser rodadas apenas em computadores mainframes eram agora encontradas nos computadores pessoais. (STRAUBHAAR e LAROSE idem, p.189). Ao final dessa revolução, constataram Straubhaar e LaRose (ibidem), a “Apple Computer começou a transição de uma simples garagem para uma corporação de muitos bilhões de dólares pela manutenção do controle de seu próprio destino com um sistema operacional (de sua autoria e controle) e com uma riqueza de aplicações de software amigáveis, permitindo a ela cobrar preços superiores por seus computadores”. A Microsoft posicionou-se “como a força principal na indústria de computadores pessoais, pois os lucros mudaram do lado hardware para o lado do software da indústria. [...] O seu sistema 52 Sistemas operacionais são programas de computadores que realizam operações básicas de operações. 53 Automação de escritórios ou Office Automation é a designação dada ao conjunto de softwares utilizados para aumentar a produtividade pessoal em ambientes empresariais ou privados. Entre eles destacam-se editores de texto, planilhas eletrônicas, apresentação, e-mail, agendas, etc. 54 Multimídia são sistemas que permitem a integração de texto, áudio e vídeo. 55 Também chamadas LAN – Local Area Network. 58 operacional Windows ultrapassou o próprio esforço da IBM para atualizar o DOS e tinha uma interface de uso facilitado similar ao da Apple. A Microsoft produziu um leque completo de pacotes de software que estavam entre os líderes em virtualmente todas as categorias de produtos mais populares”. Desse modo, no início dos anos 90 a indústria de TI havia mudado consideravelmente, “mainframes respondiam por cerca da metade das vendas de equipamento de computação. Computadores de porte médio e de multi-usuários – muitos atuando como conexão central para grandes redes – representavam outro terço, e os computadores pessoais e estações de trabalho representavam o resto”. As estações de trabalho56 ou workstations, citadas por Straubhaar e LaRose se constituíram em outro importante segmento da indústria de hardware e software. Originadas na década de 1980, as workstations, diferentemente do PC e dos computadores de médio e grande porte, foram criadas para o processamento de sistemas que demandavam grande capacidade de cálculo e processamento de informação gráfica. Em outras palavras uma estação de trabalho é um computador baseado em processador Risc que roda alguma versão de Unix ou Linux. O termo também pode referir-se a um PC de ponta que usa CPU Intel ou AMD de qualquer fabricante de PC. Em todo caso, o termo sugere uma máquina com uma CPU rápida e grande quantidade de memória e disco que é voltado a uso profissional em vez de consumidor. Segundo Straubhaar e LaRose (idem, p. 205-206): [...] sistemas de alto desempenho para uso individual que colocam as capacidades de um mainframe ao mesmo de um supercomputador em um computador de mesa. Elas são usadas primariamente em engenharia sofisticada e aplicações de apresentação gráfica. DEC, IBM, Hewlett-Packard, Sun Microsystems e Silicon Graphics estão entre os líderes nesse campo que cresce rapidamente. Os computadores pessoais são também máquinas para um só usuário [...] mas eles têm muito menos processadores poderosos do que as estações de trabalho e são projetados para rodar uma variedade de softwares de uso geral. Computadores pessoais vêm com uma variedade de configurações, sendo mais conhecidos como de mesa (desktop), portátil (laptop) e portátil compacto (notebook). Definição diferente para workstation é dada no The Free Dictionary57 em função do 56 Estação de trabalho ou workstation têm como principais fornecedores a Sun, HP, IBM e SGI. http://encyclopedia2.thefreedictionary.com 57 http://encyclopedia2.thefreedictionary.com/workstation 59 tipo de tecnologia de hardware e software utilizado e de suas aplicações mais comuns: Workstations são desenhadas para aplicações de negócios poderosos que fazem grande número de cálculos ou requerem displays gráficos de alta velocidade; os requisitos de sistemas de CAD/CAM58 foram boas razões para seu desenvolvimento inicial. Por causa da necessidade de poder computacional, elas são normalmente baseadas em processadores RISC59 e geralmente usam UNIX como sistema operacional. Uma estação de trabalho pioneira foi introduzida em 1987 pela Sun Microsystems. Ou seja, as workstations foram criadas para aplicações que exigem maior velocidade de processamento multitarefa60 de diferentes tipos de dados complexos – desenhos vetoriais 3D, simulações de engenharia (ex. dinâmica computacional de fluídos), animação e renderização de imagens e plotagem matemática – de uma ordem de grandeza61 que os sistemas PC com Windows eram incapazes de fazer, à época. Entretanto, mesmo na indústria de TI, atualmente as palavras workstation ou estação de trabalho são utilizadas indistintamente para significar tanto essas super máquinas como PCs ligados em rede ou até terminais com baixa capacidade de processamento ligados em mainframes. Esse é um dos motivos, principalmente quando se trata de softwares para processamento de imagem, som e vídeo, pelo qual podemos observar que nas lojas especializadas e nos sites de vendas desses softwares existem ofertas de produtos cujos preços variam em dezenas de vezes o valor e essas variações, na maioria das vezes, estão relacionadas ao tipo de tecnologia de hardware na qual o software é operado. Isto também 58 CAD/CAM é o acrônimo de Computer-aided Design e Computer-aided Manufacturing, softwares utilizados no desenho de produtos indústriais de modo a possibilitar sua manufatura com o auxilio de computadores. 59 RISC, acrônimo para Reduced Instruction Set Code, são processadores especializados em cálculos matemáticos e utilizados em computadores técnicos e científicos, ao contrário dos processadores CISC Complete Instruction Set Code fabricados pela Intel e utilizados nos IBM PC, para processamento geral. 60 Processamento Multitarefa é um recurso de sistema operacional que possibilita que mais de um programa possa realizar tarefas simultaneamente. Quanto aos computadores multiusuários mencionados por Straubhaar e LaRose, tratavam-se dos computadores time-sharing aos quais nos referimos antes e que possibilitavam o compartilhamento dos mesmos recursos de uma máquina, por muitos usuários, para processar softwares diferentes. O sistema operacional mais utilizado nesse tipo de processamento tem sido o Unix, criado pela AT&T em 1970, e que exerceu forte influência na criação da Internet e do Software Livre, como veremos adiante. 61 Para termos uma ideia da ordem de grandeza dessa diferença recorremos ao um texto da (Wikipedia) onde são comparadas: “as workstations de ponta no início dos anos 1980, o chamado “computador 3M: um Megabyte de memória, um display de Megapixel (aproximadamente 1000X1000), e desempenho computacional de um MegaFLOP (pelo menos um milhão de instruções de ponto flutuante por segundo)”, com o IBM PC original que “tinha 16 KB de memória, display exclusivamente textual, desempenho de ponto flutuante por volta de 1 kiloFLOPS”. 60 explica a forte participação das workstations Macintosh62 da Apple Computer em nichos de mercado Desktop Publishing e da SGI - Silicon Graphics na indústria cinematográfica dos EUA – principalmente em edição e produção de efeitos especiais – nas décadas de 1980 e 1990. Resultado desse processo evolutivo, na última década do século XX o software não era mais um acessório do hardware. Uma indústria de software independente dos fabricantes das máquinas havia se consolidado em três segmentos: pré-empacotados, embarcados e personalizados. No segmento dos softwares pré-empacotados encontram-se as indústrias dos softwares voltados para o mercado de massa, tais como sistemas operacionais, de redes locais e suítes de escritório. Segundo (Taurion 2004, p. 5) essa indústria tem como estratégia comercial: [...] custos incrementáveis de vendas virtualmente zero, com estrutura de mercado altamente concentrada, com modelo de receita baseado quase que exclusivamente em licenças e de venda e manutenção. De maneira geral, pela alta concentração de mercado, quase monopolista tende a ser uma arquitetura proprietária e fechada. O exemplo é a Microsoft que domina o segmento para softwares de desktop, e que retira deste segmento mais de 60% de sua receita, ou quase 20 bilhões de dólares da receita total de 32 bilhões de dólares, conforme relatado aos acionistas ao fim do seu ano fiscal de 2003. As margens operacionais são bastante elevadas, com o Office, sendo de 76%, e o Windows, chegando a 81%. No segmento do software embarcado, a estratégia comercial da indústria “apresenta grandes perspectivas de crescimento pela difusão de aparelhos eletrônicos e periféricos que possuem complexas funções. Produtos que contêm esta modalidade de software incluem telefones celulares, aparelhos de TV e automóveis. O custo e o valor comercial destes produtos contêm uma parcela significativa de softwares embarcados” (TAURION, idem p. 5). No segmento dos softwares personalizados, a indústria adota como estratégia comercial a prestação de serviços – inclusive desenvolvimento de software sob medida – em setores de negócios “como financeiro, telecomunicações e agronegócios”, e “o peso dos serviços na receita pode ser tão ou mais importante que a venda das licenças”. É um segmento “extremamente competitivo e com expressiva participação da indústria nacional”. (idem p. 6). Embora as indústrias de softwares dos três segmentos se diferenciassem nas 62 Macintosh e Silicon Graphics são estações RISC de alto desempenho. 61 estratégias comerciais – tipos de produtos/serviços fornecidos – adotaram um modelo de receita comum, baseado na cobrança de licenças de uso dos softwares de sua propriedade e de cobrança de valores adicionais para atualização periódica das licenças. Como forma de assegurar o crescimento de seus negócios, a capacidade de investir no desenvolvimento dos produtos e assegurar posição no mercado, toda a indústria do software proprietário adotou, segundo Denis Borges Barbosa (1993), as seguintes medidas para fornecer os produtos: a) O software é fornecido mediante aceitação, pelo cliente, das condições estabelecidas em contrato de uso (user licence); b) O software é fornecido em linguagem de máquina (código executável) para uso nas quantidades contratadas e pagas; c) O usuário fica proibido de fazer cópias do software ou instalar a mesma cópia em mais de uma máquina, e em alguns casos de transferir o software de uma máquina para outra; d) O usuário fica proibido de conhecer como o software está codificado, ou seja, de abrir o código executável; e) O usuário fica proibido de fazer qualquer modificação no software. É possível impedir o acesso ao conhecimento implementado nos códigos dos programas porque os computadores os processam em “[…] linguagem binária, composta por combinações de zeros e uns, uma linguagem de difícil utilização pelo ser humano. Para resolver este problema os especialistas em tecnologias da informação [...] criaram softwares tradutores, capazes de converter os códigos de sinais escritos pelos humanos, denominado código-fonte, para os códigos de sinais que o processador entende, denominado código executável” (VALVERDE 2003 p. 88). Ao mesmo tempo em que essa indústria se desenvolvia, alguns acontecimentos pontuais e aparentemente isolados, somados a algumas atitudes de pessoas e empresas, sedimentaram o caminho para o surgimento de um outro paradigma de produção de software conhecido por Software Livre ou Free Software. No paradigma de Free Software a produção e distribuição de software são feitas com modelos estratégicos e de negócios antagônicos aos da indústria tradicional, conforme veremos mais adiante. 2.1. SOFTWARE PROPRIETÁRIO: PARTICULARIDADES Estudar e discorrer sobre software não é tarefa fácil. O assunto é extenso, complexo e demanda conhecimentos técnicos especializados. Assim, sem ignorar o fato de que algumas 62 questões importantes sobre esta tecnologia não são aqui contempladas, inclusive por fugirem do escopo deste estudo, passamos a discorrer sobre algumas características dos modelos de negócios típicos do software proprietário com o objetivo de facilitar sua diferenciação dos softwares livres. Durante os anos de formação da indústria do software proprietário, iniciou-se uma revolução silenciosa no sentido de estabelecerem-se regras e padrões para estruturar o que Friedman (2005, p. 90) classificou como “corpo de bombeiros mal estruturado”. [...] Em fins da década de 1990, a indústria do software começou a responder aos desejos dos consumidores. As empresas de tecnologia, ao cabo de muitas controvérsias internas e inúmeras tentativas e erros, começaram a produzir padrões baseados em web adotados de maneira mais generalizada, protocolos e estradas digitais mais integrados, de modo que qualquer mangueira – isto é, qualquer aplicativo de software – funcionasse com todos os hidrantes. Quando falamos em software proprietário queremos dizer softwares protegidos por licenças de uso. Uma licença pode ter determinadas particularidades que a diferencia de outras, mas de forma geral uma licença define quais ações são autorizadas ou proibidas pelo proprietário do software. Recorremos a Cezar Taurion (2004, p.15) para compreender melhor essa questão: Geralmente, a licença permite o uso de uma cópia única de um software, até determinados limites. Existem, é claro, condições específicas para determinadas organizações, como universidades e centros de pesquisa, que obtêm desconto educacional. Entretanto estas licenças especiais procuram assegurar que o software só será usado em situações de uso acadêmico, seja ensino, pesquisa ou gestão, não sendo permitido seu uso fora deste âmbito, como em consultoria remunerada. Denis Borges Barbosa (1993) explica que uma licença: [...] é precisamente uma autorização, dada por quem tem o direito sobre o software, para que uma pessoa faça uso do objeto do seu direito. [...] o titular do software promete não empregar seus poderes legais para proibir a pessoa autorizada do uso do objeto do seu direito. [...] o titular dá ao licenciado o direito de explorar o software, com todos os poderes, instrumentos e meios de que disto decorram [...]. O titular dos direitos de propriedade do programa produto, mesmo estando distante das vistas do usuário, continuará mantendo, sobre o bem intelectual que acabou de ser adquirido para uso, o seu direito de propriedade – e o adquirente deve, apenas, usar o programa produto, com limitações. (ibidem). 63 A crescente demanda por softwares nos mais diversos segmentos das sociedades estimulou polêmicas e discussões acerca das possibilidades de patenteá-los, como a que Straubhaar e LaRose (2004, p. 214) nos apresentam a seguir: Até 1990, o software de computador foi considerado impossibilitado de ser patenteado, tomando como base o fato de que os computadores meramente executavam cálculos matemáticos de fórmulas que eram elas próprias o produto de processos mentais, e não dispositivos patenteáveis. Em outras palavras, o problema era que os programas de computadores eram pensamentos não patenteáveis, não coisas patenteáveis ou processos. A lei de patente nesse ponto evoluiu rapidamente no início dos anos 90, incluindo um caso no qual foi definido que animação gráfica em computadores era patenteável. Hoje, o software é geralmente olhado como patenteável sob a lei americana. Isso torna provável que, no futuro, companhias tentem controlar o mercado de softwares através da compra de patentes-chave [...]. Há preocupação porque a patenteabilidade de software de computador foi agora muito longe, ao ponto de poder retardar o desenvolvimento de novas aplicações. Por exemplo, em 1993 a Enciclopédia da Compton obteve uma patente que cobria virtualmente todas as formas de aplicação multimídia interativa de computador, o que poderia forçar desenvolvedores – e os consumidores – de todos os softwares a pagar dividendos aos detentores de patentes. Uma patente tem aspectos que a assemelham ao monopólio (do grego monos = um + polein = vender), ou seja, atribui direito de exclusividade para comercialização a uma empresa ou pessoa que inventou determinado produto ou tecnologia. Cada país, a partir da assinatura do Acordo TRIPs63, pode determinar quais invenções são ou não objeto de patentes, desde que satisfaçam os requisitos indicados, pois nem tudo no mundo é patenteável. Na linha dessa discussão, o professor Antonio José Junqueira Botelho (2008)64 da PUC-Rio em artigo intitulado Práticas de Proteção de PI de Software nas Empresas Brasileiras Produtoras de Software (2008), assim se posiciona: Patenteabilidade dos procedimentos eletrônicos e de software é de grande importância, 63 Tratado Internacional, integrante do conjunto de acordos assinados em 1994 que encerrou a Rodada Uruguai e criou a Organização Mundial do Comércio. Também chamado de Acordo Relativo aos Aspectos do Direito da Propriedade Intelectual Relacionados com o Comércio (ADPIC). Disponível em: http://www.cultura.gov.br/site/wp-content/uploads/2008/02/ac_trips.pdf. 64 Graduado em Geologia pela Universidade Federal do Rio de Janeiro (1978), com mestrado em Science, Technologie et Société - Université de Paris IV (1983) e doutorado em Political Science - Massachusetts Institute of Technology (1996). Disponível em: http://lattes.cnpq.br/8270074222521103. Disponível www.inpi.gov.br/menu-esquerdo/academia-da-propriedade-intelectual-e.../PIemQuestao_29-0808_AntonioJunqueira.pdf 64 quando nos deparamos com plataformas tecnológicas desenvolvidas para o comércio eletrônico, como, por exemplo, soluções inovadoras para ambientes em B2B (business-to-business), B2C (business-to-consumer). Os métodos e procedimentos dessas plataformas comerciais não são patenteáveis, segundo as leis brasileiras. A LPI – Lei de Propriedade Industrial preceitua que são patenteáveis as invenções (produtos e processos), os modelos de utilidade (que tornam a invenção mais útil) e os desenhos industriais (o design dos produtos). Estes devem preencher os requisitos de: 1) novidade; 2) atividade inventiva e; 3) aplicação Industrial. A lei, por si só, já exclui o que não é considerado como 'invenção’, portanto, não patenteável. De forma genérica, para se obter uma patente um inventor tem que demonstrar para o Estado que a tecnologia para a qual pretende exclusividade é uma solução técnica para um problema técnico determinado, ou seja, é um invento ou uma novidade de aplicabilidade Industrial ou de utilidade pública, como alguns medicamentos, por exemplo. Para muitas pessoas a questão dos pagamentos de licença para uso de um determinado software envolvendo patente não é bem compreendida porque, conforme nos explica Taurion (2004, p. 16-17), “[...] nos primórdios da informática, os softwares eram gratuitos e livremente distribuídos em formato fonte, pois havia poucos computadores e o valor real estava na própria máquina não nos programas”. Com outras palavras, além de não cobrarem separadamente pelo software os fornecedores do hardware ainda o entregavam escrito em código fonte e não em código de máquina (ou executável), ou seja, entregavam o código numa linguagem de programação que permitia leitura e interpretação do conteúdo do programa por qualquer programador que dominasse a linguagem com a qual o código havia sido escrito. Mesmo assim, os fabricantes estavam relativamente protegidos porque os softwares, como já mencionamos anteriormente, dificilmente eram portáveis para outras plataformas de hardware. Portanto, vender software separadamente do hardware era algo inimaginável até que: […] com a maior disseminação dos computadores e o crescimento da indústria de TI, o software começou a ser vendido separadamente da máquina. Gerou uma indústria bilionária, e as empresas do setor começaram a buscar mecanismos de proteção de propriedade intelectual como direitos autorais (copyrights) e patentes para se proteger da acirrada concorrência e garantir suas vantagens competitivas. Neste momento, o código fonte passou a ser protegido, pois ele é o próprio conhecimento do programa. O modelo de software proprietário surgiu, portanto, para preencher uma necessidade legítima do mercado. Sem incentivo financeiro, a indústria de software não teria chegado aonde chegou. (TAURION 2004, p. 16-17). Mesmo os softwares distribuídos sob licenças de shareware ou de freeware 65 pertencem à categoria dos softwares proprietários e são distribuídos em código de máquina. A confusão ocorre por que: Os softwares shareware são geralmente gratuitos por um determinado período de tempo, definidos a critério do seu proprietário. Após este tempo, o software deixa de funcionar ou opera em modalidade restrita. A ideia básica do shareware é que o desenvolvedor deve ser remunerado pelo seu esforço. Assim depois de determinado período de avaliação, onde nada é cobrado, o software demanda pagamento de uma determinada taxa de licenciamento. Caso este pagamento não aconteça, o software pode restringir sua funcionalidade a apenas algumas facilidades. [...] os softwares shareware não vêm com permissão para fazer cópias e novas instalações sem licenças adicionais. Os softwares freeware podem ser usados e eventualmente distribuídos gratuitamente, sem limitações de tempo. O freeware não impõe nenhum pagamento ao seu autor, para seu uso. Algumas vezes é adotado como parte de uma estratégia de marketing para promover produtos complementares. Um exemplo clássico foi a estratégia adotada pela Microsoft quando disponibilizou gratuitamente o browser Explorer, para conseguir market share e assim alijar do mercado a Netscape e seu navegador, então distribuído no modelo de pagamento de licença de uso. Os softwares freeware podem ser obtidos gratuitamente, mas não podem ser modificados, porque são liberados apenas em código binário. (TAURION 2004, p. 16-17). Denis Borges Barbosa65 complementa a explicação de Taurion ao esclarecer que no Brasil o registro de software é regulamentado por um conjunto de normas jurídicas: a Lei 9.609/98 sobre Programas de Computador; a nova Lei Autoral 9.610/98, que manteve em vigor o art. 17 da Lei 5.988/73; o Decreto Federal 2.556/98 e a Resolução INPI 58/98. “[...] A legislação ora em vigor (Dec. 2556/98) prevê que o Instituto Nacional da Propriedade Industrial seja o órgão de registro dos direitos relativos aos programas de computador.” (idem, ibidem). Neste contexto, é importante esclarecer que as leis brasileiras amparam a distribuição dos softwares proprietários com código fechado. Ou seja, o impedimento do acesso ao código fonte é amparada por força das leis de direitos autorais e de patentes brasileiras. Ocorre que não são somente os programas que estão amparados contra a abertura de código desautorizada pelo fabricante. A garantia de propriedade é concedida também para assegurar o segredo de formatos de arquivos, como o .DOC (arquivo de texto) e .PPT (arquivo de apresentação de slides) da Microsoft. Conforme esclarece Valverde (2008, p. 177) “O padrão de formato doc estabelece como os textos e suas apresentações (fontes, tamanhos, figuras, estrutura de documento, imagens etc) são armazenadas em arquivos digitais. O formato ppt estabelece a forma de armazenamento dos conteúdos produzidos no software de 65 O Registro do Programa na Nova Lei de Software. http://nbb.com.br/english/publications/intellectual_04.html Acesso em 12/12/08. 66 apresentação”. O crescente desenvolvimento de tecnologia com padrões de código fechado tem sido muito discutido por fabricantes de software, comunidades e governos, pois, manter conteúdos armazenados em arquivos de formato proprietário ajuda na formação de monopólio e dificultam sobremaneira a interoperabilidade entre softwares. Algumas empresas adotam a política de divulgar a estrutura de seus padrões, mas mantêm os direitos de propriedade sobre os softwares. Valverde (2008, p. 118) explica que os formatos ps (postscript), eps (encapsulated postscript) e pdf (portable document format), estabelecidos pela empresa Adobe para armazenamento digital de textos e gráficos, são três exemplos bastante significativos e de grande importância para a indústria gráfica. O conhecimento destes formatos permite que fabricantes de impressoras gráficas digitais possam assegurar impressão de qualidade dos conteúdos desses arquivos, embora estejam submetidos a copyright, termo usado para indicar que um produto está sujeito a direitos de autorais66. Em sentido oposto, um bom exemplo de Open Source (código aberto) são os formatos de arquivo utilizados nos aplicativos do pacote StarOffice da empresa SUN Microsystems, que aderem ao padrão aberto ODF- Open Desktop Format. Por sinal a SUN disponibiliza uma versão gratuita do StarOffice, chamada OpenOffice, uma suíte de aplicativos que funciona com quase todos os sistemas operacionais de microcomputadores e workstations e cujas funcionalidades são muito parecidas com as disponíveis no pacote Office da Microsoft, porém acrescidas de recursos para desenho vetorial 2D e 3D equivalentes ao do software conhecido como CorelDRAW, e exportação para PDF. O OpenOffice é capaz de ler e gravar arquivos nos padrões estabelecidos pela Microsoft, apesar de os formatos de arquivos gerados pelos produtos Microsoft não serem Open Source. A indústria de software proprietário continua a crescer em todo o mundo, inclusive no Brasil, e cada vez mais disponibiliza grande variedade de produtos para as mais diversas finalidades. No atual e clássico modelo de comercialização de software, explica Taurion (idem p. 6) o “software proprietário, é fechado, pois é distribuído apenas em código binário, e não legível pelos programadores. Os únicos que têm acesso a ele são os desenvolvedores da empresa proprietária. Esta também se reserva o direito de proibir ou liberar seu uso, cópia ou redistribuição, de acordo com seus interesses e práticas comerciais”. 66 O símbolo de copyright é "©". O Portal do Ministério da Cultura do Governo Federal disponibiliza diversos estudos sobre direitos autorais. Disponível em: http://www.cultura.gov.br/site/categoria/politicas/direitosautorais-politicas/ Acesso 10/12/08. 67 Apesar desse crescimento e quase hegemônica presença do software proprietário no mercado de microcomputadores, desktop, um novo modelo de negócio está crescendo no mercado global. Este modelo é caracterizado pelos negócios que envolvem a tecnologia de software livre, normalmente programas desenvolvidos sob as regras da licença GPL – General Public License ou Licença Pública Geral, idealizada por Richard Stallman no final da década de 1980. Os softwares GPL são fornecidos com código fonte (ou open source), na maioria das vezes são gratuitos e podem ser copiados diretamente de sítios da Internet. Como explica Taurion (idem p. 6) “o modelo de negócios com Open Source e software livre permite o livre acesso ao código fonte de um programa, pode ser usado, copiado, estudado e redistribuído [...].” Para melhor compreender esse novo cenário de competição entre os dois paradigmas de produção de software, passamos a discorrer rapidamente sobre o surgimento e modelo de negócio dessa nova tecnologia de software: o software livre. 2.2. SOFTWARE LIVRE: PARTICULARIDADES A complexa e bem sucedida indústria de software tornou-se um negócio lucrativo e estratégico para o desenvolvimento econômico de muitas nações. No segmento de software pré-empacotado para microcomputadores PC, um pequeno número de grandes empresas praticamente monopoliza a produção e distribuição de softwares tais como sistemas operacionais, automação de escritórios, computação gráfica etc. A Microsoft é um ícone nesses segmentos e praticamente monopoliza os mercados de sistemas operacionais e automação de escritórios para microcomputadores pessoais. No final da década de 1990, ao se apresentar como alternativa natural de mercado para confrontar monopólios privados, o modelo de negócio do software livre começou a despertar a atenção da comunidade técnica, acadêmica e de negócios em todo o mundo. O resultado, como mostra Taurion (2004 p. 4): […] é que vemos extensa cobertura da mídia; um crescente número de softwares livres disponíveis às organizações, como o Linux e o Apache; a entrada de pesospesados da indústria como a IBM no negócio de softwares livres; e as discussões políticas e comerciais, muitas vezes movidas por ideologias e não pela racionalidade, 68 do impacto deste novo modelo de negócios nas empresas usuárias e na própria indústria de software. O software livre já não é mais apenas um brinquedo nas mãos de hackers, mas já faz parte da agenda política e estratégica de empresas privadas e públicas. É um negócio sério e profissional. [...] Já existem hoje dezenas de milhares de projetos de softwares livres em desenvolvimento no mundo inteiro. Alguns já são nomes representativos como o sistema operacional Linux, o servidor Web Apache, o correio eletrônico Sendmail e a suíte OpenOffice (similar ao Office da Microsoft). O software livre, pela sua proposta de custos menores, está tomando de assalto os segmentos maduros e considerados comoditizados da indústria de software. Nesse novo paradigma, a opção pelo Open Source permite que qualquer programador possa ler, entender e modificar o programa. Ter acesso ao código fonte é, portanto, a chave para abrir e modificar qualquer software, adaptá-lo a realidades específicas de países, empresas e pessoas. Ademais, com o código aberto, o conhecimento sobre como os softwares funcionam deixa de ser uma propriedade econômica de algumas pessoas e empresas e passa a ser um conhecimento que pode ser compartilhado universalmente. A opção pelo software livre, além de encampar o conceito de Open Source, propõe um modelo de negócio que não envolve a cobrança pelas licenças de uso, embora, contrariamente ao senso comum, o SL não seja necessariamente gratuito. Em outras palavras, o modelo de negócios de Free Software/Open Source FS/OS – ou simplesmente software livre – adota posição exatamente contrária ao processo de comercialização do software proprietário, ou seja, as licenças de uso explicitam os direitos dos usuários para: a) acesso ao código fonte do software; b) permissão para utilização de quantas cópias o usuário desejar ou precisar e; c) permissão para qualquer usuário fazer modificações no código. Este tipo de posição leva muitas pessoas a ficarem intrigadas com o fato de outras pessoas e ou empresas investirem recursos de tempo, financeiros e de conhecimento para criar produtos de software livre sem, necessariamente, obter disso resultados financeiros. Pior ainda, criar tecnologias e depois distribuir gratuitamente esses segredos. Por que isto acontece? Por que algumas pessoas e empresas trabalham em prol do software livre, da abertura do código? Já adiantamos que as condições para o estabelecimento desse paradigma de produção e distribuição de software decorreram de muitos acontecimentos diferentes, que envolveram pessoas e empresas cujas atitudes permitiram que as tecnologias geradas se tornassem um bem público e não um produto proprietário a mais. Em alguns casos foi resultado de altruísmo e teve por objetivo simplesmente beneficiar certas comunidades, em outros, está relacionado com a ideia libertária de dar maior importância aos indivíduos e de protegê-los contra o 69 controle e excessos de estados e governos. Também há esforços conjuntos entre governos e entidades de pesquisa não-governamentais – os primeiros com encomendas e financiamentos e os segundos com conhecimento e trabalho – para criação de soluções ou produtos que possam beneficiar a humanidade ou proteger a sociedade, enfim, existem casos em que tais atitudes fizeram parte de uma estratégia mercadológica ou de formação da imagem de empresas ou pessoas. A seguir mostraremos como algumas das tecnologias de software livre surgiram a partir de uma ou mais destas motivações. 2.3. O SOFTWARE LIVRE E O PARADIGMA LIBERTÁRIO Ao longo do processo de desenvolvimento Industrial das tecnológicas de comunicação e computação algumas atitudes altruístas existiram por parte de determinadas organizações. A AT&T – American Telephone and Telegraph, por exemplo, abriu mão de seus direitos de patentes sobre o transistor, “preferindo compartilhar dados sobre ele com a comunidade científica” explicam Straubhaar e LaRose (2004 p. 213). Essa atitude agilizou o processo de miniaturização dos componentes eletrônicos e levou a construção dos microcomputadores. “Pode ser que o medo da AT&T de processos antitrustes tenha ajudado a inspirar seu altruísmo, pois como é de conhecimento geral, no processo antitruste se busca evitar a formação de monopólios para o uso e comercialização de um determinado produto ou tecnologia.” Outro exemplo foi o da Internet, cuja criação foi resultante da interseção da big science com os interesses militares norte-americanos67 de desenvolver uma rede de comunicação por computadores descentralizada para fazer frente ao poderio soviético. O conceito de Big science, explica Castells (2003, p. 19); […] refere-se às investigações científicas que envolvem projetos vultosos e caros, geralmente financiados pelo governo norte-americano. Envolvem também importantes centros de pesquisas e universidades. Ainda hoje cientistas e pesquisadores continuam a realizar projetos e a descrever as mudanças que continuamente ocorrem na ciência e nas tecnologias, e que impactam de forma significativa na autoconstrução da rede. 67 Interesse que surgiu em plena guerra fria, em decorrência do conflito existente entre os Estados Unidos da América do Norte e a União das Repúblicas Socialistas Soviéticas. 70 Este interesse militar levou o Departamento de Defesa dos EUA a criar a ARPA – Advanced Research Project Agency – e a “Internet se desenvolveu, portanto, de forma colaborativa envolvendo cientistas, universidades e centros de pesquisas com liberdade para pesquisar sem objetivos pré-definidos”. Estas palavras de Castells (ibidem) deixam clara a importância das práticas colaborativas centradas na liberdade de comunicação como uma das principais constituintes da Internet – uma rede cujos protocolos de comunicação essenciais são comuns e não-proprietários, e foram desenvolvidos de modo compartilhado. Nesse contexto, podemos dizer que a Internet, após ter sido criada com base em trabalho colaborativo, tornou-se, mais tarde, ela própria um espaço público, uma commons livre de licenças de uso e de patentes para o compartilhamento dos conhecimentos que nos levaram ao estágio de desenvolvimento em que nos encontramos atualmente. Em Commons a revolução na produção simbólica (2007)68 Sérgio Amadeu da Silveira esclarece esta relação: A palavra commons pode significar aquilo que é comum ou os espaços e as coisas que são públicas. Em alguns casos pode ter o significado de comunidade ou da produção compartilhada entre pares. [...] As novas tecnologias da informação e da comunicação permitiram que a ideia do commons avançasse velozmente no cenário da cultura digital. Os commons podem ter diversos entendimentos, mas nunca poderão ser confundidos com a apropriação privada do que é comum. Como bem adverte o professor Yochai Benkler, estamos participando de um período de mudanças profundas em que a produção colaborativa evolui para a constituição de uma verdadeira economia das redes de informação baseada na colaboração. [...] As redes digitais e os bens informacionais permitiram que a produção social ou colaborativa entre pares ganhasse dimensões planetárias. A construção social deste novo commons somente foi possível porque durante o processo de criação da Internet muitos cientistas, pesquisadores e até mesmo empresas abriram mão de seus direitos de propriedade intelectual para permitir, colaborativamente, à rede evoluir e avançar para diversos terrenos e culturas do mundo. A luta dos cientistas adeptos do paradigma libertário foi para que os resultados desse processo de desenvolvimento da Internet não fossem transferidos para a esfera de empresas privadas, estimulando, assim, a formação de redes ou comunidades virtuais de trabalho. Esforço maior ainda foi feito para que a Internet não se tornasse um instrumento proprietário ou sob controle de governos e estados. 68 Observatório da Imprensa. Disponível em: www.cultura.gov.br/foruns_de_cultura/cultura_digital/na_midia/index.php?p=26056&more=1&c=1&pb=1. 71 Assim, a partir das décadas finais do século XX e em decorrência da sua crescente inserção nos meios acadêmicos, a Internet tornou-se cada vez mais um fenômeno de autoconstrução. O conceito de Paradigma Libertário está relacionado ao conceito de cultura de liberdade. Portanto, os fundamentos deste paradigma referem-se às culturas ou ideologias baseadas na defesa intransigente da liberdade como um valor supremo. Com freqüência estas culturas se manifestam contra órgãos ou governos que intencionam colocar em risco tal liberdade, embora, conforme explica Castells (2003, p. 19) o termo Libertário – libertarian – tenha sentidos diferentes nos contextos europeu e americano. Na Europa, refere-se a uma cultura ou ideologia baseada na defesa intransigente da liberdade individual como valor supremo – com freqüência contra o governo, mas por vezes com a ajuda do governo, como na proteção da privacidade. No contexto dos EUA, ‘libertário’ significa fundamentalmente uma desconfiança sistemática no governo com base na ideia de que o mercado cuida de tudo por si só, e os indivíduos cuidam de si. Outro fator que contribuiu para a autoconstrução da Internet está relacionado ao fato de seu desenvolvimento ter sido feito com base no sistema operacional chamado UNIX. O sistema operacional UNIX foi desenvolvido pela AT&T em 1969 e tinha como um de seus principais objetivos facilitar sua portabilidade para que pudesse operar em diferentes máquinas ou em plataformas diferentes. O sistema UNIX foi programado em uma linguagem de programação chamada C, criada poucos anos antes pela própria AT&T para que o UNIX pudesse ser portável. Segundo artigo intitulado Estudo sobre o Software Livre (2005) de autoria de Joaquim Falcão69 tudo aconteceu assim: Por causa de uma limitação legal, a AT&T não possuía autorização para fabricar computadores ela mesma. Por isso, precisava comprar computadores de diversos fabricantes para gerenciar as redes de telefone naquele país. Dois programadores da empresa, sediados nos Bell Labs, decidiram enfrentar esse problema. Eles tiveram a ideia de escrever um sistema operacional que pudesse funcionar em qualquer computador, podendo ser traduzido de um padrão para outro. Desse modo, um 69 Doutor em Educação pela Université de Génève. Master of Laws (LLM) pela Harvard University. Professor de Direito Constitucional da UFRJ e FGV. Diretor da FGV Direito Rio. Disponível em: lattes.cnpq.br/4841367350910524 72 programa escrito uma única vez poderia ser rodado em vários computadores diferentes. O nome dado a esse sistema operacional foi UNIX. Também por causa das restrições legais impostas à AT&T, a empresa não tinha autorização para vender o sistema operacional que criara. E, nesse sentido, optou por distribuí-lo livremente. Os programadores responsáveis pela criação do software, Ken Thompson e Dennis Ritchie, convenceram assim a empresa a distribuir o UNIX para qualquer interessado. Os primeiros receptores do UNIX foram universidades. Departamentos de ciência da computação começaram a trabalhar sobre o software, aperfeiçoando-o e complementando-o. Em outras palavras, construindo novo conhecimento a partir do conhecimento contido no código fonte do UNIX. O UNIX, por todo esse período, funcionava como um bem de toda sociedade: ele encontrava-se não só disponível para qualquer pessoa, como também permitia e disseminava o acesso ao conhecimento incorporado na feitura do programa; além disso, atribuía a qualquer pessoa a possibilidade de inovar a partir daquele corpo de conhecimento. Não havia necessidade de se pedir autorização à empresa AT&T para obter acesso ao código fonte do programa ou para estudá-lo e modificá-lo. Por esses motivos a linguagem C e o sistema operacional UNIX foram as tecnologias de base utilizadas pelos pesquisadores da ARPA – do Departamento de Defesa dos EUA - no desenvolvimento do protocolo de comunicação TCP/IP – Transmission Control Protocol / Internet Protocol, mais tarde adotado como padrão mundial para interconexão de computadores na Internet. Seguramente, do ponto de vista da grande maioria de usuários das tecnologias de informação atuais, a popularização dos computadores iniciou-se quando foi possível conectar os computadores pessoais à Internet, sucessora das experiências feitas com uma rede de área ampla WAN70, muito especialmente conhecida como ARPANET - Advanced Research and Projects Network. Como explicam Straubhaar e LaRose (idem, p. 203) essa foi “a primeira WAN operacional, em 1973, e foi a precursora da Internet de hoje, a rede das redes que liga usuários na academia e na indústria, através dos Estados Unidos e do Mundo. A mais importante inovação da ARPANET foi um meio de transmitir dados em longa distância em uma maneira que não exigia conexões dedicadas entre cada e todos os pontos da rede”. O desenvolvimento da Internet trouxe para o cenário da indústria de TI – Tecnologia da Informação – outro grupo de empresas desconhecidas até então ou criadas especificamente para participar da revolução em curso naquele momento. Lembra-nos Friedman (2004, p. 70) que “em meados da década de 1999, a revolução da dupla PC-Windows havia chegado aos seus limites. Se era para o mundo ficar efetivamente interconectado [...] a revolução tecnológica precisava entrar na fase seguinte – que, [...] consistia em 'passar de uma 70 WAN é acrônimo de Wide Area Network, ou rede de cobertura ampla. 73 plataforma de computação baseada em PC para outra baseada na Internet'”. Essa nova plataforma de computação baseada em rede global começou a ser formada por outros tipos de aplicativos que não estavam contemplados nas plataformas anteriores, pelo menos em termos de escala e usabilidade. Os aplicativos cruciais, em torno dos quais a nova fase giraria, seriam o e-mail e os browsers. A rápida expansão do primeiro acompanhou a de portais comerciais como a AOL, a CompuServe e, mais tarde, o MSN. Entretanto foi o outro aplicativo, o browser, capaz de recuperar documentos ou páginas da web armazenadas em sites e exibi-las em qualquer tela de computador, que arrebatou imaginações. O conceito de World Wide Web – um sistema para criação, organização e interligação de documentos, possibilitando a fácil navegação entre eles – foi elaborado pelo especialista da computação britânico Tim Berners Lee, que criou o primeiro site da web em 1991, na tentativa de fomentar uma rede de computadores que possibilitasse aos cientistas compartilhar suas pesquisas com facilidade. Outros cientistas e acadêmicos criaram browsers (ou navegadores) diversos para surfar pela rede nessa etapa inicial; todavia, o primeiro a se disseminar, junto com toda a cultura do uso da web pelo público em geral, foi desenvolvido por uma diminuta empresa iniciante de Mountain View, Califórnia: a Netscape. [...] o browser não só injetou vida nova na Internet como a tornou acessível para todos, dos 5 aos 85 anos de idade; quanto mais pulsante a Internet, maior o desejo dos consumidores de fazer outras coisas na web, de modo que começaram a demandar computadores, programas e redes de telecomunicações capazes de digitalizar com facilidade textos, músicas, dados e fotos e transportá-los, pela Internet, para qualquer outro computador do planeta. (FRIEDMAN 2004, p. 7080). Novamente, não se tratou de disrupção tecnológica e sim de novas tecnologias de hardware e software que possibilitaram a inclusão de milhões de pessoas nesse novo ambiente e que passaram a utilizá-lo para comunicação. O pioneirismo do Netscape rendeu a empresa Netscape Communications Corporation posição hegemônica no mercado de navegação na Internet, pois o que ela fez foi “introduzir um novo aplicativo crucial – o browser, ou navegador – na base já instalada de PCs, aumentando assim a utilidade inerente do computador e sua conectividade para milhões de pessoas” (FRIEDMAN idem p. 70-80). A rigor o browser Netscape foi resultado da união da Big Science com interesses empresariais e tem importância histórica para a Internet. Em meados de 1994, o fundador da Silicon Graphics, havia unido forças com Andreessen para fundar a Mosaic, que logo seria rebatizada de Netscape Communications. Andreessen, jovem e brilhante cientista da computação, acabara de encabeçar um pequeno projeto de software no National Center for Supercomputing Applications (NCSA), baseado na Universidade de Illinois, que desenvolveu o 74 primeiro browser para a web efetivamente funcional, também chamado Mosaic. Clark e Andreessen não demoraram a compreender o gigantesco potencial dos navegadores e decidiram formar uma parceria para sua comercialização. [...] Hoje nem prestamos atenção à tecnologia de navegação na web, mas na verdade essa foi uma das mais importantes invenções da História moderna. [...] Marc Andreessen não inventou a Internet, mas foi o individuo que mais contribuiu para trazê-la à vida e populariza-la (FRIEDMAN idem 2004 p. 72). Na verdade, a Internet já existia antes do surgimento do browser, porém, o acesso às informações dos computadores que compunham a rede exigida conhecimentos que somente os cientistas da computação das universidades e de institutos de pesquisas dominavam: No laboratório do NCSA, na Universidade de Illinois, Andreessen havia percebido que dispunha de PCs, estações de trabalho e a estrutura básica de rede para deslocar arquivos pela Internet, mas nada era muito interessante – porque não havia com o que navegar, nenhuma interface de usuário com que exibir o conteúdo dos sites dos outros na web. Assim ele e sua equipe desenvolveram o Mosaic, possibilitando a qualquer idiota, cientista, estudante ou velhinha visualizar os sites da web. [...] O Mosaic começou em 1993, com 12 usuários. O projeto foi financiado pela Nacional Science Foundation. [...] O primeiro navegador comercial da Netscape – que funcionava tanto em PC da IBM quanto no Macintosh, da Apple, ou nos computadores UNIX – foi lançado em dezembro de 1994 e, um ano depois, havia dominado por completo o mercado. Quem fosse da área de educação ou de organizações sem fins lucrativos tinha a possibilidade de baixá-lo de graça; pessoas físicas poderiam fazer uma avaliação gratuita com prazo ilimitado e comprá-lo em disco, caso o desejassem. Empresas podiam avaliar o software por noventa dias (FRIEDMAN ibidem). Ao perceber o sucesso da Netscape Communications, a empresa Microsoft Corporation desenvolveu seu browser Internet Explorer (IE) para operação exclusivamente em seu sistema operacional Windows, com o propósito de competir com a rival Netscape. Diante da resistência do mercado em utilizar o Internet Explorer (IE), a Microsoft adotou táticas de marketing que derrubaram as vendas do Netscape. Desde o lançamento do sistema operacional Windows 95 o Internet Explorer passou a ser instalado gratuitamente nos sistemas operacionais da Microsoft, com grande vantagem sobre o Netscape porque este, além de pago, tinha que ser instalado pelo usuário final no Windows. Quando a Netscape Communications percebeu que o 'empacotamento' do Internet Explorer no Windows estava provocando problemas recorreu à justiça e processou a Microsoft por práticas comerciais ilegais. Infelizmente, por não possuir outros produtos que pudessem sustentar a doação de seu browser, a Netscape não conseguiu se recuperar do golpe aplicado pela Microsoft e, como 75 última cartada abriu o código de seu software dando início ao projeto de free software chamado Mozilla. Mais tarde a Netscape foi comprada pela AOL/Time Warner que decidiu apoiar a construção do mais bem sucedido navegador distribuído com código aberto - o Mozilla Firefox. Assim foi deflagrada a guerra dos browsers, fato que trouxe à tona preocupações de alguns visionários com a importância do código aberto e dos limites acerca dos direitos autorais dos softwares proprietários. Neste contexto, a Netscape teve um bom motivo para tornar pública sua preocupação com a possibilidade de a Microsoft tentar substituir os protocolos abertos da web por protocolos fechados, proprietários, pois, de forma simplificada, podemos dizer que o software Internet Explorer passou a ser disponibilizado gratuitamente junto com as versões do Windows porque no final da década de 1990 a Microsoft se sentia incomodada com a forte presença da Netscape no emergente mercado da Internet. Preocupações com as consequências do fechamento de código de softwares não eram novas, e Joaquim Falcão (2005) nos relata como tal preocupação levou o pesquisador do Massachusetts Institute of Technology (MIT), Richard Stallman a criar uma estrutura formal e legal para proteger usuários da Internet desse tipo de atitude: Durante a maior parte dos anos 70, a computação permanecia tendo como regra a abertura do código. O fechamento era exceção, inclusive, mal vista por parte de programadores de maneira geral. Stallman trabalhava com uma rede de computadores que por sua vez era conectada a uma impressora. Um programa escrito pela equipe de programadores do MIT controlava a impressora, inclusive acusando quando havia um problema na impressão. Em 1984 o programa que controlava a impressora foi substituído por outro. Stallman solicitou então à empresa que havia fornecido o programa o código fonte do mesmo, para que ele pudesse ser aperfeiçoado às necessidades do laboratório. A empresa recusou-se a fornecê-lo. Stallman tomou a atitude da empresa como uma ofensa moral. Para ele, o conhecimento contido no programa que controlava a impressora era produto de um esforço coletivo e a supressão do mesmo deu início à reação. Em 1985 foi criada a Fundação do Software Livre (Free Software Foundation71), entidade com o objetivo de fomentar o desenvolvimento de software que permitisse à sociedade o acesso ao conhecimento nele incorporado, na forma de código fonte. Sendo uma regra da computação nos anos 70 preservar a abertura do código fonte, em 1974 a AT&T havia liberado a fonte do UNIX. Conforme explica Castells (ibidem), “liberou seu código fonte para universidades americanas, dando-lhes inclusive permissão para alterá-lo. Assim, esse sistema operacional foi por longo período de tempo a linguagem franca 71 www.fsf.org 76 da maioria dos departamentos de ciência da computação americanos, e os jovens estudantes tornaram-se ágeis peritos em sua manipulação.” Porém, em 1984, após seu desdobramento da AT&T, os Laboratórios Bell decidiram ingressar no ramo computacional e reivindicaram legalmente seus direitos de propriedade sobre o UNIX, fato que levou Stallman com um grupo de colaboradores a escrever um novo sistema inspirado no UNIX, mas não submetido ao copyright da Bell que passou “[...] a exercer controle sobre o UNIX, decidindo que o software não seria mais livre. [...] A resposta da Free Software Foundation foi ambiciosa. Uma vez que o UNIX não era mais livre, a ideia foi desenvolver um substituto ao UNIX que fosse definitivamente livre. Surgiu assim o projeto de criação do programa GNU, sigla que significa 'GNU is Not Unix' (GNU não é UNIX).” (FALCÃO 2005). Na realidade, a utilização do UNIX nessa época já havia se expandido bastante a partir de inúmeras versões criadas por diversos fabricantes de computadores para atender as necessidades de aplicações que demandavam máquinas mais poderosas que os microcomputadores PC, tais como workstations e minicomputadores. A criação de um UNIX específico para cada fabricante levou a uma excessiva pulverização em inúmeras versões com o correr dos anos. […] Algumas das versões foram desenvolvidas em universidades, que usavam o UNIX como laboratório de trabalho para a teoria dos sistemas operacionais. Outras versões foram desenvolvidas por fabricantes de computadores. Cada empresa aperfeiçoou o UNIX para seus próprios computadores, incompatibilizando, assim seu sistema operacional com todos os demais. Portanto, em vez de um sistema aberto único o UNIX virou uma coleção de sistemas operacionais competindo uns com os outros. As diferenças todas dificultavam a compatibilização do software e desencorajaram o desenvolvimento de software para UNIX por terceiro. Apenas umas poucas empresas de software podiam se dar ao luxo de desenvolver e testar aplicações para uma dezena de versões diferentes do UNIX (BILL GATES 1995, p. 83). Também ocorreram várias tentativas bem sucedidas de implantação do UNIX em PCs, dentre elas o Xenix72 da própria Microsoft e o Interactive UNIX73. Ocorre que todos os 72 O Xenix foi uma versão de UNIX que a Microsoft pretendia usar em microcomputadores. Para não licenciar o próprio UNIX da AT&T, eles deram a ele um nome original. A terminação -ix segue uma convenção usada por muitos outros sistemas operacionais similares ao Unix. A Microsoft comprou uma licença somente para o Unix Versão 7 da AT&T em 1979, e anunciou em 25 de Agosto de 1980 que ele seria disponível para o mercado de microcomputadores. A Santa Cruz Operation (SCO) adquiriu mais tarde os direitos exclusivos do XENIX e começou a distribuí-lo como SCO UNIX. http://pt.wikipedia.org/wiki/Xenix. 77 UNIX e seus similares eram pagos, mas, mesmo assim, eram utilizados pelas universidades americanas e européias, como já observara Gates. Esse cenário manteve-se até que Linus Torvalds deu origem ao projeto do sistema operacional Linux, a partir do mesmo princípio de compartilhamento de abertura do seu código através do recém criado ambiente colaborativo que a Internet possibilitou. Em 1991, pondo esse princípio em prática, Linus Torvalds, [...] desenvolveu um novo sistema operacional baseado no UNIX, chamado Linux, e o distribuiu gratuitamente pela Internet, pedindo aos usuários que o aperfeiçoassem e enviassem os resultados obtidos de volta para a Net. O resultado dessa iniciativa foi o desenvolvimento de um robusto sistema operacional Linux, constantemente aperfeiçoado pelo trabalho de milhares de hackers, especialistas em programação, e milhões de usuários, a tal ponto que o Linux é agora geralmente considerado um dos sistemas operacionais mais avançados do mundo, em particular para a computação baseada na Internet (CASTELLS 2003, p. 17). Em outras palavras, Linus Torvalds74 desenvolveu o componente que faltava para o sistema operacional GNU, o chamado kernel75. Assim, explica Falcão (ibidem), “o sistema operacional chamado GNU/Linux” ficou popularmente conhecido como Linux. “O instrumento para garantir que o GNU/Linux fosse mantido sempre aberto consistiu em um contrato jurídico, chamado de GNU GPL (GNU General Public License ou Licença Pública do GNU)”. Campos (2006) completa esta explicação ao lembrar que: Inicialmente, o kernel Linux foi desenvolvido como um hobby por Linus Torvalds com o objetivo de desenvolver seu próprio sistema operacional “Unix-like” que rodasse em processadores Intel 80386. Linus chegou a estudar o Mimix, um sistema similar de autoria do famoso acadêmico Andrew Tanenbaum, mas não ficou satisfeito com a arquitetura deste (que não era um software livre, inclusive) e resolveu criar o seu próprio sistema. 73 O Interactive UNIX System V/386 foi um porte do UNIX System V para processadores Intel X86 e liberado em 1985 pela empresa Interactive Systems Corporation (ISC). A ISC, empresa do grupo Eastman Kodak, foi adquirida pela Sun Microsystems em 1992. A Sun Microsystems suportou o produto até julho de 2006, 5 anos após sua retirada do mercado. http://en.wikipedia.org/wiki/INTERACTIVE_UNIX. 74 Linus Torvalds pertence à comunidade dos Finlandssvensk, um extrato da população representando 6% dos habitantes da Finlândia, que falam sueco. Ele estudou na Universidade de Helsinki. Vive atualmente em Santa Clara, na Califórnia, e trabalha no Open Source Development Lab (OSDL). http://wikimediafoundation.org/wiki/Home- GNU Free Documentation License. Acesso 26 de Agosto de 2008. 75 Kernel: a parte central e essencial de http://en.wikipedia.org/wiki/Kernel_%28computer_science%29. um sistema operacional. Cf. 78 O projeto Linux foi fundamental para popularização da tecnologia de software livre e contribuiu para o estabelecimento de um commons de desenvolvimento desse tipo através da Internet. Tornou-se um sério desafio à Microsoft e outras grandes empresas globais da área. Conforme relatou a revista Fortune, em 23 de janeiro de 2004, ' a disponibilização desse software simples, mas poderoso, que funciona nos onipresentes microprocessadores da Intel, coincidiu com o crescimento explosivo da Internet. O Linux não demorou a conquistar adeptos entre programadores e empresas do mundo inteiro (…). E a revolução vai muito além do pequeno Linux (…). Programas de praticamente todo tipo podem ser encontrados agora em código aberto o SourceForge.net, site que é um ponto de encontro de programadores, faz uma lista com assombrosos 86 mil programas em desenvolvimento em sua maioria são projetos menores, feitos por e para aficionados mas centenas deles possuem valor real. (…) Para quem detesta a ideia de desembolsar 350 dólares pelo Microsoft Office ou 600 dólares pelo Adobe Photoshop, o OpenOffice. Org e o GIMP são alternativas gratuitas e de qualidade surpreendentemente alta. ' Grande empresas como Google, E*Trade e Amazon, combinando componentes de servidor baseados em chips Intel e o sistema operacional Linux, lograram efetuar uma drástica redução de seus gastos com tecnologia e obter mais controle sobre seu software (FRIEDMAN, 2005 p 118-118). Na concepção de Manuel Castells (2003) “o sistema operacional Linux é ao mesmo tempo um kernel (ou núcleo) e um sistema operacional que roda sobre o núcleo.” Assim, a iniciativa de Torvalds em construí-lo utilizando como base a infraestrutura da Internet e envolvendo milhares de colaboradores que compartilham o paradigma libertário criou um novo modelo de desenvolvimento de software livre. 2.4. O MODELO DE DESENVOLVIMENTO DO SOFTWARE LIVRE As facilidades decorrentes da popularização da Internet e de acesso à informação têm favorecido a constante formação de comunidades virtuais e colaborativas de trabalho neste início do século XXI. Geralmente os membros destas comunidades promovem encontros entre pessoas dos mais diversos pontos do planeta no ciberespaço, e muitas destas pessoas estão envolvidas com o desenvolvimento de free software. Nem sempre os conceitos de free 79 softwares são compreendidos pelas pessoas interessadas em utilizá-los. Esse conceito costuma causar confusão especialmente entre brasileiros, pois a palavra inglesa free – que é utilizada com o significado de livre – é muitas vezes confundida com a palavra grátis. Como nos explica Taurion (2004, p. 17): O software livre é diferente das modalidades tradicionais de comercialização e distribuição de software, no sentido de que é também distribuído em formato fonte, portanto legível e passível de ser alterado e redistribuído pelos usuários. Além disso, seu autor outorga a todos direitos de usar, copiar, alterar e redistribuir o programa. De maneira geral são gratuitos quando copiados a partir de um site na web. Segundo Augusto Campos (2006)76, o software é livre quando sua distribuição segue critérios de licenciamento estabelecidos pela Free Software Foundation, ou seja: A forma usual de um software ser distribuído livremente é sendo acompanhado por uma licença de software livre (como a GPL ou a BSD), e com a disponibilização do seu código-fonte. Software livre é diferente de software de domínio público. O primeiro, quando utilizado em combinação com licenças típicas (como as licenças GPL e BSD77), garante os direitos autorais do programador/organização. O segundo caso acontece quando o autor do software renuncia à propriedade do programa (e todos os direitos associados) e este se torna bem comum. Outras denominações podem confundir free software com outros tipos de software, a exemplo dos Freeware e Shareware. Freeware é um tipo de programa que pode ser redistribuído. Os usuários de computadores não precisam pagar licenças para utilizá-los, pois são disponibilizados na Internet, mas este tipo de software não pode ser modificado. O código fonte do Freeware não é disponibilizado aos usuários. Os Shareware também são disponibilizados na Internet com permissão para que sejam redistribuídos – como os freeware – mas sua utilização implica pagamento de licença. Ou seja, embora os custos sejam menores 76 Augusto César Campos é o criador e editor do BR-Linux - 1996. Autor de diversas publicações técnicas na Linux Magazine (onde é colunista fixo), Revista do Linux, PC Master, Geek, Copyleft e outras, além de diversos jornais e websites da comunidade. Autor de O que é software livre. BR-Linux. Florianópolis, março de 2006. Disponível em http://br-linux.org/sobre/ http://www.linuxnewmedia.com.br/noticia/bons_artigos e http://brlinux.org/linux/faq-softwarelivre. Acesso em 15/06/2007. 77 Berkely Software Distribution ou Distribuição de Software de Berkeley. Licença inicialmente utilizada somente nos sistemas operacionais do tipo Berkeley Software Distribution – um sistema derivado do Unix. Apesar de ter sido criada para os sistemas BSD atualmente vários outros sistemas são distribuídos sob esta licença. O desenvolvedor de um sistema sob esta licença não tem nenhuma obrigação em disponibilizar seu código fonte, os créditos dos autores originais devem ser mantidos. 80 do que os cobrados por tradicionais indústrias de software, como a Microsoft, o desenvolvedor pode cobrar pelo software que desenvolveu. Pode ainda vendê-lo para uma empresa, mas esta não é obrigada a distribuí-lo. Geralmente o código fonte deste software também não é disponibilizado para os usuários, portanto, não é possível fazer modificações nos softwares shareware. Os softwares de domínio público ou sem direito autoral – sem copyright – também podem apresentar alguns tipos ou versões que não são livres. Embora o monopólio78 da indústria de software proprietário esteja concentrado na América do Norte, alguns projetos interessantes que contemplam o uso de software livre têm sido desenvolvidos por empresas de comunicação e entretenimento neste país, com o duplo objetivo de reduzir custos com pagamentos de licença e modificá-los para incluir inovações que permitam diferenciar suas produções das dos concorrentes. A DreamWorks79, empresa de Steven Spielberg é um exemplo: utilizou software livre na produção de dois famosos desenhos animados de longa metragem – Shrek e Madagascar. A empresa de Spielberg é conhecida no mundo todo como uma empresa que privilegia o emprego de tecnologia de software livre -S.L na produção de conteúdos comunicacionais de entretenimento para veiculação na televisão, cinema e Internet. No Brasil, com exceção das tentativas desenvolvidas pelo governo federal, ainda são poucos os projetos desenvolvidos por empresas ou entidades com software livre – S.L, especialmente projetos voltados à criação de produtos ou conteúdos para veiculação no rádio, televisão ou Internet. Para Sérgio Amadeu80 a tentativa de implantação preferencial do software livre nos projetos do governo federal não se justifica apenas pela redução de custos, sobretudo com pagamento de licenças, mas porque “O Brasil tem mais que o direito, tem a necessidade de utilizar tecnologias que permitam aumentar a sua autonomia tecnológica, a sua participação como ‘desenvolvedor’ de soluções na sociedade da informação”. Ainda que sejam poucos os projetos desenvolvidos por empresas ou entidades 78 Monopólio se refere a uma área de negócios ou serviços dominada por uma única empresa, no caso da indústria de software pela Microsoft. 79 Em 1994 Steven Spielberg, Jeffrey Katzenberg e David Geffen fundaram a DreamWorks SKG. Nathan Wilson, do Estúdio Cinematográfico DreamWorks (USA) e responsável pela produção dos filmes infantis, sucessos de bilheterias, Shrek I e II, Madagascar e Spirit esteve no Brasil, na Cidade de Curitiba, para participar da Conferência Latino-Americana de Software Livre nos dias 26 e 27 de Novembro de 2005. Disponível em: http://www.dreamworks.com (acesso em 04/03/2006). 80 Ex-diretor-presidente do Instituto Nacional de Tecnologia (ITI), e ex-chefe do programa de telecentros da atual administração municipal paulistana. Entrevista à revista Com Ciência - Revista Eletrônica de Jornalismo Científico - 10/06/04. Disponível em: http://www.comciencia.br/200406/entrevistas/entrevista1.htm. 81 brasileiras, algumas organizações já estão observando estas possibilidades. A Revista Exame81 divulgou interessante matéria que nos remete a está realidade. Intitulada “Como o software livre está ajudando as empresas brasileiras a cortar custos” a referida matéria deixou claro que o S.L foi utilizado por uma grande rede varejista do país com o objetivo de economizar despesas com o pagamento de licenças. A mesma reportagem citou ainda o emprego de S. L por uma empresa de telecomunicações e uma rede de fast food americanas com franquias no Brasil, que recorreram ao uso do software livre pelo mesmo motivo82. Outro exemplo interessante da adoção da tecnologia de código aberto é o projeto SetTop Box do Laboratório de Integração Software/Hardware da Universidade Federal de Santa Catarina83. O Set-Top Box digital é uma tecnologia necessária para a recepção de transmissões de TV Digital, pois a maioria dos televisores em uso não possui, ainda, um sintonizador específico para esta recepção. Esta tecnologia é também conhecida pelo nome de Integrated Receiver/Decoder - IRD - dispositivo eletrônico utilizado para recolher um sinal de rádiofrequência e decodificá-lo, convertê-lo, em informação digital. Conforme explica Marcos Fagundes Caetano (2002)84, um Set-Top Box é “[...] um dispositivo eletrônico o qual realiza interface com televisão disponibilizando serviços adicionais. […] Dispositivo de entretenimento interativo residencial que disponibiliza acesso a Internet, streaming de vídeo e informações via tradicional sistema de televisão […]”. A tecnologia Set-Top Box foi desenvolvida com software livre. Comunidades de Open Source como as envolvidas no projeto SetTopBox procuram adaptar os produtos desenvolvidos as reais necessidades dos projetos para assim obter melhor desempenho dos equipamentos e desenvolver novas soluções que podem ser melhoradas, adaptadas a realidade dos projetos, atividades impossíveis de serem realizadas sem acesso aos códigos fontes dos programas. Conforme nos explica Caetano (idem, ibidem) algumas 81 Revista Exame. Edição 857. Ano 39. No. 24 de 7 de dezembro de 2005. 82 Outros exemplos de economia com a adoção de software livre em outras empresas. Disponível em http://www.flogao.com.br/linuxbh/foto/12/36782947. 83 O Laboratório de Integração Software e Hardware - LISHA está em atividade desde 1985, e atua em projetos de pesquisa nas áreas de arquiteturas de computadores, sistemas operacionais e sistemas embarcados, tendo como principais focos de aplicação áreas de automação, telefonia e TV digital. Disponível em: http://www.lisha.ufsc.br/~caetano ou http://epos.lisha.ufsc.br/wpkg/stb.pdf ou http://www.lisha.ufsc.br. Acesso em 18/08/08. 84 Bacharel em Ciências da Computação pela Universidade Federal de Santa Catarina (2005). Analista de Sistemas / Administrador de Rede da Universidade de Brasília. http://buscatextual.cnpq.br/buscatextual/visualizacv.jsp?id=K4737497Z6. Acesso em 18/08/08. 82 comunidades envolvidas nos projetos de Set Top Box, são: i) Linux4.TV85 – Desenvolve aplicações e soluções baseadas na Tecnologia National Semiconductor, compatível com X86, em parceria com Century Embedded Technologies e VT Media Technologies; ii) Tv Linux Alliance86 – envolve vários grupos unidos com tecnologia de transmissão por satélite, cabo, sem fio que desenvolvem soluções para SetTopBox. iii) Linux Devices87 – Comunidade Linux dedicada a dar suporte via informação em sistemas embutidos. A comunicação pela rede entre membros de comunidades de desenvolvedores de software livre, a exemplo dos projetos Linux e Set Top Box, caracteriza um novo paradigma denominado por Eric Raymond, na obra The Cathedral and the Bazaar (1998), de bazar, pois é um paradigma diferente daquele praticado pela indústria tradicional: Eu fui um dos primeiros contribuintes para o projeto GNU nos meados de 1980. [...] Eu pensei que eu sabia como isso era feito. [...] Eu estava pregando o modo Unix de uso de pequenas ferramentas, de prototipagem rápida e de programação evolucionária por anos. Mas eu acreditei também que havia alguma complexidade crítica, acima da qual uma aproximação mais centralizada, mais a priori era requerida. Eu acreditava que os softwares mais importantes (sistemas operacionais e ferramentas realmente grandes como Emacs) necessitavam ser construídos como as catedrais, habilmente criados com cuidado por mágicos ou pequenos grupos de magos trabalhando em esplêndido isolamento, com nenhum beta para ser liberado antes de seu tempo. O estilo de Linus Torvalds de desenvolvimento - libere cedo e freqüentemente, delegue tudo que você possa, esteja aberto ao ponto da promiscuidade - veio como uma surpresa. Nenhuma catedral calma e respeitosa aqui - ao invés, a comunidade Linux pareceu assemelhar-se a um grande e barulhento bazar de diferentes agendas e aproximações (adequadamente simbolizada pelos repositórios do Linux, que aceitaria submissões de qualquer pessoa) de onde um sistema coerente e estável poderia aparentemente emergir somente por uma sucessão de milagres. O fato de que este estilo bazar pareceu funcionar, e funcionar bem, veio como um distinto choque. Conforme eu aprendia ao meu redor, trabalhei duramente não apenas em projetos individuais, mas também tentando compreender porque o mundo do Linux não somente não se dividiu em confusão, mas parecia aumentar a sua força a uma velocidade quase inacreditável para os construtores de catedrais. “De fato, eu penso”, continua Raymond (ibidem), “que a engenhosidade do Linus e a maior parte do que desenvolveu não foram a construção do kernel do Linux em si, mas sim a sua invenção do modelo de desenvolvimento do Linux. Linus mantinha os membros da 85 Disponível em www.linux4.tv Acesso em 10/10/07. 86 Disponível em www.tvlinuxalliance.org Acesso em 10/10/07. 87 Disponível em www.linuxdevices.com Acesso em 10/10/07. 83 comunidade, - usuários e desenvolvedores – continuamente estimulados e recompensados, estimulados pela perspectiva de estar tendo um pouco de ação satisfatória do ego, recompensados pela visão do constante (até mesmo diário) melhoramento do seu trabalho”. No desenvolvimento do Linux, único software operacional da atualidade capaz de competir com os softwares proprietários: Linus estava diretamente direcionado a maximizar o número de pessoas-hora dedicadas à depuração e ao desenvolvimento do kernel do Linux, mesmo com o possível custo da instabilidade no código e extinção da base de usuários se qualquer erro sério provasse ser intratável. Linus estava se comportando como se acreditasse em algo como isto: Dada uma base grande o suficiente de beta-testers e codesenvolvedores, praticamente todo problema será caracterizado rapidamente e a solução será óbvia para alguém. Ou, menos formalmente, ‘Dados olhos suficientes, todos os erros são triviais.’ Eu chamo isso de: ‘Lei de Linus’. Minha formulação original foi que todo problema 'será transparente para alguém'. Linus objetou que a pessoa que entende e conserta o problema não é necessariamente ou mesmo frequentemente a pessoa que primeiro o caracterizou. ‘Alguém acha o problema,’ ele diz, ‘e uma outra pessoa o entende. E eu deixo registrado que achar isto é o grande desafio.’ Mas o ponto é que ambas as coisas tendem a acontecer rapidamente. (RAYMOND 1998, p. 2). A resposta que deve ser dada às organizações que duvidam das possibilidades de se utilizar a plataforma de softwares livres em empresas, entidades escolares etc, a iniciar com o Linux, com receio de terem problemas com bugs que jamais serão solucionados ou levarão tempo demasiadamente longo para ser reparados é apresentada por Raymond (1998, p. 2) a seguir: Aqui, eu penso, é o centro da diferença fundamental entre os estilos bazar e catedral. Na visão catedral de programação, erros e problemas de desenvolvimento são difíceis, insidiosos, um fenômeno profundo. Leva meses de exame minucioso por poucas pessoas dedicadas para desenvolver confiança de que você se livrou de todos eles. Por conseguinte os longos intervalos de liberação, e o inevitável desapontamento quando as liberações por tanto tempo esperadas não são perfeitas. Na visão bazar, por outro lado, você assume que erros são geralmente fenômenos triviais – ou, pelo menos, eles se tornam triviais muito rapidamente quando expostos para centenas de ávidos codesenvolvedores triturando cada nova liberação. Consequentemente você libera frequentemente para ter mais correções, e como um benéfico efeito colateral você tem menos a perder se um erro ocasional aparece. E é isto. É o suficiente. Se a ‘Lei de Linus’ é falsa, então qualquer sistema tão complexo como o kernel do Linux, sendo programado por tantas mãos quantas programam o kernel do Linux, deveria a um certo ponto ter tido um colapso sob o peso de interações imprevisíveis e erros ‘profundos’ não descobertos. Se isto é verdade, por outro lado, é suficiente para 84 explicar a relativa falta de erros do Linux. E talvez isso não devesse ser uma surpresa, mesmo assim, anos atrás, sociologistas descobriram que a opinião média de uma massa de observadores especialistas (ou igualmente ignorantes) é um indicador mais seguro que o de um único observador escolhido aleatoriamente. Eles chamaram isso de o efeito 'Delphi88'. Parece que o que o Linus tem mostrado é que isto se aplica até mesmo para depurar um sistema operacional – que o efeito Delphi pode suavizar a complexidade do desenvolvimento até mesmo em nível de complexidade do kernel de um sistema operacional (RAYMOND 1998, p. 2). Enfim, além de se tornar um novo e revolucionário paradigma para desenvolvimento de tecnologias, o software livre criou uma nova estrutura social virtual composta por quatro culturas voltadas para o seu constante desenvolvimento e aperfeiçoamento tecnológico. Essas culturas que se comunicam pela Internet transcendem o conjunto de valores, crenças e preferências individuais que direcionaram os padrões de comportamento de seus criadores, conforme passaremos a expor. 2.5. MOVIMENTO PELO SOFTWARE LIVRE E AS CULTURAS DA INTERNET A iniciativa de Stallman ao criar a FSF marcou o início da era dos movimentos do Free Software. Tudo começou com a ideia de liberdade de acesso e compartilhamento de conhecimentos sobre o código fonte do Software GPL. O movimento pelo software livre é composto por um universo fascinante de voluntários interessados em desenvolver, popularizar e participar das comunidades para o software livre. Os membros deste movimento se posicionam de forma contrária à comercialização de softwares fornecidos exclusivamente com código-fechado ou executável. Para eles o importante é trocar ideias e as compartilhar com o público pela Internet. Conforme Sérgio Amadeu (2005) “O movimento de software livre é a maior expressão da imaginação dissidente de uma sociedade que busca mais do que a sua mercantilização. Trata-se de um movimento baseado no princípio do compartilhamento do 88 O Método Delphi é, originalmente, o primeiro método de comunicação mediada por computador desenvolvido para facilitar a comunicação estruturada entre grupos de especialistas que discutem assuntos ou problemas complexos e que têm por objetivo de chegar a um consenso. A primeira experiência em conferência por computador com Delphi foi realizada em 1970 e administrada pelo Escritório de Preparação de Emergência dos EUA. A conferência on-line aconteceu durante treze semanas e envolveu vários especialistas em diversos pontos dos Estados Unidos, que usaram terminais de computadores conectados à linha telefônica para participarem do exercício em Delphi (BATTEZZATI, 2003, p. 73-79). 85 conhecimento e na solidariedade praticada pela inteligência coletiva conectada na rede mundial de computadores.” Milhares de indivíduos contribuem colaborativamente para a ampliação dos movimentos de Software livre, observa Friedman (2005, p. 100). O “que eles querem o mercado não lhes pode proporcionar: o arrebatamento de se criar um produto coletivo capaz de bater os de gigantes como a Microsoft e a IBM e, sobretudo o respeito de seus pares intelectuais. Com efeito, esses caras representam uma das mais interessantes e polêmicas novas modalidades de colaboração [...]”. Essa é a característica básica do movimento de software livre, continua este pesquisador (ibidem). […] envolve milhares de pessoas de todo o mundo que se reúnem on-line para escrever de tudo juntos, desde seu próprio software e seus próprios sistemas operacionais até seus próprios dicionários e fórmulas de refrigerante. [...] A expressão código aberto traduz a intenção de empresa ou grupos específicos de disponibilizarem on-line o código fonte (isto é, as instruções e comandos que fazem funcionar determinado programa) e permitirem que todos os que tiverem alguma contribuição a dar o aprimorem e deixem que milhões de outros simplesmente baixem, de graça, para seu uso pessoal. Enquanto os programas comerciais são protegidos por direitos autorais e vendidos, e seus fabricantes mantêm seu código fonte guardado a sete chaves, a fim de poderem ver novas versões, os softwares de código aberto são compartilhados, submetidos ao constante aperfeiçoamento por parte dos usuários e disponibilizados gratuitamente para todos. Em troca, todo usuário que efetuar um aprimoramento – qualquer detalhe que faça os programas funcionarem melhor – deve liberar o acesso para os demais. A partir do contexto apresentado por Amadeu e Friedman, é importante compreender que o movimento pelo software livre não é apenas um movimento contrário ao monopólio da indústria do software proprietário, mas caracteriza-se como fundamento do novo paradigma de produção intelectual colaborativa, voltada para a geração de conhecimento. Uma geração que vislumbra novas possibilidades para que as pessoas possam se comunicar e criar novas ideias, novos códigos éticos de colaboração, novos costumes e novas ferramentas interativas de comunicação digital. O processo de produção colaborativa e de publicação aberta na rede é, conforme Castells (2003, p. 45), uma das maiores preocupações da comunidade Linux e do movimento pelo software livre. Neste contexto Richard Stallman “[...] considera a busca de excelência tecnológica secundária ao princípio fundamental do software gratuito, que, para ele, é um 86 componente essencial da liberdade de expressão na Era da Informação.” Portanto, é a partir da premissa de que a liberdade de expressão é a mola mestra para o surgimento e desenvolvimento de novas comunidades virtuais e, conseqüentemente, do software gratuito, que muitas pessoas se organizam em comunidades de desenvolvedores que têm por objetivo manter a luta pela liberdade da comunicação na Internet. Se os códigos dos softwares são abertos, eles podem ser alterados, seja pelo usuário informado, seja por uma firma de serviços ou uma organização sem fins lucrativos, ou uma rede de hackers, trabalhando para o bem comum da Era da Informação. O controle patenteado sobre códigos de software abre caminho para a restrição dos usos da informação e para o fim da privacidade na Internet. Num mundo de software de fonte aberta, a capacidade que têm o governo e as corporações de controlar a arquitetura fundamental das aplicações da Internet é vastamente reduzida (CASTELLS, 2003, p. 150). Como podemos pressupor a preocupação com a liberdade de comunicação na Internet não se restringe aos governantes ou corporações, é também constante entre os membros do movimento pelo software livre e das comunidades de desenvolvedores e usuários da tecnologia de código aberto. Pois a sociedade também é, de certa forma, responsável pela preservação da liberdade na rede uma vez que cada vez mais utiliza esse meio de comunicação por diversos motivos e interesses. Para Castells (2003 p. 150): O caminho que as sociedades tomarão certamente não depende do próprio código, mas da capacidade que têm as sociedades e suas instituições de impor o código, resistir a ele e modificá-lo. Na aurora do século XXI há uma inquietante combinação no mundo da Internet: ideologia libertária generalizada ao lado de uma prática cada vez mais controladora. Movimentos sociais em defesa da liberdade na Internet [...] são fontes essenciais para a preservação da Internet original como uma esfera de liberdade. Leis, tribunais, opinião pública, mídia, responsabilidade corporativa e agências políticas serão as áreas decisivas em que o futuro da Internet será moldado. Redes globais não podem ser controladas, mas pessoas usando-as podem, são e serão – a menos que as sociedades optem pela liberdade da Internet, agindo a partir das barricadas de seus libertários nostálgicos, e além delas. Em 18 de maio de 2004, na Declaração de Barcelona para o avanço do Software 87 Livre89 foi lançado e assinado por várias personalidades internacionais que discutem questões relacionadas com a sociedade do conhecimento e com o software livre, entre elas Manuel Castells, Vinton Cerf, Marcelo D'Elia Branco, Juantomás García, Jesús M. González Barahona, Pekka Himanen, Miguel de Icaza, Rafael Macau, Jordi Mas, David Megías, Òscar del Pozo, Pam Samuelson, um importante documento intitulado Os desafios para ampliação e consolidação do software livre. O referido documento deixa claro que a maior parte da infraestrutura da Internet baseia-se em software livre – protocolos abertos, portanto, a rede evolui a partir dos mesmos princípios de colaboração empregados por membros de comunidades que participaram colaborativamente do projeto batizado de ARPAnet atualmente praticados pelos membros do movimento pelo software livre. Alguns exemplos de projetos desenvolvidos colaborativamente por comunidades do movimento pelo software livre são mencionados no referido documento. O projeto Apache, por exemplo. Segundo documento, em 2004 mais de 60% dos servidores da Web já utilizam o Apache. O servidor Apache foi criado em 1994 por Rob McCool, funcionário do National Center for Supercomputing Applications – NCSA, e é a principal tecnologia da Apache Software Foundation, responsável por diversos projetos envolvendo tecnologias de transmissão via web, processamento de dados e execução de aplicativos distribuídos. Nas palavras de Taurion (2004, p. 43-44) “O mercado de servidores Web já pode ser considerado um mercado maduro e comoditizado. No segmento de sistemas Linux e Unix, o Apache é claramente o líder absoluto em número de instalações”. Continua o autor: [...] O Apache criou um ecossistema à sua volta, com inúmeras ferramentas, plug-ins e módulos que são disponibilizados de maneira crescente. O servidor Apache inicial rodava, sob Unix, o Web site da revista Wired. O NCSA distribuiu livremente o código fonte e um grupo de técnicos começou a trabalhar neste código para refiná-lo e no processo convidaram outros a contribuírem. Estas emendas ou 'patches' acabaram batizando o produto. Apache veio então de a 'patchy'. Atualmente, o seu desenvolvimento é gerenciado pela ASF – Apache Software Foudation. O modelo de licenciamento do Apache também é muito flexível. Permite modificações e redistribuição do código, sem necessidade de revelar mudanças efetuadas. Entretanto, esta versão não pode ser chamada de Apache. Mas permite que diversas empresas usem código Apache modificado em seus produtos, contemplando-os, e criando um verdadeiro ambiente colaborativo e de coexistência entre modelos proprietários e livres. 89 Editoria:Geral24/May/2004. Os desafios para ampliação e consolidação do software livre - Disponível em http://www.softwarelivre.org/news/2297. Acesso em 12/05/2006. 88 Friedman (2003, p. 99) faz interessante relato de como as empresas tomaram conhecimento sobre o software livre Apache. Foi na década de 1990, no auge do mercado ponto-com, e ele era um alto gerente da IBM, responsável pela supervisão dos emergentes empreendimentos de comércio eletrônico da empresa: ‘Eu tinha uma equipe inteira e um orçamento de 8 milhões de dólares sob meu comando’ – recorda. Era um páreo duro com Microsoft, Netscape, Oracle, Sun, todas as grandes. E as nossas apostas no comércio eletrônico não estavam para brincadeira. A IBM contava com uma força de vendas gigantesca para vender o seu software de e-commerce. Um dia, pedi ao meu diretor de desenvolvimento, Jeff, que me explicasse o processo de desenvolvimento desses sistemas de comércio eletrônico. Qual era o servidor web por trás de tudo? Apache, foi a resposta. A primeira imagem que me veio à cabeça foi a do John Wayne. Mas o que era esse tal de Apache? Era um shareware para tecnologia de servidores da web, disse-me Jeff, produzido de graça por um bando de fissurados por computadores que trabalhavam on-line nalguma espécie de sala de bate-papo sobre código-aberto. Fiquei boquiaberto. - Mas como se compra isso? - eu quis saber. - Você faz o download de graça de um site. - Mas quem faz a assistência técnica se alguma coisa der errado? - insisti. - E ele Sei lá, mas funciona! Foi meu primeiro contato com o Apache. Cohen Prossegue: Não esqueça de que, naquela época, Microsoft, IBM, Oracle, Netscape, todas estavam tentando construir servidores web comerciais. Eram corporações imensas – e de repente o meu diretor de desenvolvimento estava me dizendo que o nosso vinha da Internet, e de graça! Era como se todos aqueles executivos de grandes empresas estivessem lá armando as suas estratégias e, quando fossem ver, os caras responsáveis pela distribuição da correspondência houvessem assumido o controle. Fiquei obcecado: quem é que cuida do Apache? Quer dizer, quem são esses caras? Sim, os geeks da correspondência estão resolvendo que software vão usar – e o que eu e você vamos usar também. Para Castells (1996, p. 379) outras comunidades de desenvolvedores de softwares como o Apache contribuíram para a evolução e desenvolvimento da rede, que assim nutriu-se de seus próprios recursos para evoluir. O SendMail é outro interessante exemplo de trabalho colaborativo pelo software livre. Foi desenvolvido por Eric Paul Allman, um programador de computador que desenvolveu também seu precursor delivermail no final da década de 1970 e início da década de 80 na Universidade de Berkeley. O SendMail é um programa de computador ou um agente de software que transfere mensagens de correio eletrônico de um computador para outro. Conforme Taurion (2004, p. 48) “Hoje, embora ainda exista versão aberta, a empresa SendMail Inc., oferece versão comercial agregada com ferramentas adicionais de segurança e gerenciamento. A versão aberta é proposta pela SendMail para encorajar uma contínua evolução do produto, gerenciada pela organização não-lucrativa 89 SendMail Consortium.” Outro exemplo de comunidade colaborativa de software livre é o projeto Twiki90. Segundo Prado apud Barbosa Filho, Cosette Castro e Takashi Tome (org) (2005 p. 33) “Twiki é uma plataforma de colaboração empresarial flexível, baseada no wiki. Trata-se de uma plataforma estruturada, podendo ser usada para criar um espaço colaborativo de desenvolvimento de projetos, um sistema de gerenciamento de documentos, uma base de conhecimento (knowledge base) ou como uma ferramenta de groupware.” Um dos projetos com código aberto mais conhecidos em todas as partes do mundo é o projeto Wikipedia, criado por Jimmy Wales em 2001 e do qual participam membros produtivos e cooperativos da comunidade Wiki. A Wikipedia baseia-se no sistema wiki, do havaiano wiki-wiki, que significa rápido, veloz, célere. Friedman (2005, p. 112) explica que “Wikis são sites que permitem que seus usuários editem diretamente qualquer página na web do seu próprio computador”. Mantida pela fundação Wikimedia Foundation, sediada na Flórida – EUA, a Wikipedia é uma organização que congrega vários projetos em diversas línguas e sempre com conteúdo livre, entre eles: Wikipédia, Wikcionário, Wikiquote, Wikilivros, Wikisource, Wikimedia Commons, Wikispecies, Wikinews e Wikiversidade, além do software MediaWiki. Sua criação foi oficialmente anunciada pelo antigo presidente da Bomis companhia ponto-com fundada em 1996 para vender publicidade no portal de pesquisa Bomis.com.- e co-fundador da Wikipedia Jimbo Wales em 20 de Junho de 2003. Sérgio Amadeu (2007)91 observa que a Wikipedia é considerada atualmente a maior enciclopédia do mundo, e “[...] é resultado da produção social, da colaboração, dos commons. Um dos casos mais fascinantes de sucesso na web, o site YouTube, se baseia na colaboração dos seus usuários. Projetos como o seti@home, da Nasa, envolvem atualmente mais de 3 milhões de colaboradores voluntários. O movimento de licenciamento flexível de obras de arte, músicas, livros, denominado creative commons [...] já ultrapassou mais de um milhão de peças e espalhou-se por todos os continentes.” O exemplo da Wikipedia nos leva a pressupor que é impossível determinar com exatidão o número de participantes no movimento pelo software livre, bem como dos 90 91 Disponível em: http://twiki.org/ 12/12/2007. Commons, a revolução na produção simbólica. Sérgio Amadeu da Silveira - Observatório da Imprensa: www.cultura.gov.br/foruns_de_cultura/cultura_digital/na_midia/index.php=26056&more=1&c=1&pb=1. Acesso em 10/10/08. 90 membros das diversas comunidades que trabalham com e em prol do código aberto, uma vez que existem inúmeros projetos orientados para os mais diversos fins. “Há as distribuições voltadas para a segurança de redes, para a edição digital de áudio, para os computadores com baixa capacidade de processamento, traduções para línguas regionais e dialetos, assim como softwares que desempenham tarefas muito específicas, que não oferecem horizontes promissores de lucro.” (FRIEDMAN, 2005 idem). Embora existam polêmicas, a dinâmica de trabalho colaborativo das comunidades de software livre e dos membros do movimento estabelece-se a partir de relações horizontais entre produtores, desenvolvedores e usuários. Esta relação é, conforme explica Prado apud Barbosa Filho, Cosette e Takashi (org) (2005 p. 40 grifo nosso), diferente da relação tradicional de mercado entre produtor / consumidor ou provedor / cliente. “As últimas se constituem através de trocas comerciais, impessoais e indiretas, pois são mediadas pelo dinheiro e visam, de um lado, ao lucro e, de outro, ao consumo. Dentro da outra lógica, [...] as relações são constituídas mediante trocas diretas, muitas vezes pessoais, cuja mediação é a comunicação entre pessoas ou canais públicos de comunidades e cujo objetivo não é, somente, nem o consumo nem o lucro, mas o desenvolvimento de valores de uso voltados para os mais diversos fins.” Os autores (ibidem) explicam também que os níveis de colaboração, de relações e, sobretudo, o processo de troca direta de bens simbólicos sem mediação do dinheiro, que por vezes confunde as pessoas pode ser melhor entendido a partir do Ensaio sobre a Dádiva, do antropólogo Marcell Mauss92 (2003), que postula: “Nos sistemas de dádivas, as trocas estabelecem relações diretas entre pessoas e grupos, pois o princípio da dádiva é a reciprocidade.” Essa reciprocidade não é sinônimo de pagamento tal qual observamos nas trocas comerciais. Nestas, a retribuição por um bem ou serviço é estabelecida de maneira exata, é uma contrapartida necessária e racionalmente calculada. Nas trocas diretas entre produtores e usuários de software livre, assim como em um sistema de dádivas, a retribuição é de outra ordem. Um usuário pode retribuir o trabalho de um desenvolvedor com um simples obrigado. E esse gesto pode ser considerado gratificante por parte de quem o desenvolveu. Em resumo nos sistemas de dádivas o processo de retribuição entre produtores e 92 Sociólogo e antropólogo francês considerado o pai da etnologia francesa. Sobrinho de Émile Durkheim e autor de Ensaio sobre a Dadiva. São Paulo, Cosac & Naif, 2003. 91 usuários de software livre garante que outros softwares sejam publicados com o código fonte aberto, desse modo, este processo beneficia todos os interessados no uso desta tecnologia. Portanto, assim como no sistema de dádivas, diversos grupos estabelecem relações diretas pela Internet com a finalidade primeira de colaborar para o desenvolvimento, aperfeiçoamento e uso da tecnologia de software livre. Castells (2003 p. 34-37) apresenta a importância e as características destes grupos organizados em função de determinados valores que cultuam e que constituem uma nova cultura da Internet. A cultura da Internet é a cultura dos criadores da Internet. Por cultura entendo um conjunto de valores e crenças que formam o comportamento; padrões repetitivos de comportamento geram costumes que são repetidos por instituições, bem como por organizações sociais informais. Cultura é diferente de ideologia, psicologia ou representações individuais, ao mesmo tempo em que influencia as práticas das pessoas no seu âmbito, neste caso os produtores/usuários da Internet. […] A cultura da Internet caracteriza-se por uma estrutura em quatro camadas: a cultura tecnomeritocrática; a cultura hacker; a cultura comunitária virtual; a cultura empresarial. Juntas, elas contribuem para uma ideologia da liberdade que é amplamente disseminada no mundo da Internet. Essa ideologia, no entanto, não a cultura fundadora, porque não interage diretamente com o desenvolvimento do sistema tecnológico: a muitos usos para a liberdade. (CASTELLS idem, p 34). Fazem parte da cultura tecnomeritocrática cientistas e pesquisadores reconhecidos por seus méritos no campo da pesquisa e inovação tecnológica. O mérito é resultado de suas contribuições para o avanço de sistemas tecnológicos que proporcionam o bem para os seres humanos. “Trata-se de uma cultura da crença no bem inerente ao desenvolvimento científico e tecnológico como um elemento decisivo no progresso da humanidade”. Alguns valores da cultura tecnomeritocrática, apresentados por Castells (idem, p. 34-37), nos ajudam a compreender suas características. A descoberta tecnológica (sempre específica da programação de computador num ambiente de rede) é o valor supremo, para os membros desta cultura. A relevância e a posição relativa da descoberta dependem da contribuição para o campo como um todo, num contexto de objetivos de solução de problemas definidos pela comunidade dos cientistas/tecnólogos. [...] A relevância da descoberta é determinada pelo exame dos pares entre os membros da comunidade […]. A coordenação de tarefas e projetos é assegurada por figuras de autoridade que, ao mesmo tempo, controlam recursos (essencialmente máquinas) e gozam de respeito tecnológico e da confiança ética de seus pares [...]. Para ser respeitado pela comunidade, e, mais ainda, como figura de autoridade, os membros devem agir de acordo com normas formais e informais da comunidade e não usar recursos comuns (conhecimento) ou recursos delegados 92 (posições institucionais) para seu benefício exclusivo, além de partilhar bens como avanços das capacidades tecnológicas pelo aprendizado a partir dele. [...].A pedra angular de todo o processo é a comunicação aberta do software, bem como todos os aperfeiçoamentos resultantes da colaboração em rede […] Assim a Cultura da Internet enraizá-se na tradição acadêmica do exercício da ciência, da reputação por excelência acadêmica, do exame dos pares e da abertura com relação a todos os achados da pesquisa, com o devido crédito aos autores de cada descoberta. Fazem parte da cultura hackers pessoas com habilidade e competência para escrever programas de computador, motivadas, principalmente, pelo prazer da auto-realização. Estes peritos constituíram, originalmente, a massa de desenvolvedores de software livre, interagindo através da Internet. “Historicamente, a Internet foi produzida em círculos acadêmicos e em suas unidades de pesquisas auxiliares, tanto na culminância das cátedras como nas trincheiras de trabalho dos estudantes de pós-graduação, a partir de onde, os valores, os hábitos e o conhecimento se espalharam pela cultura hacker.” (CASTELLS 2003, p. 37). Embora os valores da cultura hacker sejam herança da cultura tecnomeritocrática, pois muitos destes hackers foram estudantes universitários que desenvolveram as atividades de programação sob a orientação dos membros desta cultura, às vezes o significado conceitual da palavra hacker é mal interpretado. Ainda existem pessoas que acreditam que os hackers são viciados em computador. Pessoas irresponsáveis e empenhadas em quebrar códigos para penetrar ilegalmente em determinados sistemas. Os indivíduos que assim se comportam são denominados de cracker e não hackers, e geralmente são mal vistos pela cultura hacker. Richard Stallman93 é considerado um dos ícones da cultura hacker, para ele “O uso do termo 'hacker' significando 'alguém que quebra segurança' é uma confusão por parte da mídia das massas. Nós hackers nos recusamos a reconhecer este significado, e continuamos utilizando a palavra significando alguém que ama programar e gosta de saber fazê-lo com esperteza”. Para Eric Raymond, também um dos ícones e mais destacados observadores e analistas/participantes da cultura hacker, citado por Castells (idem p.31), “hackers são aqueles que a cultura hacker reconhece como tais”, uma vez que a cultura dessa comunidade é compartilhada entre peritos em programação “e bruxos da interconexão cuja história remonta, através de décadas, aos primeiros minicomputadores de tempo compartilhado e aos primeiros 93 Endereço de site na Internet com depoimento de Richard Stallman sobre a Cultura Hackerhttp://gustgr.freeshell.org/thegnuproject.pt.html - Acesso em 20/07/2005. 93 experimentos da Arpanet”. Portanto, a cultura hacker deve ser reconhecida pelo conjunto de valores e crenças com as quais nasceu e “[...] a melhor maneira de compreender os valores específicos e a organização social da cultura hacker é considerar o processo de desenvolvimento do movimento da fonte aberta como extensão do movimento original do software gratuito” Para a cultura hacker, continua Castells (2003, p. 42). [...] a liberdade combina-se com cooperação através da prática da cultura do dom, que acaba por levar a uma economia do dom. Um hacker divulga sua contribuição para o desenvolvimento do software pela Net na expectativa de reciprocidade. A cultura do dom no mundo hacker distingue-se de outras análogas. Prestígio, reputação e estima social estão ligados à relevância da doação feita à comunidade. Assim, não se trata apenas de retribuição esperada pela generosidade, mas da satisfação imediata que o hacker tem ao exibir sua engenhosidade para todos. Além disso, há a gratificação envolvida no objeto ofertado. Ele não tem apenas valor de troca, tem também valor de uso. O reconhecimento vem não só do ato de doar, como da produção de um objeto de valor (software inovador). Em síntese, a cultura hacker tem um papel de relevante importância no contexto da Internet por duas razões citadas por Castells (idem, p. 37): primeira – pode-se sustentar que a Internet é o ambiente fomentador de inovações tecnológicas capitais, mediante a cooperação e a comunicação livre entre os hackers; segunda, esta cultura faz a ponte entre o conhecimento originado na cultura tecnomeritocrática e os produtos empresariais que difundem a Internet na sociedade em geral. A terceira cultura, comunitária virtual é formada por pessoas que ainda hoje conservam os padrões de comportamento das redes que antecederam a Internet. Para Castells (idem p. 46) são pessoas envolvidas nas redes da Usanet News94, na FIDONET95 e nos BBS96 e que desenvolveram e difundiram formas e usos na rede: envio de mensagens, listas de correspondências, salas de chat, jogos para múltiplos usuários [...] conferências e sistemas de conferências”. Geralmente são pessoas com alto grau de conhecimento tecnológico, como os pesquisadores da Arpanet e alguns hackers que utilizaram essas redes para trocar informações 94 Que participam de grupos de debate ou newsgroups sobre os mais diversos tipos de assuntos. 95 Rede de troca de mensagens entre BBS, fundada em 1984 por Tom Jennings, de São Francisco, Califórnia, EUA. Conhecida também como uma rede mundial que interliga PC's, que transfere um tipo próprio de correio eletrônico. 96 Sigla para Bulletin Board System ou Sistema eletrônico de quadro de mensagens. Sistema computacional que permite troca de informações entre usuários interessados em um assunto específico e que oferece recursos de bate-papo, correio eletrônico e troca de arquivos. 94 e assim criaram as primeiras listas de discussões. A partir da década de 1990, conforme milhares de pessoas passaram a fazer parte desta cultura, discutindo assuntos de diversos interesses pela rede, fomentando e intensificando o processo de comunicação e troca de conhecimentos colaborativamente entre humanos no ciberespaço. Redes comunitárias, como a criada em Seattle por Douglas Schuler ou a Cidade Digital de Amsterdã, renovaram e fomentaram a participação de cidadãos. Nos últimos anos da União Soviética, redes pioneiras de computadores, organizadas por acadêmicos de maneira independente, como a REALCOM, foram muito importantes na luta pela democracia e a liberdade de expressão nos momentos críticos da Perestroika. [...] enquanto a cultura hacker forneceu os fundamentos tecnológicos da Internet, a cultura comunitária moldou suas formas sociais, processos e usos. (CASTELLS 2003 p. 47). Geralmente a cultura comunitária virtual é composta por pessoas preocupadas com o compartilhamento de conhecimentos, inclusão digital e desenvolvimento social e tecnológico das nações. Pessoas que exibem on-line o comportamento típico da fase da vida que estão vivendo e que: [...] tendem a adaptar novas tecnologias para satisfazer seus interesses [...] e geralmente trabalham com base em duas características fundamentais comuns. A primeira é o valor da comunicação livre, horizontal. A prática das comunidades virtuais sintetiza a prática da livre expressão global, numa era dominada por conglomerados de mídia e burocracias governamentais censoras [...]. A segunda está relacionada com a [...] possibilidade dada a qualquer pessoa de encontrar sua própria destinação na Net, e, não a encontrando, de criar e divulgar sua própria informação, induzindo assim a formação de uma rede (CASTELLS, p. 48-49). A cultura empresarial, a quarta cultura, é formada por pessoas que possuem um conjunto de valores específicos e visão comercial capaz de transformar Know-how tecnológico em valor financeiro. De acordo com Castells (idem, p. 49 - 52) sem estas pessoas “não teria havido nenhuma nova economia, e a Internet teria se difundido num ritmo muito mais lento e com um elenco diferente de aplicações”. O fundamento da cultura empresarial é em primeiro lugar a cultura do dinheiro. “[...] Mas é também a cultura do trabalho, trabalho compulsivo incessante. [...] Os empresários da Internet são, ao mesmo tempo, artistas, profetas e ambiciosos, uma vez que escondem seu autismo social por trás de suas proezas tecnológicas”. 95 A partir da década de 1990, as firmas comerciais foram de extrema importância para o processo de expansão e popularização da Internet. A rede, por sua vez, também foi sendo moldada pelos interesses comerciais de diversos empresários que passaram vê-la como um veículo rápido e eficiente para a realização de negócios. Porém, observa Castells (idem p. 51), como os empresários “tiveram por base formas e processos inventados pela cultura comunitária, os hackers e as elites tecnológicas, o resultado real é que a Internet não é mais determinada pelos negócios que outros domínios da vida em nossas sociedades. Nem mais, nem menos também”. O desejo dos empresários em aumentar seus ganhos por meio de transações comerciais realizadas pela rede propiciou uma série de inovações para a Internet, pois a atividade empresarial, enquanto uma dimensão essencial da cultura da Internet, enfatiza Castells, cria dinheiro a partir de ideias, e mercadoria a partir de dinheiro, tornando tanto o capital quanto a produção dependentes do poder da mente. Neste contexto, da mesma forma que é possível vender muitas coisas pela Internet é possível também se comprar carros, casas, remédios e etc pela rede. Portanto, nessa nova arena tecnológica comercial os empresários não são apenas homens de negócios, mas criadores de novas formas transações que facilitam a vida de milhares de pessoas. Para Castells (idem ibidem) os empresários da rede “parecem estar mais próximos da cultura dos artistas, do que da cultura administrativa e corporativa tradicional”, pois a arte de utilizarem a Internet como um recurso comercial faz a tecnologia prosperar, e a cada dia novos softwares são criados para atender as diversas demandas das empresas da rede. Enfim, a contribuição dos empresários foi e continua sendo indispensável para alimentar a dinâmica cultural entre as múltiplas camadas geradas pela Internet. 96 CAPÍTULO III. O ENSINO DE COMUNICAÇÃO E A TECNOLOGIA DE SOFTWARE Em muitas escolas de comunicação os alunos ainda são conduzidos a um aprendizado reducionista e durante o curso, ou pelo menos até a metade dele, são convencidos a concentrarem-se somente nos conteúdos teóricos ignorando a importância das tecnologias, fator que leva muitos a abandonarem sua vocação inicial, se tornarem comunicadores profissionais. Neste recorte, completa Squirra (2007)97: [...] é possível afirmar que em muitas cabeças com forte influência na academia encontra-se arraigada a crença de que a tecnologia é para os seres ' menos sensíveis e mais frios', justamente aqueles profissionais 'desprovidos de preocupação filosóficohumanista-poética' ao encarar os dilemas do conhecimento. Alguns admitem claramente (outros nem tanto) que 'tecnologia é coisa para engenheiro, que só sabe construir pontes e fazer cálculos'. Outros olham enviesados para o pessoal que se graduou com 'um pé na profissão', tendo por isso, a compreensão tecnológica que lhes falta. Por isto, estes defendem, década após década, seus nichos de saber em trincheiras profundas e muito bem armadas. São linhas de defesa rigidamente teóricas e elaboradas por quem está 'fora' do campo. Embora a partir da definição das novas Diretrizes Curriculares o Ministério da Educação tenha regulamentado os cursos superiores de Comunicação Social de modo que, obrigatoriamente, o processo de ensino apresente equilíbrio entre as disciplinas teóricas ou de fundamentação humanística e as de caráter profissionalizante, em muitas entidades a atuação dos docentes continua a ser fundamentada estritamente por pressupostos de ensino humanístico, sem contemplar a realização de atividades práticas e necessárias para a inserção do estudante no campo profissional da comunicação social. No contexto específico dos cursos de Radialismo, o desenvolvimento de projetos que contemplem atividades práticas se torna um dos desafios mais árduos para as escolas de comunicação, pois exigem métodos que permitam o desenvolvimento de atividades dinâmicas, similares as que ocorrem no campo profissional, notadamente, no campo dos 97 A tecnologia, a sociedade do conhecimento e os comunicadores (mimeo), 2007. 97 especialistas em audiovisual. Para Winck98 apud Kunsch99 (2007 p. 175-182 grifo nosso): É grande o conjunto de desafio para a formação de especialista em audiovisual. Um deles é o de conseguir fixar, nas cidades fora do eixo de produção Industrial, uma equipe de professores, pesquisadores, produtores de televisão e técnicos instrutores que, além de suas atividades docentes e laboratoriais, colaborassem na programação das tevês locais e regionais. As universidades fora do “eixo” (Rio e São Paulo) encontram dificuldades para atrair um número suficiente de professores qualificados nos centros acadêmicos do país. Entretanto, convém lembrar que o produtor de audiovisuais não lida apenas com objetos de cultura, mas, sobretudo, com os sujeitos do conhecimento. Portanto, sua atividade profissional é essencialmente mais política do que econômica. Antes de ser estética ou lúdica, sua atuação visa a uma ética social. O maior desafio, nessa direção, é manter atualizados os métodos e estratégias de produção audiovisual, sempre em constante sofisticação tecnológica e artística, por meio da cooperação de instituições nacionais e estrangeiras, principalmente no campo da ciência e tecnologia do audiovisual, bem como para o funcionamento de laboratórios, equipamentos e bibliotecas. Dando seqüência ao raciocínio de Winck, pressupomos que a atualização dos métodos de ensino parece mais complexa ainda se levarmos em consideração uma aparente falta de professores qualificados ou aptos para desenvolver técnicas adequadas de ensino para uso de inovadores aparatos tecnológicos, notadamente softwares, portanto, “a carência generalizada de recursos humanos e tecnológicos impede tanto a formação profissional adequada quanto a crítica experimental, que alude ao fazer comunicação propriamente dita”. Outro problema citado por Winck e que pode prejudicar a formação de profissionais capazes de realizar as atividades demandadas pela indústria brasileira de comunicação, em especial pelo mercado de rádio e televisão, está relacionado aos altos custos financeiros de determinadas tecnologias. Problema que afeta várias universidades e que as impede de “acompanhar o ritmo frenético do mercado de trabalho [...].” Se por um lado algumas entidades ainda são obrigadas a desenvolver estratégias de ensino que destacam apenas atividades teóricas em decorrência dos problemas acima citados, por outro, não podem ignorar o uso de novas tecnologias pela indústria brasileira de comunicação, notadamente a indústria da televisão. Logo, não podem minimizar a relevância 98 João Baptista Winck é radialista. Doutor em Comunicação e Semiótica. Mestre em Educação e professor da Universidade Estadual Paulista em Bauru. 99 Margarida Kunsch é graduada em comunicação social, com habilitação em relações públicas. Mestre, doutora e livre-docência na ECA-USP. http://sistemas.usp.br/atena/atncurriculolattesmostrar?codpes=51860 98 de aproximar os estudantes dos novos aparatos tecnológicos necessários para o desenvolvimento de atividades profissionais diversificadas, notadamente que demandam o uso de softwares, pois, conforme explica Marques de Melo (2008, p. 13): [...] A indústria brasileira de televisão caracterizou-se inicialmente (anos 50-60) como importadora de programas estrangeiros, sobretudo norte-americanos, mas foi pouco a pouco reduzindo a dependência externa e, nas últimas décadas do século XX, passou à condição de exportadora. A empresa líder do setor – Rede Globo – exporta regularmente telenovelas, musicais e programas esportivos para mais de uma centena de países. Recentemente, outras empresas ingressaram no mercado audiovisual, inclusive a Record, cujas telenovelas começam a fazer sucesso nos vizinhos países latino-americanos. Os cenários descritos por Winck e Marques de Melo nos remetem às observações de Valverde apud Kunch (2007, p. 192)100 para quem “[...] as novas oportunidades profissionais que surgem na área de Radialismo (RTV) estão cada vez mais associadas à capacidade que os estudantes têm para criar mensagens para entretenimento; para dominar as tecnologias e técnicas de produção de mensagens – roteirização, produção, captação, direção, edição de áudio e vídeo e etc; e para desenvolver atividades de apresentação ou locução em programas de rádio e televisão.” Integrado por 3.668 emissoras comerciais, sendo 1.681 AM e 1.987 FM, o segmento radiofônico cresceu sob o signo da regionalização, mas ultimamente vem sendo nacionalizado através de redes conectadas via satélite, cujas emissoras lideres estão localizadas nas duas metrópoles nacionais (São Paulo e Rio de Janeiro). Em contrapartida, tem crescido o universo das rádios comunitárias. São emissoras de pequeno alcance, cuja maioria funciona clandestinamente, sob o comando dos movimentos sociais. Não existindo estatísticas confiáveis, calcula-se que correspondam ao triplo das emissoras autorizadas pelo governo. Tramitam no Ministério das Comunicações mais de 10 mil pedidos de legalização de rádios comunitárias; mesmo assim essa cifra não é suficiente para cobrir as demandas de todos os municípios brasileiros. (MARQUES DE MELO, 2008, p. 13). 100 Artigo intitulado: Editoração Multimídia: Uma Diretriz para Projeto Pedagógico de Curso Superior. Kunsch. Margarida (org.) Ensino de Comunicação: Qualidade na Formação Acadêmico-Profissional. São Paulo: ECAUSP: Intercom, 2007. 99 Levando em conta que tanto o segmento radiofônico como o televisivo está em franco crescimento no Brasil. Que oportunidades de trabalhos em emissoras de rádio ou televisão ou em quaisquer entidades cujas atividades principais sejam a criação, produção, desenvolvimento e interpretação de materiais audiovisuais também estão em crescimento, os cursos de comunicação, notadamente os cursos de Radialismo, devem em conformidade ao Parecer no. 492/2001 do CNE/CES – que instituiu as Novas Diretrizes Curriculares Nacionais para a Comunicação Social – preparar os estudantes para o uso competente de novos softwares, pois esta tecnologia é, na atualidade, um dos principais recursos necessários para a criação de produtos para RTV – para edição de áudio e vídeo, captação e tratamento de imagens e de sons, por exemplo. O crescimento da tecnologia de software nas últimas décadas do século XX, especialmente nos processos de produções audiovisuais, está relacionado, conforme ressalta Winck apud Kunsch (idem p.175-182) “com o acelerado avanço da informatização dos processos produtivos e a migração dos sistemas analógicos para o sistema digital”. Nesse contexto continua o pesquisador, “[...] A mais imprevisível destas transformações tem sido, sem dúvida, a tendência de unificação dos modos de produção da informação nos meios de comunicação, no chamado fenômeno da hipermídia, que permite acesso simultâneo a textos, imagens e sons.” Esta ‘unificação’ dos modos de produção parece ser cada vez mais intensa porque a indústria da informática tem desenvolvido softwares cada vez mais especializados para acesso simultâneo de textos, imagens e sons. Sem ignorar a importância e a qualidade das atividades de ensino com uso de tecnologia nas várias faculdades de comunicação do país, duas entidades que ofertam cursos de Radialismo foram selecionadas como objeto de estudo desta tese porque ilustram de forma interessante o constante uso de software nos processos de criação de produtos para rádio e televisão. Nas duas entidades pesquisadas o uso da tecnologia de software está em acordo com as proposições definidas pelas Diretrizes Curriculares para a área da Comunicação Social, pois tanto na UMESP como na ESEEI a formação do profissional habilitado em Radialismo (RTV) contempla o desenvolvimento de conhecimentos – teóricos, técnicos e práticos – para a criação de mensagens e produtos para veiculação através do rádio e televisão. 100 3.1. UMESP – UNIVERSIDADE METODISTA DE SÃO PAULO A Faculdade de Teologia da Igreja Metodista foi implantada na cidade de São Bernardo do Campo no ano de 1938. Em 1970, na mesma cidade, nasceu o Instituto Metodista de Ensino Superior – IMS. Vinte e sete anos mais tarde, em 1997, nasceu a Universidade Metodista de São Paulo – UMESP. Uma instituição que se destaca no cenário nacional por sua longa tradição em formar profissionais críticos, responsáveis e preparados para uma atuação competente nas várias profissões da nova sociedade da informação. De acordo com o histórico da UMESP101: O compromisso com a educação tem marcado a atuação da Igreja Metodista desde a fundação da primeira instituição de ensino metodista, a Kingswood School, na Inglaterra, em 1748. Ao longo dos últimos 255 anos, esta vocação educacional também tem se manifestado no Brasil, onde várias instituições metodistas de ensino incorporam mais de um século de atividade contínua. A história da Universidade Metodista de São Paulo vem sendo traçada há mais de 70 anos desde a implantação da Faculdade de Teologia da Igreja Metodista em São Bernardo do Campo, em 1938. Ao estudar a história da Universidade Metodista observamos, em linhas gerais, que seu compromisso com a educação brasileira considera a educação formal um processo social, amplo e contínuo que abre aos estudantes condições para que construam novos conhecimentos por intermédio de experiências vividas, individual e coletivamente, dentro e fora do ambiente escolar. Nesse contexto, os conhecimentos e as atividades práticas buscam preparar os cidadãos para uma atuação responsável e competente no mundo do trabalho. Com a consolidação do projeto pedagógico e a excelência alcançada ao longo dos anos, o IMS passou a figurar entre as mais conceituadas Instituições de Ensino Superior do país. Isso permitiu que, em 1997, conquistasse o status de Universidade, ampliando o número de faculdades e cursos oferecidos. Hoje, a Metodista possui três Campi em São Bernardo do Campo (Rudge Ramos, Vergueiro, Planalto) e um Campus em São Paulo, no Ipiranga. São mais de 117 mil metros quadrados de área total, que inclui uma ampla área verde. A Metodista oferece cerca de 70 espaços, entre laboratórios, agências experimentais e clínicas modernas, para que os alunos possam colocar em prática os conhecimentos adquiridos em salas de aula, além de bibliotecas e anfiteatros espalhados pelos quatro Campi da Universidade. 101 Disponível em: http://www.metodista.br/sobre-a-metodista/historia Acesso em 12/08/2008. 101 Como pode ser constatado no portal da entidade, a Metodista oferece um significativo número de diferentes cursos. Entretanto, como este estudo analisa em profundidade apenas o curso de Radialismo da FACOM – Faculdade de Comunicação e Multimídia, descrito em detalhes na seção 3.1.1 deste capítulo, algumas informações gerais sobre a instituição e os outros cursos não são aqui apresentadas, mas podem ser consultadas no portal da UMESP. Além da sua dedicação à educação formal, a UMESP tem a preocupação em oferecer para a sua comunidade de estudantes, familiares e moradores do grande ABC Paulista alguns serviços relacionados à saúde, esporte, lazer. Serviços de saúde para a comunidade interna (alunos e funcionários) e externa (população em geral) são realizados em clínicas especiais, como: clínica-escola de fonoaudiologia; clínica-escola de nutrição; clínicas de odontologia; clínica-escola de psicologia. A instituição ainda realiza atendimentos no hospital veterinário e no labmesp – laboratório de análises clinicas. O Instituto Metodista também desenvolve variados projetos sociais, como o Projeto Vida – cujo objetivo é oferecer melhor qualidade de vida para pessoas portadoras de deficiências por meio da prática de esportes. Para atender os cursos da área da Comunicação Social, a Universidade Metodista abriga agências que abrem oportunidades para o desenvolvimento de diversas atividades acadêmicas: a Agência de Fomento a Convênios de Aplicação Tecnológica; a Agência de Jornalismo; Agência de Relações Públicas102 e Agência de Comunicação Multimídia AgComMM103 da FACOM104. A Agência de Fomento a Cursos de Aplicação Tecnológica – FoCAT105 é subordinada à FACET e foi implantada em outubro de 2006 com o objetivo de contribuir para a concretização das perspectivas inovadoras que a Metodista pretende para a área de Tecnologia 102 http://www.metodista.br/comunidade/comunidade/agencias 103 Disponível em: http://www.metodista.br/rtv/infra-estrutura/agencia-de-comunicacao-multimidia Acesso 12/01/09. 104 No período de desenvolvimento desta pesquisa esta agência não era mencionada na home page do site da UMESP, somente as 3 primeiras. Para saber mais sobre a Agência de Comunicação Multimídia é necessário acessar:http://www.metodista.br/bkp/rtv/agencia-de-comunicacao-multimidia/agencia-de-comunicacaomultimidia/?searchterm=agencia%20de%20RTV. Acesso em 12/01/2009 105 No link Histórico há uma lista de palestras proferidas no contexto dos trabalhos realizados pela FoCAT, como a palestra de Fábio Martinho Campos, especialista em Testes de SI/Softwares, da empresa HOLD T, intitulada “A Importância do Teste de Software no Mercado Atual” por exemplo, proferida às 18:15 do dia 27/10/2006 no Auditório do Sigma. Embora os títulos sejam bastante interessantes o site não disponibiliza conteúdos digitais sobre os assuntos aos internautas.http://www.metodista.br/focat/cursos-dafacet/agenda/historico/ 102 da Informação. Suas atividades estão voltadas para uma ação significativa na preparação complementar de profissionais e no estreitamento dos interesses entre universidade, empresa e comunidade. A Agência Experimental de Jornalismo – AgenciaJor funciona desde o ano de 2000 e foi premiada três vezes como a melhor Agência Experimental de Jornalismo do país na Expocom - Exposição de Trabalhos Experimentais de Comunicação106. “A AgênciaJor teve projetos premiados, como o Jornal da Metodista (telejornal), o Rudge Ramos Jornal, o Mural da Metodista, além de vários TCCs de alunos, que também obtiveram reconhecimento. Os 15 produtos da AgênciaJor estão distribuídos em quatro núcleos: Impresso, Jornalismo On-line, Jornalismo Eletrônico e Jornalismo Social.” Os alunos do curso de Radialismo participam de alguns projetos desenvolvidos em parceria pelas AgenciaJor e AgComMM - Agência de Comunicação Multimídia da FACOM. Conforme informações apresentadas no portal da UMESP, a agência experimental de Relações Públicas é uma das mais dinâmicas e atua através do Núcleo de Eventos; Núcleo de Pesquisa; Núcleo de Produtos; Rede de Relacionamentos. Em 2008 o curso recebeu o grau de 5 estrelas do Guia do Estudante Editora Abril. Outra agência, a de Comunicação & Marketing, está organizada da seguinte forma: Atendimento, Tráfego, Planejamento, Pesquisa Mercadológica, Redação, Ilustração, Produção Gráfica, Web, Exibitécnica e Eventos. Essas áreas possuem estagiários, ou seja, alunos que, cursando qualquer um dos oito semestres dos cursos de Comunicação Mercadológica ou Publicidade e Propaganda, podem, espontaneamente, participar das unidades, desenvolvendo atividades relacionadas com as áreas afins de cada unidade. Com cerca de mil alunos matriculados no ano de 2008, a Faculdade de Comunicação e Multimídia – FACOM107 também tem uma importante agência - AgComMM - Agência de Comunicação Multimídia que “[...] tem como principal objetivo possibilitar aos alunos que 106 1º lugar na 14ª edição, realizada em Santos - 2007; Menção honrosa na 13º edição realizada em Brasília 2006; 3º lugar na 12ª edição realizada no Rio de Janeiro - 2005; 1º lugar na 11ª edição, realizada em Porto Alegre - 2004; 1º lugar na 10ª edição realizada em Belo Horizonte - 2003; 2º lugar na 9ª edição, realizada em Salvador - 2002; 1º lugar na 8ª edição, realizada em Campo Grande - 2001. Disponível em: http://www.metodista.br/agenciajor/agencia. 107 Criada em 1999 e até o ano de 2008 coordenada pelo professor Dr. Sebastião Squirra – abriga os cursos de Bacharelado no campus de Rudge Ramos: Cinema Digital; Comunicação Mercadológica; Jornalismo; Mídias Digitais; Publicidade e Propaganda; Radialismo (Rádio e TV); Relações Públicas. Graduação Tecnológica – Gestão de Turismo presencial e Gestão de Turismo Educação na modalidade Educação a Distância. Na área da pós-graduação os cursos do POSCOM. 103 nela estagiam uma vivência das rotinas de produção audiovisual e televisiva e para novas mídias [...].” Com o apoio de técnicos, profissionais da área e estagiários remunerados e voluntários, professores e alunos realizam atividades preconizadas nos planos de aula, bem como atendem à demanda de outras instâncias científicas e administrativas da universidade e da comunidade. Alguns projetos desenvolvidos pela Agência de Comunicação Multimídia são: Projeto de desenvolvimento de linguagem e operação técnica para transmissão ao vivo de tele-aulas da Pró-reitoria de educação a Distância; Projeto de produção e promoção de shows musicais e programas para a Rádio Metodista e TV local; Produção do programa de TV “Trocando ideias”, com entrevistas e debates, exibido pela TV Comunitária de São Paulo e TV Justiça, em rede nacional; Projeto de treinamento e de desenvolvimento de produtos em áudio, vídeo e multimídia, destinados a professores e funcionários de outras faculdades e departamentos da Metodista; Projeto de produção de vídeos institucionais e de treinamento para a Instituição etc. As atividades desenvolvidas por esta agência são amplas e abrem novas oportunidades para os alunos realizarem na prática trabalhos de produção de áudio, vídeo, planejamento, gravação etc que fortalecem o aprendizado tanto para atuação na área técnica como para o aprimoramento de trabalhos voltados ao desenvolvimento de roteiros e projetos audiovisuais. Ainda no campo da comunicação social, a UMESP oferta cursos de pós-graduação e sedia a Cátedra Unesco de Comunicação para o Desenvolvimento Regional. O Programa de Pós-Graduação em Comunicação Social – POSCOM108, que abriga também o Grupo de Pesquisa sobre Tecnologia e Comunicação – ComTec, iniciou suas atividades em 1978, com a implantação do Mestrado, tendo incorporado o Doutorado em 1995. Seu principal objetivo é formar docentes, pesquisadores e profissionais altamente qualificados para atuar em empresas, públicas ou privadas, instituições de ensino superior e organizações não governamentais (ONGs). Em 30 anos de trabalho ininterrupto, com mais de 519 dissertações e 85 teses defendidas, o curso alcançou reconhecimento no Brasil e no exterior. Atentíssimo às orientações federais e sensível às transformações sociais, o Programa vem se adaptando aos padrões de C&T nacionais e, sintonizado com as demandas da emergente Sociedade da Informação, vem se alinhando com os princípios da produção científica destacada correspondendo ao binômio globalização/regionalização. Modernas instalações didáticas, infraestrutura tecnológica e 80% dos docentes em 108 Outras informações sobre o POSCOM podem ser obtidas através do site http://www.metodista.br/poscom 104 regime de tempo integral traduzem o compromisso da Metodista no atendimento de um corpo discente motivado e dinâmico109. A partir da autorização concedida por meio da Resolução Consun110 nº 15/2004 a UMESP passou a oferecer aos estudantes com pós-graduação stricto sensu em nível de doutorado Estágio de Aperfeiçoamento, desenvolvido através de projeto de atividades de pesquisa e realizado com o acompanhamento, em comum acordo, de um professor doutor. “Em virtude do crescimento dos programas de pós-graduação stricto sensu criou uma nova estrutura física para alocar os programas de pós-graduação em Administração, Ciências da Religião e Comunicação Social, que começou a funcionar em Janeiro de 2002.” A Cátedra Unesco de Comunicação para o Desenvolvimento Regional foi criada em outubro de 1994 e tem como diretor titular o professor Dr. José Marques de Melo: [...] o ponto culminante para a decisão das autoridades da Unesco em relação à opção da Metodista para sediar a cátedra brasileira ocorreu, do meu ponto de vista, em junho de 1995. Refiro-me à realização do Seminário Internacional sobre Comunicação e Identidades Culturais na América Latina, que o IMS promoveu em parceria com a Fundação de Amparo à Pesquisa do Estado de São Paulo (Fapesp) e a Secretária de Cultura da Prefeitura Municipal de São Paulo (SMC-SP), para celebrar os cinquenta anos de criação da Unesco e os vinte e cinco de fundação do IMS. Esta foi a oportunidade encontrada para reunir em nosso campus uma equipe de representantes da Unesco, dialogando com os mesmos sobre os rumos e as diretrizes da futura cátedra de comunicação. [...] decidiu-se de comum acordo entre a Unesco e o IMS, estabelecer a data de 21 de maio de 1996 para realização da sessão solene de instalação da cátedra, divulgando publicamente suas metas e diretrizes acadêmicas. (MARQUES DE MELO)111. 109 Disponível em://www.metodista.br/poscom/informacoes-gerais/sobre-o-programa Acesso 10/10/08. 110 O Conselho Universitário (CONSUN), órgão colegiado superior, deliberativo, normativo e de recurso, é presidido pelo reitor. As matérias submetidas à apreciação do CONSUN são avaliadas por meio de Câmaras Permanentes que auxiliam o plenário em suas decisões, mediante pareceres. São três as Câmaras Permanentes: Câmara de Legislação, Normas e Recursos; Câmara de Administração e Finanças; Câmara de Assuntos Acadêmicos e Didático-Pedagógicos. Todo conselheiro, à exceção do presidente, deverá fazer parte de uma Câmara Permanente, não podendo integrar, por sua vez, mais de uma delas (art. 5º do Regimento do CONSUN). Pode constituir comissões para assessorar as Câmaras Permanentes com estudos e pareceres no tocante ao ensino, pesquisa e extensão, que são compostas com membros do corpo docente ou técnico-administrativos externos ao CONSUN. São quatro as Comissões Assessoras: Graduação e Seqüenciais; Pós-Graduação; Pesquisa e Extensão; Política de Pessoal Docente. As decisões do CONSUN são formalizadas por resoluções subscritas pelo seu presidente. Disponível em:http://www.metodista.br/consun/camaras-permanentes.pdf/sobre-o-consun. Acesso 12/10/08. 111 Disponível em: http://www2.metodista.br/unesco/catedra.htm 105 A UMESP tem um ambiente especial de intranet112 denominado Portal do Aluno/ Docente que possibilita à comunidade acesso a informações acadêmicas. Todos os serviços são gerenciados pelo sistema informatizado SIGA113 – Sistema Integrado de Gestão de Aprendizagem. Outras informações interessantes sobre o gerenciamento da UMESP podem ser obtidas no portal da universidade. 3.1.1. O Curso de Radialismo da UMESP Apesar da rapidez dos avanços tecnológicos na área da comunicação o PPC do curso de Radialismo (RTV) da UMESP114 - coordenado pelo professor Antonio de Andrade115“assume com clareza o princípio de que a tecnologia por si só não pressupõe mudança social e jamais poderá substituir o diálogo pessoal e o contato direto entre discente e docente.” Se por um lado a tecnologia por si só não pressupõe mudança social, por outro pode ser considerada um instrumento de fundamental importância para capacitar o alunado do curso de Radialismo “no sentido de entendê-las e utilizá-las da melhor maneira e socialmente desejável116”. A preocupação com os processos de transmissão de conhecimento e aprendizado é antiga nas escolas de comunicação do país, como já foi dito anteriormente nesta tese. Nesse contexto, a partir de 2009 começou a ser implementado um novo Projeto Pedagógico para o curso de Radialismo da UMESP, este projeto tem por base módulos de conteúdos ou de aprendizagem que agregam temas a serem trabalhados de forma interdisciplinar. Conforme 112 Uma intranet é uma rede de dados interna (de uma empresa, por exemplo,) que liga vários sites mediante protocolos normalizados de Internet. Sistema implantado no ano de 2006 e que possibilita que os alunos se matriculem em uma, duas, três, quatro ou cinco disciplinas e personalizem sua grade curricular, pois os estudantes podem cursar disciplinas de outros cursos ou habilitações em substituição ás disciplinas optativas do seu curso ou habilitação, conforme seu interesse pessoal ou profissional. 113 Quando acessar o sistema o usuário recebe, entre outras, as seguintes orientação: Para acessar o SIGA 2.0 pela primeira vez, é preciso atualizar sua senha no Portal do Aluno/Docente- clique aqui - Confira os tutoriais – o Manual (pdf) - http://www.metodista.br/siga-2.0 114 Reconhecido pelo MEC - Portaria nº 1.211/93 de 20/8/93. 115 Coordenador do Curso de Rádio e Televisão. Possui mestrado em Comunicação Social pela UMESP (1982), atua como professor adjunto e desenvolve atividades profissionais nos cursos de RTV e Mídias Digitais da Faculdade de Comunicação Multimídia da mencionada Universidade. Disponível em: http://www.metodista.br/rtv/noticias/rtv/módulos Acesso em 24/01/09. 116 Disponível em:http://www.metodista.br/rtv/rtv/curso - Acesso em 24/01/09. 106 descrito no portal da universidade e questionário117 respondido pelo coordenador da AgComMM – professor Marcio Antonio Kowalski para que conhecimentos sobre as novas tecnologias sejam assimilados de forma inteligente e dinâmica os módulos do curso foram estruturados da seguinte forma: Módulos Básicos do Núcleo Comum dos Cursos de Comunicação – Teórico; Módulos do Núcleo de Formação Geral – Instrumentalizadores – Teórico/Prático; Módulos do Núcleo Profissionalizante – Específico/Prático. Para cada semestre são estabelecidos Projetos Integrados (PIs), de complexidade crescente e que garantem a integração horizontal e interdisciplinar entre os módulos durante cada semestre letivo. Do primeiro ao terceiro semestres, os PIs visam a instrumentalizar teórica e praticamente o aluno para desenvolver produtos culturais para o Rádio, a TV e novas Mídias. Terão um caráter de Fundamentação Estética, no primeiro semestre; de Organização Espacial, no segundo; e de Estruturação para a Produção, no terceiro. A partir do quarto semestre, os PIs terão um caráter prático: serão desenvolvidos produtos para o Rádio e a TV, também de complexidade crescente, nos quais serão exigidos os conhecimentos técnicos, estéticos e culturais até então adquiridos118. Assim, com o objetivo formar profissionais altamente qualificados para atuar na indústria nacional de rádio e televisão, o curso de Radialismo da UMESP visa preparar os jovens para “[...] uma realidade complexa e ao mesmo tempo com grandes perspectivas de atuação em contextos marcados por inúmeros desafios” (KUNSCH, 2007, p. 92). Considerando que as práticas profissionais do campo da comunicação se deparam hoje com contínuas mudanças na indústria radiofônica e televisiva, os alunos de Radialismo da UMESP parecem ser continuamente estimulados a desenvolver atividades acadêmicas que se integram às tarefas da profissão, para que possam vivenciar todas as etapas de uma formação equilibrada entre as disciplinas de fundamentação humanística e as de caráter profissionalizante. O que pressupõe o intenso o uso de tecnologia de software. Por meio dos trabalhos desenvolvidos no âmbito da Agência de Comunicação Multimídia – AgComMM – os alunos curso deste realizam diversas atividades em ambientes adequados e com modernos recursos tecnológicos. 117 Recebido por correio eletrônico em 15 de outubro de 2008. Apêndice A 118 Disponível em http://www.metodista.br/rtv/noticias/rtv/modulos 107 Conforme nos explica o professor Márcio Antonio Kowalski (idem 2008)119. São 04 estúdios de TV completos, 03 de Rádio, 08 ilhas de edição dedicadas, além de 02 laboratórios Macintosh com 20 máquinas Apple (cada laboratório) com softwares de edição de áudio, vídeo e grafismos. As primeiras disciplinas são de embasamento e funcionam com o fornecimento da operação das ferramentas de trabalho do radialista. Mesmo assim, existem atividades praticas e integradas desde o primeiro semestre. A partir do quarto estas atividades são mais abrangentes e intensas, então ganham maior destaque e visibilidade. A Rádio Metodista On-Line é um exemplo de laboratório de produção entre as atividades e projetos desenvolvidos pelos alunos do curso. Opera desde maio de 2005 e é gerenciada pela Agência de Comunicação Multimídia. Conforme informa o portal da UMESP120 “É uma emissora pertencente à Universidade Metodista de São Paulo, sediada em São Bernardo do Campo e está disponível de segunda à sexta-feira das 8h00 às 21h00 acompanhando o período letivo dos alunos.” As equipes técnicas e de produção da rádio são formadas por alunos estagiários das diversas séries e cursos da instituição, e dois professores do curso de Rádio e Televisão respondem pela qualidade e coerência da programação. Ressalte-se o fato da Rádio Metodista On-Line não se propor, em nenhum momento, a concorrer com o rádio produzido em grande escala e com finalidades comerciais. Constitui a Rádio espaço privilegiado para os alunos interessados em aprofundar seus conhecimentos e de estímulo para todos aqueles que vêm no rádio à perspectiva de uma carreira profissional pautada pelo compromisso com os valores éticos e a preservação de nossa identidade cultural e artística. Informações também coletadas121 junto ao coordenador da AgComMM ilustram o emprego de algumas tecnologias de softwares no contexto do curso de Radialismo em variados processos de criação de produtos para rádio e televisão – para edição de áudio e vídeo, captação e tratamento de imagens e sons e etc. Diversas disciplinas ou módulos deste 119 Questionário respondido em 15 de outubro de 2008. Documento idêntico foi respondido pelo professor Dr. Joaquim Valverde coordenador do curso de RTV da ESEEI. Apêndice A. 120 121 Disponível em: http://www.metodista.br/radio Acesso 11/12/08 Questionário recebido por correio eletrônico em 29/01/09- intitulado Faculdade de Comunicação FAC – Projeto Pedagógico do Curso de Radialismo. Anexo 1. 108 curso dedicam significativa carga horária para a realização de tais atividades. Segundo Marcio Antonio Kowalski “[...] estimo que cerca de 30% das disciplinas são técnicas, porém a partir de 2009 inicia-se um novo projeto pedagógico com alterações. Além dos programas de rádio muitos programas de TV são realizados durante o Curso de RTV, porém sem exibição aberta regular atualmente”. Assim, o novo Projeto Pedagógico do curso de Radialismo contempla um conjunto de disciplinas ou módulos, com 120 horas cada módulo, voltados ao desenvolvimento de atividades que aproximam os estudantes das práticas profissionais e que demanda uma variedade de softwares para a criação de produtos para rádio e televisão. Identificamos e descrevemos as características dos referidos softwares detalhadamente no capítulo 4 – intitulado Comparação entre Softwares Proprietários e Livres. 3.2. FACULDADES ESEEI: ESCOLA SUPERIOR DE ESTUDOS EMPRESARIAIS E INFORMÁTICA A Escola Superior de Estudos Empresariais e Informática – Faculdades ESEEI, localizada em Curitiba no Paraná, foi fundada no ano de 1986 para dar início ao funcionamento do curso de Tecnologia em Processamento de Dados – TPD, autorizado pelo MEC em 1989 e reconhecido em 1995. No ano de 2000 a ESEEI obteve autorização para funcionamento do curso de Comunicação Social, reconhecido pelo MEC em 2008. Conforme descreve o Projeto Pedagógico do Curso – PPC (mimeo 1999) o curso de comunicação social foi concebido com uma visão de futuro acerca do cenário que os egressos podem encontrar nas empresas onde irão trabalhar, e tem por objetivo formar profissionais com conhecimentos especializados e capazes de realizar as atividades demandas pelo concorrido mercado de trabalho. A ESEEI é mantida pela Sociedade Paranaense de Ensino e Tecnologia – SPET e se caracteriza como instituição isolada e sem fins lucrativos. As atividades desenvolvidas pela Instituição de Ensino Superior – IES são gerenciadas pelos membros do Conselho Diretor da SPET. De acordo com o institucional122 da entidade “[...] a missão da ESEEI é formar profissionais qualificados, possuidores de valores humanos, éticos e cívicos, corporativos e 122 Disponível em: http://www.spet.br/institucional.html -www.spet.br – www.eseei.edu.br Acesso em 10/10/08. 109 conscientes de sua responsabilidade social.” Considerando tal missão a entidade desenvolve suas atividades educacionais com os seguintes objetivos (idem): Oferecer educação de qualidade e atuar com responsabilidade social para contribuir com o desenvolvimento da nação brasileira; Contribuir para a formação cultural, educacional e ética de seus alunos, para sua inserção no mercado de trabalho e para que possam compreender as mudanças do seu campo de ação profissional no novo milênio; Estimular a investigação, a pesquisa, o desenvolvimento de tecnologias e produtos de software e a difusão da cultura científica, técnica e artística; Concorrer para o desenvolvimento da solidariedade humana, através da preservação e do aperfeiçoamento do homem, inspirada em princípios cívicos, humanos e democráticos. Embora seja uma instituição jovem e pequena, quando comparada com a UMESP, a ESEEI desenvolve diversas atividades que preparam o jovem para interagir com seu meio social e mercado de trabalho. Segundo o PPC – Projeto Pedagógico do Curso de Comunicação Social das Faculdades ESEEI – Habilitação Radialismo (mimeo 1999) “os estudantes de todos os cursos participam de atividades de Pesquisa e Projetos de Extensão, que são coordenados por professores e funcionários especializados.” Dois programas de TV são produzidos pelos alunos de RTV com a participação de estudantes de outros cursos da ESEEI: o programa Tecnologia e Saúde e Viva o Bicho. Estes programas vão ao ar semanalmente, aos sábados e domingos às 15h respectivamente, no canal – UHF – 59, TV Transamérica. Ainda no contexto das atividades de Pesquisa e Projetos de Extensão, além dos estudantes de Radialismo, estudantes das outras habilitações do curso de comunicação social – Jornalismo; Relações Públicas; Publicidade e Propaganda; Editoração: Mídia Digital – são chamados a pesquisar conteúdos, elaborar pautas de programas, matérias para telejornais, produzir documentários, anúncios publicitários e vinhetas para rádio e televisão, desenhos animados etc. Essas atividades são desenvolvidas no contexto das agências da faculdade de comunicação da ESEEI, segundo o portal da IES123: A Spetcom é uma agência de comunicação integrada, onde ocorrem atividades envolvidas em projetos de extensão universitária em Publicidade e Propaganda e Relações Públicas. Aí se desenvolvem e aplicam-se planos de comunicação para organizações e 123 Disponível em: http://www.spet.br/tecnologia/agencias.html 110 empresas de segmentos não-lucrativos. A SpetTV é a agência onde ocorrem atividades de produção na área televisiva e radiofônica em projetos de extensão universitária. A SpetNews é a agência onde são produzidas matérias jornalísticas em projetos de extensão universitária. A SpetDesign é a agência laboratório destinada à criação, produção e impressão/veiculação de material gráfico e infográfico. Na SpetDesign são realizadas edição, composição, diagramação, de projetos diversos como a criação de Portais em VRML (Virtual Reality), Galerias Virtuais e trabalhos de modelagem e animação em 2D e 3D para Web e TV. Os estudantes do curso de tecnologia em processamento de dados também participam ativamente dos projetos de pesquisa e extensão desenvolvendo ou adaptando tecnologias e softwares para os projetos de TI e de comunicação. Cuidam do desenvolvimento e da administração dos sites da IES e empresas parceiras. Dão suporte técnico à utilização das tecnologias de hardware e software livre empregados nos laboratórios que atendem a todos os cursos. O projeto ou programa de tecnologia aplicada à engenharia de software e produção midiática124, por exemplo, tem por objetivo investigar as possibilidades de substituição de software proprietário internacional, notadamente para plataforma Microsoft, por Free Software e Open Software, principalmente para plataforma Linux, para as áreas de infraestrutura de tecnologia da informação, automação e produção de mídia digital impressa, audiovisual e hipermídia (PPC mimeo, 1999). Nesse programa com o uso e desenvolvimento de software livre espera-se propagar a utilização dessa tecnologia e contribuir para a redução dos bilhões de dólares enviados atualmente ao exterior a título de pagamento de royalties e criar as bases para a formação da indústria paranaense de software livre com geração de emprego e renda. Nesse projeto os estudantes de Comunicação Social e Tecnologia da Informação podem participar nos testes de uso dos softwares utilizados em seus respectivos cursos e habilitações, desenvolvendo produtos midiáticos compatíveis com os utilizados no decorrer das disciplinas. No portal da ESEEI125 é possível conhecer outros detalhes sobre os cursos e projetos 124 Disponível também em: http://www.spet.br/pesquisa_e_extensao.html. Acesso 10/09/08. 125 Disponível www.spet.br – www.eseei.br. 111 desenvolvidos pela entidade, a exemplo do projeto de responsabilidade social126 denominado Programa de Inclusão Digital Comunitária: “Projeto desenvolvido em parceria com a Secretaria Especial de Relações com a Comunidade do Governo do Estado do Paraná que visa preparar os líderes comunitários para a utilização do sistema operacional Linux, da internet e do processador de textos OpenOffice em suas comunidades”. 3.2.1. O Curso de Radialismo da ESEEI O curso Radialismo da ESEEI proporciona aos estudantes conhecimentos atualizados sobre as novas tecnologias digitais, especialmente sobre tecnologias adequadas para criação de produtos para veiculação através do rádio e da televisão, como é o caso da tecnologia de software livre. Segundo o PPC do curso (idem) “as atividades desenvolvidas pelos profissionais de RTV na atualidade contemplam, cada vez mais, a substituição de sistemas analógicos por sistemas digitais, fruto do desenvolvimento da tecnologia computacional”, porque, segundo Valverde (2003), estamos “assistindo a substituição da informação midiatizada pelo atômico e físico (que ocupa espaço, é pesado, difícil e demorado para se transportar) pela informação binária – eletrônica (cujo peso é insignificante e o transporte facilitado por vias eletrônicas e óticas).” A realidade de substituição da informação midiatizada pela informação binária nos leva a pressupor a necessidade de os estudantes de Radialismo compreenderem os prováveis impactos que a digitalização poderá ter nos processos de comunicação atuais e na produção de bens culturais. Para atender a esta necessidade, todas as habilitações do curso de comunicação social contemplam um conjunto de disciplinas voltadas à preparação dos estudantes para criação de produtos comunicacionais com uso de software livre. Estas disciplinas, bem como as disciplinas127 específicas da habilitação de Radialismo, têm carga horária de 72h/a semestrais. Disciplinas de outras habilitações, mesmo não sendo obrigatórias para a habilitação de Radialismo, podem ser cursadas por alunos deste curso em substituição a disciplinas optativas de sua habilitação. Por exemplo, um aluno de Radialismo pode deixar de cursar a disciplina 126 Outros projetos de responsabilidade social são desenvolvidos pela ESEEI. Os interessados podem saber mais sobre este trabalho através do endereço: http://www.spet.br/responsabilidade_social.html. 127 Grade Curricular do Curso de Radialismo das Faculdades ESEEI. Em anexo. 112 Direção de Arte (da habilitação de Radialismo) e cursar a disciplina técnicas de modelagem e renderização (da habilitação de Editoração) para aperfeiçoar-se no uso de softwares para produção de efeitos visuais 3D. Portanto, para colocar em prática atividades que efetivamente contribuam para formar profissionais aptos para trabalhar com as novas tecnologias digitais, os estudantes do curso de Radialismo da ESEEI são convidados a participar ativamente das tarefas relacionadas à produção dos dois programas de televisão – Tecnologia e Saúde e Viva o Bicho –, ou seja, de atividades de pré-produção, produção, edição (digital) e finalização destes programas. O programa Tecnologia e Saúde já existia antes mesmo da autorização para o funcionamento do curso de comunicação social, pois a ESEEI já desenvolvia pesquisas visando à utilização de softwares livres para edição de audiovisuais, uma vez que pretendia ofertar cursos na área da comunicação e entendia que era fundamental o uso de tecnologias digitais nesta área. Em 1998 esse programa foi ao ar durante 10 meses na TV Exclusiva de Curitiba/PR e na TV Cidade em Joinville/SC. Programa de entrevistas, "O Oficina da Saúde", [...] entrevistou médicos, profissionais diversos da área de saúde e professores universitários. Reformulado para ser um programa com perfil mais jornalístico, após a implantação do curso de Comunicação Social, em 2001, passou a chamar-se Tecnologia e Saúde. Programa veiculado na região metropolitana de Curitiba que alerta a população para a importância de ações preventivas, com ênfase nas tecnologias que possibilitaram grandes avanços nos diagnósticos precoces de doenças. Demonstra as vantagens de utilização da tecnologia no diagnóstico, tratamento e conforto de pessoas acometidas de problemas de saúde (PPC, idem). O Programa de televisão Viva O Bicho, também semanal, busca sensibilizar a comunidade curitibana para os problemas relacionados com a transmissão de doenças, abandono e maus tratos de animais. Para os dois programas de televisão os alunos produzem vinhetas, computação gráfica e efeitos visuais. As trilhas sonoras também são produzidas pelos alunos. Em todas essas atividades são utilizados softwares livres. Outra atividade na qual os estudantes podem colocar em prática os conhecimentos adquiridos nas disciplinas é o projeto Rádio ESEEI, no qual grupos de alunos se revezam para apresentar diariamente, nos intervalos das aulas, a programação que criaram para a rádio. Alunos do curso de TPD também participam desse projeto, já que muitos são interessados em conhecer o funcionamento dos softwares das ilhas de áudio. Um dos motivos que justifica o uso exclusivo da tecnologia de software livre na 113 ESEEI, desde sua fundação, está relacionado com o fato de estes softwares serem gratuitos e permitirem o compartilhamento de conhecimentos sobre as formas de desenvolvimento, funcionamento, distribuição e melhorias desta tecnologia. Outra questão que impulsiona o uso de softwares com licença GPL pela IES está relacionada ao fato de estes softwares poderem ser instalados gratuitamente a partir de download feitos pela Internet. Pois assim, os estudantes também podem instalar os mesmos softwares utilizados na faculdade em seus computadores pessoais (PC) sem pagamento de licenças. Os softwares empregados para o desenvolvimento das atividades do curso estão descritos no capítulo 4. 114 CAPÍTULO IV. COMPARAÇÃO ENTRE SOFTWARES PROPRIETÁRIOS E LIVRES Nos processos de criação de produtos para rádio e televisão os profissionais desta área da comunicação utilizam variados tipos de recursos tecnológicos digitais para compô-los, como por exemplo, para produzir um documentário. Entre estes recursos se destacam os computadores e softwares128 especializados. O processamento digital de imagens envolve atividades como importá-las do mundo real para dentro dos computadores através de dispositivos de entrada, como scanner ou máquinas fotográficas digitais, e atividades como editá-las e exportá-las dos computadores para o mundo real por meio de dispositivos de apresentação tais como impressoras, monitores de computadores e de televisão, também chamados de dispositivos de saída. Os softwares de processamento de imagens, genericamente chamados de softwares gráficos, também são recursos importantes em atividades de criação de produtos para rádio e televisão e podem ser, conforme classificação adotada pela indústria de software, agrupados em pelo menos quatro categorias: softwares para processamento de audiovisual; softwares de computação gráfica 3D; softwares editores de imagem matricial ou raster; softwares de desenho vetorial. Para cada uma dessas categorias de software existem muitas ofertas de produtos no mercado, tanto proprietários como livres, conforme descrito nas próximas páginas. Geralmente estes softwares são identificados pela marca ou nome de algum produto mais conhecido, como é, respectivamente, o caso dos softwares proprietários Final Cut, Maya, Photoshop e CorelDRAW. Uma outra categoria de softwares utilizados na produção de música e de áudio – locução, efeitos sonoros etc – e nos vídeos, formando, assim, os produtos audiovisuais é a dos softwares de processamento digital de som. Um exemplo é o software Pro tools, um dos mais utilizados em processos de produção ou de pós-produção de filmes e músicas. Alguns softwares de produção audiovisual se limitam a operar em uma única plataforma de hardware 128 Lembrando: um software é um programa que contêm um conjunto de instruções e dados processados pelo computador. 115 e ou em um único sistema operacional129, por exemplo, no PCWindows – enquanto outros são multiplataforma, rodam tanto no sistema operacional PCWindows como em workstation (estação de trabalho) Apple/MAC OS X130 ou Linux. Duas vantagens importantes dos softwares multiplataforma são a portabilidade e a escalabilidade. A portabilidade permite a troca de hardware131 e sistema operacional sem a obrigatoriedade de trocar o software com o qual o usuário pode estar acostumado a trabalhar. A escalabilidade permite utilizar arquiteturas de hardware mais potentes e mais eficientes que as dos PC's e sistemas operacionais comuns – como Workstations RISC e supercomputadores multiprocessados que rodam com UNIX, Linux ou Mac OS X –, sempre que maior poder computacional ou mais eficiência em cálculos for necessária para realizar cálculos matemáticos com maior precisão. Comparar softwares é um trabalho complexo, pois este tipo de análise precisa ser feita com base em parâmetros concretos, aceitáveis, confiáveis e equivalentes, sem, no entanto, envolver análise de centenas de detalhes, como, por exemplo, relacionados a desenhos de interfaces e usabilidade, sequência de operações para realizar tarefas etc. Como um dos objetivos desta pesquisa foi apresentar as principais características, funcionalidades, diferenças e semelhanças entre os softwares proprietários e livres, realizamos um estudo comparativo. Um tipo de estudo empregado para se comparar dois ou mais fenômenos ou para se confrontar as qualidades ou os elementos de duas realidades ou objetos com a finalidade de se discernir semelhanças ou diferenças entre eles. Triviños (1987 p. 111-116) explica que os resultados de um estudo comparativo são válidos somente para um caso estudado, entretanto, podem contribuir para o encaminhamento de pesquisas que contemplem análises de abordagem predominantemente qualitativas, um tipo de abordagem que surgiu nos países da América Latina na década de 70 quando novas experiências científicas começaram a ser realizadas considerando a importância de se excluir a dicotomia quantitativo-qualitativo nas análises de resultados. 129 Camanda de software colocada entre o hardware e os programas que executam tarefas para os usuários de computadores. Controla qual programa está acessando qual recurso. É responsável pelo acesso aos periféricos (impressora, mouse, teclado etc). (Oliveira, Carissimi e Torcani 2008 p. 1). 130 Sistema operacional que tem como núcleo o software livre UNIX BSD, desenvolvido originalmente pela Universidade da Califórnia em Berkeley. 131 Parte física do computador, componentes eletrônicos, circuitos integrados, placas etc. 116 A valorização de experiências de natureza qualitativa nos países da América Latina se deve também ao fato de que mesmo sendo esta uma categoria de pesquisa que exige rigoroso acompanhamento em todas as fases da investigação, permite que o pesquisador tenha várias perspectivas comparativas de análise e de interpretação do fenômeno estudado. Logo, contribui para que um pesquisador possa ter uma visão global de um fenômeno investigado, bem como de suas particularidades. Nesta pesquisa, o estudo comparativo entre os softwares utilizados na UMESP e na ESEEI foi feito a partir da observação “de um fato que já ocorreu” para compreender os vários fatores que se constituem como suas variáveis independentes. Ou seja, o estudo comparativo nos permitiu estabelecer algumas variáveis independentes dos softwares proprietários utilizados na UMESP como um fato que já é, para, então, compará-las com mesmas as variáveis independentes dos softwares livres utilizados na ESEEI. Triviños (idem p. 106) explica o conceito de variáveis independentes. A variável é algo que ‘varia’, que muda [...]. As variáveis ‘são características observáveis de algo’ que pode apresentar diferentes valores. Idade, por exemplo, é uma variável e pode ter diferentes valores: 15 25,35 etc. Estatura é outra variável e pode apresentar valores como 1,75 [...] etc. Alguns denominam variáveis fundamentais aquelas que se referem aos caracteres básicos do que se investiga [...]. E variáveis principais aquelas variáveis que dimensionam o campo que se investiga. [...] As variáveis, como as hipóteses, estão constituídas por conceitos. Estes conceitos têm definições gerais que é preciso, em primeiro lugar, esclarecer de forma precisa. Mas, em geral, estas definições são ambíguas, além de abstratas. Por isso o investigador deve ‘operacionalizar’ estes conceitos, dando-lhes um sentido, um conteúdo prático. Noutras palavras, a operacionalização das variáveis consiste em dar às variáveis um sentido facilmente observável, que permita operar, medir. Embora os estudos comparativos sejam amplamente empregados no contexto de pesquisas de natureza qualitativa, Triviños (idem p. 111-112) chama atenção para o fato de estes estudos apresentarem algumas limitações: [...] algumas ultrapassadas pelos tratamentos estatísticos adequados, geralmente sofisticados, não sendo possível um controle exaustivo das variáveis. Por outro lado, é difícil determinar que variáveis estão relacionadas com o fenômeno. Podemos colocar uma série de variáveis (fatores) como responsáveis pela ocorrência do fenômeno e não incluímos um que pode ser realmente mais importante, mais relevante [...]. 117 Por fim, a análise comparativa entre os softwares utilizados na UMESP e na ESEEI foi feita com base nas informações descritas nos questionários respondidos pelos professores Marcio Antonio Kowalski – coordenador da Agência de Comunicação Multimídia – AgComMM da UMESP – e Professor Dr. Joaquim Valverde coordenador do curso de Radialismo da ESEEI. Informações que serviram como para definir as variáveis fundamentais existentes entre os dois tipos de tecnologia. Além dos dados coletados por meio do questionário outras informações gerais sobre tais tecnologias e sobre os dois cursos também foram extraídas dos sites das duas entidades. Com o objetivo de facilitar a compreensão acerca da referida análise e para ordenar o processo de comparação, os softwares foram agrupados em cinco categorias: a primeira categoria detalha as variáveis fundamentais dos softwares para processamento de audiovisual; a segunda dos softwares de processamento digital de som; a terceira dos softwares de computação gráfica 3D; a quarta categoria detalha as variáveis fundamentais dos softwares editores de imagens matricial ou raster; e a quinta dos softwares de desenho vetorial. A partir do agrupamento dos softwares nestas cinco categorias, mesmo que isso possa ser considerado de delicada solidez, elaboramos tabelas com as variáveis fundamentais de cada software e que mostram as especificidades e as possibilidades de uso dos softwares com código aberto nos processo de criação de produtos para rádio e televisão. Tais tabelas foram originalmente elaboradas e adaptadas a partir do modelo de um quadro comparativo elaborado por Benoît Saint-Moulin, professor convidado de técnicas infográficas da Escola Superior Albert Jacquard, da Bélgica. Fundador e administrador do site132 TD T3D The Dream Team sediado na Bélgica. Trata-se de um dos sites133 dedicado a arte em 2D e 3D mais respeitados no mundo. Foi criado em 5 de novembro de 1999 e projetado para ser ponto de encontro virtual para artistas de computação gráfica europeus, notadamente belgas, franceses e ingleses. Muitos destes artistas de computação gráfica, como Carole Demasy134;Adam Vincent; Benoît Rogez; David Revoy; Deveux Olivier; Gilles Sagot; Goro Fujita; Laurent Goulois; Philippe Marsigny; Paul Puzyrev; e Vanmeerbeeck Frédéric135 dão consultoria gráfica pela internet e participam ativamente na mediação do fórum do site, bem como, na 132 www.bsm3d.com 133 http://www.tdt3d.be 134 www.artkm.be 135 www.shadows.fr 118 certificação das informações e trabalhos postados por dezenas de artistas de todo o mundo, usuários das tecnologias que estamos avaliando. A Wikipedia também foi uma ferramenta importante para a definição da tabelas, pois, depois de conhecer o TD T3D The Dream Team, buscamos, nesta enciclopédia livre, informações que nos ajudasse a definir outras variáveis das categorias de softwares não contempladas neste site. Qual foi nossa surpresa quando encontramos diversas sugestões ou modelos de tabelas, fruto de pesquisas realizadas por pesquisadores de todas as partes do mundo, notadamente da Holanda, Bélgica, Suécia, Reino Unido, Austrália, Brasil, Estados Unidos, Malásia, Japão e China. Nossa curiosidade acerca das informações apresentadas na Wikipedia não excluiu a necessidade de olharmos com muito cuidado e atenção todos os relatos, pesquisas e outros dados. Por outro lado, tal cuidado e atenção contribuíram para a aquisição de novos e preciosos conhecimentos, pois, como já foi explicado por Friedman (2005, p. 112) neste documento, embora diversos questionamentos já tenham sido feitos sobre a credibilidade dos conteúdos deste portal, inclusive pelo fato de o projeto da Wikipedia – criado por Jimmy Wales – estar relacionado com o movimento de código aberto e livre, todos os verbetes são monitorados e eliminados quando não são considerados corretos uma vez que a Wikipedia solicita a indicação de referências e de fontes dos verbetes editados, pois funciona por consenso e os usuários podem acrescentar e alterar os conteúdos, garantindo a predominância de sua qualidade. “Os mal-intencionados ficam anulados” afirma Friedman, pois é fácil combatê-los uma vez que os próprios usuários vigiam a lista de alterações e corrigem problemas em minutos, às vezes segundos. Além do quadro comparativo de Benoît Saint-Moulin e dos exemplos analisados na Wikipedia o processo de comparação entre alguns softwares proprietários e livres também foi feito a partir da definição de um critério, de um modelo com três macrofunções: Entrada => Processamento => Saída. Portanto, as comparações foram realizadas considerando essencialmente os recursos disponíveis nos softwares para importar conteúdos para o computador; para tratá-los digitalmente; e para exportar os resultados em formatos e resoluções de arquivos e dispositivos de representação adequados. Nesse sentido, as macrofunções foram analisadas quanto: Entrada: dispositivos de comunicação analógico/digital e recursos de digitalização – codecs e compressores – para importação de conteúdos analógicos e/ou digitais. 119 Processamento: funções para tratamento dos conteúdos (composição, transformações, efeitos e etc). Saída: processos, codecs e compressores disponíveis para exportação de conteúdos em formatos e resoluções adequadas aos dispositivos de representações digitais ou analógicos produzidos e utilizados pela indústria de mídia. Por fim, pressupomos que os resultados do processo de comparação entre os softwares proprietários e livres podem ser bastante úteis para orientar a escolha e o uso de softwares adequados à criação de produtos para rádio e televisão pelos alunos das diversas entidades de educação do Brasil que ofertam cursos de Radialismo. A seguir, e antes de apresentar os resultados da referida análise comparativa, descrevemos as especificidades de cada software, proprietário e livre136, utilizado nos cursos de Radialismo da UMESP e da ESEEI. Os softwares proprietários utilizados no curso de Radialismo da UMESP, e que operam em plataforma Apple137/Macintosh e sistema operacional MAC OS X, são: 1. Os softwares utilizados em atividades de edição de Vídeo – categoria 1 - softwares para processamento de audiovisual – são o Final Cut Pro HD, desenvolvido pela Apple; Vegas da Sony e After Effects cujo fabricante é a Adobe. Conforme informações do próprio fabricante138, – a Apple Computer – o Final Cut Pro HD (high definition) é um software profissional de edição de vídeo não linear que foi desenvolvido para o sistema operacional Mac OS X. Pode ser utilizado para editar material obtido de câmeras de vídeo domésticas MiniDV, bem como materiais de alta definição (HD) obtidos em estúdio profissional. Em outras palavras, o Final Cut Pro realiza a edição não linear de qualquer formato de 136 Algumas informações sobre os softwares descritos foram extraídas dos website das empresas fabricantes, fornecedores e desenvolvedores disponíveis na internet. 137 A Apple iniciou a revolução do computador pessoal nos anos 70 com o Apple II e reinventou o computador pessoal nos anos 80 com o Macintosh. A Apple é amplamente reconhecida pelo Mac, computadores de mesa e notebooks inovadores e premiados, seu sistema operacional OS X e pelo estilo de vida digital iLife e aplicativos profissionais. A Apple está também à frente da revolução da música digital com a linha iPod, líder de mercado de tocadores portáteis de música e a loja online iTunes, e entrará para o mercado de telefonia celular este ano com o revolucionário iPhone. Disponível em: www.Apple.com/br/imprensa. Contato para a imprensa. Acesso em 19/01/09. 138 Disponível em: http://www.Apple.com/finalcutstudio. 120 vídeo compatível com QuickTime139 e pode suportar numerosa quantidade de faixas (trilhas) de vídeo; até 99 pistas de áudio; edição multi-câmera para cortes de vídeo de múltiplas fontes. Permite criar efeitos de ondulação, rotação e alteração de tempo, além de vários efeitos de transição em três dimensões e filtros de áudio e vídeo, que possibilitam a correção de cores e remoção de chiados e estouros. O Final Cut Pro 5 integra a suíte Final Cut Studio, juntamente com outros aplicativos "Pro" da Apple dentre os quais o Color, para finalização fotográfica de vídeo e tratamento de cor. Pode editar vídeos nos formatos Standart (SD), Digital Video (DV), High Definition (HD) e High Definition Video (HDV). Em 2001 a Apple lançou o Final Cut Express, que utiliza a mesma interface da versão Final Cut Pro, mas que não têm as ferramentas de edição específicas para filmes e outras opções avançadas. Esta versão é mais direcionada para produtores digital amadores de vídeo ou profissionais que querem adquirir máquinas e software de menor custo. O Sony Vegas140 é um software de edição não linear141 de áudio e vídeo, desenvolvido pela Sony Creative Software para rodar no sistema operacional Windows e comercializado com licença proprietária Microsoft EULA. Sua versão 8 (2008) combina edição de áudio 5:1 suround – dolby digital DTS para Home Teather ou 2:0 stereo para televisões normais e edição de vídeo de alta qualidade e fidelidade em tempo real. O Sony Vegas também tem um extensivo suporte a plug-ins142 e é considerado dentre os programas de edição, assim como o Adobe Premiere, um dos melhores do mundo, pois renderiza143 em quase todos os formatos e sempre em qualidade de DVD. É muito utilizado pela indústria de televisão e de cinema na produção dos filmes da Columbia, por exemplo. 139 É uma estrutura de suporte (framework) multimídia desenvolvida pela Apple, Inc., - conhecido também como QT´ - para manipular formatos de vídeo digital, mídia clips, som, texto, animação, música e vários tipos de imagens panorâmicas interativas. Disponível em: www.Apple.com/quicktime/ Acesso 10/12/08. 140 Disponível em: www.sonycreativesoftware.com 141 Processo em que o filme é convertido para um formato digital e pode ser modificado livremente. Vários softwares proprietários são utilizados em processos de edição não linear, como o Final Cut Pro, Adobe Premiere e Sony Vegas. Também existem softwares livres para executar essa tarefa como: Avidemux, VirtualDub e o Cinelerra.http://www.cinelerra.org 142 Um Plug-in é um programa de computador que serve normalmente para adicionar funções a outros programas maiores, provendo alguma funcionalidade especial ou muito específica. 143 O termo renderizar – tem sido usado em processos de conversão de símbolos gráficos em arquivos visuais, ou seja, em processos que se pretende fixar as imagens num vídeo, convertendo-as de um tipo de arquivo para outro ou de uma linguagem para outra. Termo também conhecido como processamento de efeitos, pois permite tornálos permanentes em um segmento de áudio digital. (Brito, 2006). 121 O Adobe After Effects é um programa proprietário de composição de vídeo que cria gráficos com movimento e com efeitos visuais. Foi originalmente desenvolvido pela Company of Science and Art – Cosa144 que lançou sua primeira versão (1.0) em 1993. Mais tarde a Adobe adquiriu a propriedade do After Effects e lançou, em 1995, versão 3.0. O After Effects tem um extensivo suporte a plug-ins que permitem fazer filme ou vídeos parecidos com desenhos animados; simular fogo, fumaça ou água; sistemas de partículas; movimentos lentos; eliminar ruídos; e outros efeitos visuais. Portanto, o After Effects é bastante utilizado em atividades de pós-produção de vídeo, filmes, DVDs e produções em Macromedia Flash – software de gráfico vetorial que suporta imagens bitmap e vídeos. 2. Os softwares utilizados em atividades de processamento de áudio – categoria 2 – de processamento digital de som – são Sound Forge da SONY; e Pro Tools desenvolvido pela DigiDesign. O Sound Forge145 é um software de uso profissional e semi-profissional comercializado com licença proprietária que edita e cria áudio digital. Também conhecido como Sonic Foundry Sound Forge ou Forge, devido à compra de seus direitos pela Sony, é uma ferramenta considerada essencial pelos editores e produtores profissionais de áudio. A Versão 9 (2007) é a mais atual e permite que seus usuários possam converter arquivos no formato WAV para mp3; editar, copiar, colar, apagar, retocar trechos de uma composição; adicionar recursos de fundo, vibração, eco, filtragem de voz, aceleração e desaceleração de uma música; permite também a eliminação da voz; ampliar as marcas vocais; fazer suas gravações através de microfone; editar vídeo; fazer cópias de e para CDs. O Pro Tools é uma estação de trabalho para áudio digital fabricada pela Digidesign146 – adquirida pela Avid Technology147 – que integra hardware e software. Um 144 A CoSA juntamente com o After Effects foi adquirida pela corporação Aldus em 1993, que foi adquirida pela Adobe em 1994, junto o PageMaker e o After Effects. em:ttp://www.adobe.com/br/products/aftereffects/ 145 Disponível em: http://www.sonycreativesoftware.com/products/product.asp?pid=431| 146 Disponível em: http://www.digidesign.com/ Acesso em 10/08/08. 147 A Avid tornou-se líder mundial em mídia digital com a criação de ferramentas para cinema, vídeo, áudio. Hoje a grande maioria dos produtos líderes de televisão, longas-metragens, comerciais e programas de música utilizam um ou mais produtos Avid. Disponível em: www.avid.com/ Acesso em 10/10/08. 122 produto proprietário muito utilizado em processos de produção ou pós-produção de músicas e filmes pela indústria televisiva. Roda nos sistemas operacionais Mac OS X e Windows. Conforme o site oficial da Digidesign o Pro Tools 8 é a mais avançada tecnologia de audiovisual e apresenta uma nova e bonita interface. Dezenas de novos instrumentos musicais virtuais, plug-ins e funcionalidades MIDI, novos workflows (fluxos de trabalho), facilidade de uso e integração mais profunda e etc. 3. O software utilizado em atividades de modelagem e animação 3D – categoria 3 softwares de computação gráfica 3D – é o Maya, fabricante Adobe. O Maya148 é um software computação gráfica 3D adequado para a produção de animações e efeitos especiais. É um produto proprietário bastante utilizado pela indústria de cinema, televisão e de jogos de computador. Pode ser considerado um fork149 porque surgiu de três outros softwares. Existem duas versões do Maya, a primeira é o Maya Complete que inclui ferramentas de modelagem, animação, renderização, pintura e sombreamento. A segunda versão do Maya é o Maya Unlimited, que além das ferramentas existentes na versão Complete tem, por exemplo, o Maya Fluid Effects (efeitos fluídos) uma ferramenta para criar efeitos de animação e efeitos de computação gráfica que simulam o comportamento de fluídos, tais como a água. Tem ainda as mesmas versões disponíveis para cinco diferentes Sistemas Operacionais: Microsoft Windows XP/Vista, Apple Mac OSX, Irix, Unix e Linux. 148 Desenvolvido pela Alias Systems Corporation que em 1995 se fundiu com a Wavefront Technologies. Ambas foram incorporadas pela Silicon Graphics Inc (SGI), que lançou o programa. Disponível em http://usa.autodesk.com Acesso 18/01/09. 149 Wavefront Advanced Visualizer; Thomson Digital Image (TDI) Explore; e, Alias Power Animator. Fork Termo que em português pode ser compreendido como bifurcação. 123 4. Os softwares utilizados em atividades de Processamento de imagens matriciais ou raster – categoria 4 – softwares editores de imagem matricial ou raster – são Photoshop CS3 da Adobe e Color da Apple. Adobe Photoshop150 é bastante utilizado para produzir imagens matriciais ou raster. Desenvolvido pelo Adobe Systems, o Adobe Photoshop tem ferramentas que permitem a criação de efeitos que reproduzem técnicas de pintura, fotografias e outras geralmente utilizadas em gráficas e impressão offset. Conforme Parker (1995, p. 119) programas de manipulação de imagens como o Adobe Photoshop permitem, por exemplo: [...] que você faça alterações seletivas em áreas restritas das fotografias. Você pode clarear áreas sombreadas (queimar) sem fazer com que as áreas claras (fundo da imagem) fiquem totalmente bancas, e pode aplicar dodging (sombreado) ou escurecer o fundo da imagem para realçar os detalhes mais claros sem fazer com que as áreas mais escuras da fotografia fiquem pretas. Com o Adobe Photoshop, você pode ampliar bastante o tamanho das imagens digitalizadas e trabalhar somente com as partes selecionadas da mesma. Com o hardware apropriado (memória e velocidade de processador), você pode inclusive modificar as fotografias. Você pode copiar e colar um olho, por exemplo, colocando-o no centro da testa do seu chefe! Finalmente, programas como o Adobe Photoshop permitem que você aumente artificialmente a nitidez das imagens digitalizadas. Embora seja difícil de acreditar que alguma coisa possa ficar mais ‘nítida’ do que já é, esses programas podem fazer isso por meio do aumento do contraste das áreas adjacentes, destacando elementos como sardas ou cílios. Por possibilitar que os usuários possam tornar as imagens mais interessantes o Photoshop é um programa cada vez mais usado para produzir imagens para World Wide Web, pois as possibilidades de se adicionar texturas e padrões nas imagens criam a impressão de que as fotografias vistas na tela do computador foram desenhadas sobre tecido. “Você pode, inclusive, fazer com que os pixels de uma fotografia sejam ampliados ou exagerar as linhas para tornar as fotografias mais interessantes”, complementa Parker (idem, p. 119). Outros efeitos de guache e espelho ondulado também podem ser feitos em uma imagem com o Photoshop. Por este motivo esse editor é um dos preferidos pelos produtores 150 Disponível para os sistemas operativos Microsoft Windows e Mac OS X. Pode ser rodado também no Linux, através da camada de compatibilidade Wine. Disponível em: adobe.com 124 de imagens digitais profissionais e agências publicitárias do mundo. O Color151 é um software profissional de ajuste de cor produzido pela Apple Inc. para seu sistema operacional Mac OS X. Segundo Peter Cohen em matéria intitulada Apple adquire Silicon Color, publicada na revista MacWorld de 16 de outubro de 2006. “O Color é uma das principais aplicações incluídas como parte do Final Cut Studio 2”. Esta aplicação foi originalmente chamada de FinalTouch (toque final) e desenvolvido pela Silicon Color, até que companhia foi adquirida pela Apple em 2006. Filmes gravados com câmera de cinema muitas vezes parecem desbotados, um dos objetivos ‘básicos do Color’ é adicionar a vibração e a riqueza das cores de volta ao vídeo. Uma vez transferido para o formato digital, normalmente para edição adicional. 5. Os softwares utilizados em atividades de Desenho Vetorial 2D – categoria 5 softwares de desenho vetorial – são Ilustrator do Adobe e CorelDRAW X3 da Corel. O Adobe Illustrator é um software utilizado em atividades de criação de desenho vetorial 2D. É uma marca registrada da Adobe System Incorporated e foi desenvolvido em 1985 para o Apple Macintosh. A versão 3.0 tem sido a preferida pelos usuários com interesse na criação de layout de textos acompanhados por curvas. Conforme explica Parker (1995 p. 27) “Com programas como o Adobe Illustrator [...], praticamente não há limites para a sua criatividade. Um truque simples, mas que certamente agrada a todos na criação de títulos é utilizar preenchimento com variação gradual de tom, de escuro para claro”. Portanto, o Illustrator é um programa que permite fazer mais do que traçar um desenho, é um programa que possibilita, conforme explica Sue Plumley152 (1995 p. 13 -21) inserir textos nos desenhos, “controlar a fonte, o entrelinhamento, o alinhamento e o espaçamento do texto, ao mesmo tempo em que oferece excelente versatilidade em outras áreas”, para se criar um logotipo, por exemplo, pois tem ferramentas necessárias para “produzir arte e textos dignos de publicação.” 151 152 Disponível em: http://en.wikipedia.org/wiki/Color_(software). Acesso em 10/12/08. Sue Plumley – autora da obra Adobe Illustrator 4 for Windows Técnicas Avançadas. Proprietária da empresa americana que fornece treinamento em software Humble Opinions – explica na obra citada detalhes sobre as funcionalidades deste programa. 125 O CorelDRAW153 é um editor de imagens semelhante ao Adobe. É um programa especializado para se trabalhar com desenho vetorial, ideal para trabalhos de ilustrações e modelagem em 2D e 3D. No manual CorelDRAW user’s Manual, publicado pela Corel Corporation (1994), os usuários encontram explicações detalhadas sobre este programa desenvolvido em 1988 pela canadense Corel, com sede em Ottawa, para Windows. Em 1997 foi lançada uma versão para computadores Macintosh e em 1998 para Linux. Afirma Roger C. Parker (1995, p. 138) que o CorelDRAW é “considerado por muitos como o melhor em seu segmento [...]. Contudo também divide opiniões [...], alguns acham que é pesado, instável e, por ter muitos recursos, acaba limitando a criatividade dos usuários”. Os softwares livres utilizados no curso de Radialismo das Faculdades ESEEI e que operam em plataforma PC e sistema operacional Linux154 são: 1. Os softwares utilizados em atividades de edição de Vídeo – categoria 1 softwares para processamento de audiovisual - são Cinelerra – desenvolvido pela Heroine Virtual155; Jahshaka – desenvolvido pela Jahshaka.org. O Cinelerra é um editor156 profissional não-linear de vídeo livre. É considerado uma poderosa ferramenta de fonte aberta desenvolvida pela Heroine Virtual157 e distribuída sob a licença GNU – General Public License. Sua primeira versão foi liberada, exclusivamente para a plataforma Linux, em 1996, com base num produto anterior conhecido como Broadcast 2000. É um software que possui características semelhantes às de outros editores profissionais proprietários, como Final Cut. Possui recursos que possibilitam ao usuário 153 Disponível para os sistemas operacionais Microsoft Windows sob Licença Comercial - Proprietária. Fonte: www.corel.com.br/pt/ Acesso em 26/01/09. 154 Com exceção ao hardware e software especializados na função de switcher, com oito canais de sinal de vídeo componente, oito canais de vídeo S-VHS e oito canais de som profissional – cânon – conector profissional de áudio – que operam com tecnologia Vídeomachine em plataforma PC Windows. 155 http://heroinewarrior.com/cinelerra.php3 156 No website da empresa estadunidense O'Reilly Media e da Comunidade O'Reilly matéria intitulada Editando no Linux Professional Vídeo com Cinelerra, do escritor americano freelance, Howard Wen descreve como tal processo pode ser realizado. Disponível em: www.linuxdevcenter.com/pub/a/linux/2003/12/30/cinelerra.html 41k – Acesso em: 12/01/09. 157 Heroine Virtual é uma empresa que desenvolve software para o sistema operacional Linux. Seu produto mais popular é Cinelerra. 126 executar operações de composição comuns como keying (chaveamento) e mattes (mapeamento). Produz efeitos visuais e tem suporte para HDTV, além de editar vídeo sem compressão (RAW158). O Jahshaka é um software de código aberto desenvolvido para editores e outros profissionais envolvidos em criação digital de conteúdos. Conforme informações extraídas do website159 oficial, o Jahshaka é uma suíte de pós-produção que inclui módulos para edição, composição, animação e inserção de efeitos visuais ou gráficos em áudio e vídeo. Os usuários desta tecnologia também podem editar com flexibilidade e velocidade para criar efeitos visuais; fazer animações, pintar e desenhar em vídeos em tempo real; criar efeitos musicais e animações 3D etc. 2. Softwares utilizados em atividades de processamento de áudio – categoria 2 – processamento digital de som – são Ardour – desenvolvido pela comunidade ardour.org; Audacity pela comunidade Audacity Team; Rosegarden – pela Rosegarden Music.com e Hydrogen pela hydrogen-music.org160. O Ardour161 é uma estação digital profissional para processamento profissional de áudio digital, desenvolvido sob a licença GNU - General Public License. Suporta plug-ins162 que permitem produzir vários tipos de efeitos de áudio com controles dinâmicos e roda nas plataformas Linux, FreeBSD, Solaris, e Mac OS X. Sendo o Ardour um sistema livre qualquer pessoa pode ler seu código fonte. Esta característica permitiu que a primeira porta do Ardour para Mac OS X fosse desenvolvida por alguém não envolvido com o projeto Ardour original, como, por exemplo, engenheiros de som líderes em estúdios cinematográficos de várias partes do mundo. Atualmente, a norteamericana SAE Institute patrocina o projeto Ardour Open Source DAW – e está provendo suporte corporativo ao Ardour. O objetivo desta iniciativa é proporcionar uma experiência 158 Material bruto. 159 Disponível http://superdownloads.uol.com.br/download/23/jahshaka http://jahshaka.org/ 160 http://hydrogen-music.org/ 161 http://ardour.org/node/976 162 Entre outros plug-ins padrão com o software Wine. 127 mais integrada no Mac OS X e o desenvolvimento de uma versão adaptada para iniciantes. O website da comunidade Ardour informa que seu primeiro autor foi Paul Davis, também responsável pelo desenvolvimento da interface MIDI JACK Audio Connection Kit. A empresa norte-americana Solid State Logic empregou Paul Davis para trabalhar em tempo integral no Ardour durante o desenvolvimento da versão 2 que durou até o final de 2006. O Audacity163 é um software livre de edição digital de áudio. O código fonte do Audacity também está sob a licença GNU General Public License. É um sistema muito popular entre os podcasters pela sua grande disponibilidade em múltiplas plataformas, suporte e o preço, gratuito. A palavra podcasting é uma junção de iPod - marca do aparelho de mídia digital da Apple de onde saíram os primeiros scripts de podcasting164 - e broadcasting (transmissão de rádio ou tevê). A série de arquivos publicados por Podcasting é chamada de Podcast. O autor (ou a autora) de um Podcast é chamado (a) Podcaster. O Audacity possui recursos para importação e exportação de áudio em inúmeros formatos arquivos. Permite a gravação e a reprodução de sons; a edição simplificada como cortar, copiar, colar e apagar; mixagem em múltiplas faixas; alteração da velocidade do som sem alterar sua altura, para sincronização perfeita com vídeo (em dublagens); remoção de ruídos; aplicação de efeitos digitais de som e plug-ins de efeitos sonoros etc. O Rosegarden165 é um programa de edição de música de código aberto. O projeto foi criado em 1993 na Universidade de Bath. A equipe de desenvolvedores é composta por Chris Cannam, Richard Bown e Guillaume Laurent que criaram a empresa Rosegarden Music. Opera somente em sistemas UNIX/Linux. Dispõe de recursos para composição musical com seqüenciadores MIDI e editores de partituras é uma alternativa gratuita para softwares proprietários como Cubase (da Steinberg) entre outros. O Hydrogen – desenvolvido pela hydrogen-music.org é um avançado software que permite imitar som de tambores e de outros instrumentos percussão. É uma ferramenta muito útil para produção de ampla variedade de gêneros musicais. Desenvolvido por Alessandro 163 Website audacity.sourceforge.net 164 Podcasting é uma forma de publicação de arquivos de mídia digital (áudio, vídeo, foto, pps, etc...) pela Internet, através de um Feed RSS, que permite aos utilizadores acompanhar a sua atualização. Com isso, é possível o acompanhamento e/ou download automático do conteúdo de um Podcast. Disponível em: http://pt.wikipedia.org/wiki/Podcasting 165 Website rosegardenmusic.com 128 Cominu, um programador italiano conhecido pelo pseudônimo Comix. Foi originalmente desenvolvido para rodar em Linux e mais tarde foi portado para o Mac OS X. Uma versão experimental foi desenvolvida para o Microsoft Windows, porém foi abandonada. O código do Hydrogen é liberado sob a licença GNU General Public License. 3. O software utilizado em atividades de modelagem e animação 3D – categoria 3 softwares de computação gráfica 3D – é o Blender 3D – desenvolvido para Comunidade Blender Org. O Blender é um software de código aberto - suportado pela Fundação Blender e pela comunidade de desenvolvedores e usuários. É um software para criação 3D com recursos de adequado para modelagem ou criação de formas, objetos e cenários; animação de personagens; composição de imagens; renderização; edição de vídeo; e, mapeamento de texturas (texture mapping)166. Segundo Pissuto167 (2006, p.38) “O Blender foi desenvolvido em 1995, originalmente, pelo estúdio de animação holandês NeoGeo. Em 1998 foi criada a Number Tecnologies - NaN com o objetivo de desenvolver o software[...]. Em 2001, foi lançado o primeiro software comercial direcionado para o mercado de internet em 3D, o Blender Publisher.” Em decorrência do fraco desempenho comercial do software e da crescente dificuldade econômica a NaN encerrou suas atividades e interrompeu o desenvolvimento do Blender, até que em 2002 foi criada a Blender Foundation168 - uma entidade pública sem fins lucrativos e cujo objetivo foi dar continuidade ao desenvolvimento do software Blender como um projeto de código aberto. Neste mesmo ano foi realizada a campanha “Blender Livre”, para a arrecadação de doações para a fundação, para que pudesse obter o direito sobre o 166 Mapa de textura que é aplicado (ou mapeado) para um lado de um polígono - palavra grega e que significa muitos (poly) e ângulos (gon). É uma técnica muito usada na produção de jogos de vídeo game. 167 TCC intitulado O Trânsito e as Crianças: Aprendizagem Interativa em 3D. Elaborado por Camila de Lima Pissuto e orientado por esta pesquisadora (mimeo). Faculdades ESEEI, Curso de Comunicação Social: Habilitação Editoração Mídia Digital. Curitiba 2006. Disponível em: http://www.spet.br/intranet/Login.do;jsessionid=b465390e0270709af5a58caafb64. 168 Organização neerlandesa independente e sem fins lucrativos, fundada na Alemanha em 2002 por Ton Roosendaal, e financiada por meio de doações com o objetivo de manter o projeto Blender. Software do gênero Modelador 3D - e disponível em 23 idiomas. Sua última versão é a 2.48ª, de 2008, roda em sistema Operacional Multiplataforma sob licença dupla BL (Blender License) / GNU GPL. Disponível em http://studioz.multiply.com/links/item/408 ou Blender.org Acesso 19/01/09. 129 código-fonte e a propriedade intelectual do mesmo, assim, em 2002, o Blender foi lançado pela fundação como um projeto de código aberto sob a licença GNU General Public Licence GPL. 4. Os softwares utilizados em atividades de processamento de imagens matriciais ou raster – categoria 4 – softwares editores de imagem matricial ou raster – são: GIMP – desenvolvido pela comunidade GIMP.org. Projeto GNU da Free Software Fundation e o software CinePaint – pela comunidade Cinepaint.org169. O GIMP170 é um software adequado à representação e tratamento de imagens rasterizadas de variados tamanhos e com alto nível de detalhes, como as imagens fotográficas. O projeto GIMP foi criado em 1995 no contexto de um projeto universitário e como uma alternativa ao Photoshop. Segundo André Milani171 (2005 p.17): O GIMP é uma ferramenta de criação e edição de imagens de código aberto. Seu nome é formado pelas iniciais de ‘GNU Image Manipulation Progra’ (em português Programa de Manipulação de Imagens GNU). Foi criado para preencher o espaço gerado pela falta de programas gráficos para o sistema UNIX. [...] e permite que centenas de desenvolvedores da comunidade172 de software livre contribuam constantemente para seu desenvolvimento, por meio da eliminação de bugs, desenvolvimento de novas funcionalidades, bateria de testes e até mesmo desenvolvimento de novos plug-ins, que possam ser disponibilizados na internet e instalados de acordo com a necessidade específica de cada profissional. Algumas das principais características do GIMP são: suporte a formatos de imagens sem perda de qualidade; maior fidelidade de cores etc. Alguns dos filmes bastante conhecidos utilizaram este programa, entre eles: O Último Samurai; Homem-Aranha; A Liga Extraordinária; Harry Potter; O Planeta dos Macacos. Para atender usuários acostumados com o Adobe Photoshop a comunidade de desenvolvedores do GIMP criou uma interface similar à 169 www.cinepaint.org 170 Desenvolvido pela comunidade The GIMP Team. Lançado em 1996 (versão 0.54). Última versão 2.6.0 (2008out-1) Disponível para sistemas operacionais Multiplataforma – GNU/Linux, Windows, Mac OS X e outros sob licença GPL. Disponível em: GIMP.orgwww.GIMP.org/ Acesso em 26/01/09. 171 Bacharel em Ciência da Computação e pós-graduado em Business Intelligence para PUC/PR. Analista de Informática da SANEPAR- Companhia de Saneamento do Paraná. Professor do Curso de Comunicação Social das Faculdades ESEEI. Autor da obra GIMP: Guia do Usuário (2005). 172 www.GIMP.org 130 deste produto proprietário, assim, a estrutura dos menus, além das terminologias, reproduzem as do Photoshop. O CinePaint é um editor de bitmap frames de filmes para pintura e retoque. Já foi nomeado de Film GIMP por ser baseado no GIMP. É um software de código fonte livre mantido pela comunidade cinepaint.org. Segundo informa o site oficial do CinePaint, alguns desenvolvedores trabalham em empresas como a Dreamworks Animation, Sony Pictures Imageworks e Apple. O portal ainda apresenta as doze principais razões para uma pessoa utilizar CinePaint, entre elas: o recurso HDR – High Dynamic Range – que permite que as imagens possam ter destaques de cores mais brilhantes e por isso é usado para fazer filmes em grandes estúdios do mundo; maior fidelidade e qualidade de impressão; e o fato de ser Open Source e poder ser adquirido sob várias licenças, pois usa código de várias fontes, incluindo o GPL, LGPL, BSD e MPL. Além de publicar as vantagens, o portal cita também três razões para não se utilizar o CinePaint. Entre as três destaca-se o fato de o software não rodar em ambiente Windows. 5. Software utilizado em atividades de Desenho Vetorial 2D – categoria 5 softwares de desenho vetorial – Inkscape – desenvolvido pela comunidade The Inkscape Team, patrocinada pela Inkscape Org. O software livre Inkscape173 tem funcionalidades similares ao Adobe Illustrator e ao CorelDRAW, ou seja, cria imagens a partir dos traços ou pontos definidos e suporta muitas características avançadas SVG – Scalar Vectorial Graphics. O Inkscape pode ser considerado um fork porque foi desenvolvido com base em outro software. Em outras palavras, a partir de 2003 um grupo de desenvolvedores iniciou o projeto Inkscape com base no código do editor gráfico vetorial Sodipodi - criado por Lauris Kaplinski - um hacker de computador que propagou o Linux. Conforme detalharemos no próximo capítulo, existem muitos processos/softwares diferentes para compressão de conteúdos e todos se baseiam em modelos matemáticos sofisticados, implementados nos softwares que fazem à compressão e descompressão, respectivamente, ao ler e gravar os conteúdos de arquivos digitais. Existem alguns modelos 173 É mantido/desenvolvido pela comunidade The Inkscape Team. A última versão é a 0.46.0 (25-mar-2008). Disponível para sistemas operacionais multiplataforma sob a licença GPL. Disponível em: www.inkscape.org. Acesso em 26/01/09. 131 que implicam perdas em resolução (qualidade) dos conteúdos, enquanto outros mantêm grande fidelidade entre o conteúdo original e o comprimido. Dessa forma, os softwares gráficos que tratam conteúdos digitais podem se valer de inúmeras combinações de codecs e de compressores, de modo que os resultados dos processos de digitalização podem ter grande variedade de formatos de representação e, por conseqüência, de arquivos. Formatos ou extensões de arquivos são especificações de padrões estabelecidos pela indústria de TI, fabricantes de softwares e desenvolvedores para descrever como o conteúdo é armazenado no computador de modo a possibilitar seu processamento sem erro pelos programas. 4.1. ANÁLISE COMPARATIVA ENTRE SOFTWARES PARA PROCESSAMENTO DE AUDIOVISUAL Os softwares editores de audiovisual podem ser considerados resultado de uma longa trajetória do desenvolvimento de tecnologias que possibilitaram o tratamento de imagens em movimento e de áudio, desde o início do surgimento do rádio e da televisão. A terminologia e os conceitos desenvolvidos nessa trajetória são fundamentais para compreensão do funcionamento destes softwares. Por este motivo, apresentamos breve retrospectiva histórica acerca do surgimento das principais tecnologias analógicas tomadas por base para o desenvolvimento das digitais identificando neste percurso terminologias e conceitos necessários. Neste contexto, buscamos na obra O Século Dourado: a comunicação eletrônica nos EUA (1995, p. 32) de Sebastião Squirra, alguns fatos que contextualizam o surgimento do primeiro VTR – Vídeo Tape Recorder. Segundo este pesquisador “O primeiro gravador de imagens para televisão surgiu só em 1965, quando a Ampex Corporation apresentou o primeiro aparelho de videoteipe [...] com o videoteipe, a produção ficou mais barata e permitia que todos os programas fossem gravados, editados e estocados”. Portanto, conforme artigo intitulado History of Tape Recording Technology174, antes da existência dos videotape, no início dos anos 50, as redes de televisão se limitavam a gravar as poucas reportagens em filme de película de 16 mm ou 35 mm, revelar o conteúdo, editar as gravações cortando o próprio filme e emendando-o com fita adesiva, da mesma forma como 174 Disponível em http://www.tvhandbook.com/History/History_recording.htm Acesso em 12/10/08 132 eram montados os filmes de Hollywood, sob enorme pressão do tempo. Uma reportagem gravada em Nova York, na costa leste americana, teria que ser editada e transmitida por microondas para Los Angeles, na costa oeste, no prazo da diferença dos fusos horários das duas regiões, de modo a ir ao ar no mesmo horário. Para isso, as redes de televisão americanas tiveram que utilizar uma tecnologia chamada cinescopia175. O cinescópio dominou as gravações de TV para ajuste de fuso horário no início dos anos 50. Um gravador cinescópio era basicamente uma câmara especial de 16 mm ou 35 mm montada em uma caixa e direcionada para um monitor de vídeo (um cinescópio) monocromático de alta qualidade. [...] o cinescópio tornou respeitável e confiável as gravações de TV. [...] Sua câmera de filme rodava numa velocidade de 24 quadros por segundo. Uma vez que a imagem da TV repetia em 60 campos (ou 30 quadros) por segundo, o filme tinha que mover intermitentemente entre os quadros do vídeo e então ficar completamente imóvel durante a exposição [...]. Muitos fabricantes de cinescópio, tais como RCA, Acme, General Precision, Eastman Kodak e Palmer Films encontraram diversas formas para resolver esse problema. (History of Tape Recording Technology). Porém, o principal problema que as empresas de televisão encontraram com o uso do cinescópio foi o custo do processo conversão dos filmes gravados em película176 para fitas magnéticas da televisão – cinescopia. Conforme descreve o artigo do History of Tape Recording Technology. Por volta de 1954, o custo da cinescopia para o atraso do fuso horário foi ao espaço. Operações da TV americana usavam mais película bruta para cinescopia do que todos os filmes de Hollywood combinados. Foi estimado que a NBC usou mais de um milhão de pés de película por mês somente em sua sede de Nova York para programas de troca de horário. A rede teria pago com satisfação uma régia quantia por um método alternativo de gravação de TV. (ibidem). 175 Dispositivo técnico que permite filmar com uma câmera cinematográfica um programa de televisão captado em receptores comuns. Para que a imagem filtrada fique nítida e contínua, sem interferências ou manchas de varredura, é necessário sincronizar exatamente a velocidade da filmagem (v. fotograma) com a velocidade de mudança de quadros no televisor (cerca de 30 por segundo). Câmera cinematográfica utilizada neste processo. Registro, em filme de um programa de televisão geralmente obtido diretamente do tubo receptor. Sistema que videotape tornou obsoleto. (Rabaça e Barbosa 2002, 135). 176 Lembramos que o processo de produção cinematográfica é um processo químico e que a indústria eletrônica teve que desenvolver técnicas para que as imagens gravadas nos VTRs tivessem qualidade equivalente as do cinema. 133 Estes fatos deixam claras as variáveis que motivaram as pesquisas e o desenvolvimento do gravador de videotape. Possibilitar que programas de televisão pudessem ser gravados em alguma mídia intermediária com qualidade de imagem e som que permitissem sua reprodução para transmissão a posteriori, com tecnologia mais barata e ágil do que a cinescopia. O grande problema até então era a inexistência de métodos e tecnologias adequadas a esse desenvolvimento, embora as empresas de televisão já utilizassem o processo de telecine177 para transmissão pela TV de programas ao vivo. Problema similar havia ocorrido com a gravação de programas para rádio até que em abril de 1948 a Ampex – Empresa americana que se dedicara à construção de componentes para radares durante a guerra – tornou-se pioneira na fabricação de gravadores de áudio de qualidade utilizando fita magnética. O sucesso da Ampex na fabricação e venda de gravadores de áudio levou-a a inevitável conclusão de que sistema parecido, baseado em fita magnética, poderia muito bem adaptar-se aos gravadores de vídeo, afinal a transmissão de TV de altadefinição havia começado em 1939 nos EUA e a prospecção de crescimento comercial para gravadores de vídeo era obvia. Como observou John Mullin178: “nosso pensamento [...] nos idos de abril de 1948 era a de que se a informação por vídeo pudesse ser trabalhada do mesmo modo que a gravação de som de alta qualidade com o uso de fita magnética, técnicas mecânicas poderiam ser simplificadas e etapas óticas poderiam ser eliminadas.” Algumas iniciativas foram pioneiras no desenvolvimento de videotape, ou VTR Vídeo Tape Recorder. Uma realizada na Europa pela BBC e a outra na América do Norte pela Ampex. Segundo texto intitulado BBC VT179 “[...] tudo começou em 1952, quando Peter Axon coordenou o projeto VERA – um acrônimo para Vision Electronic Recording Apparatus. Como resultado um gravador foi demonstrado dentro da BBC em uma transmissão realizada numa segunda feira, 14 de abril de 1958. [...] Vera utilizou fita magnética de meia polegada num carretel de vinte polegadas e meia, tinha velocidade de 200 polegadas por segundo e permitia gravar no máximo 15 minutos.” Os videotapes criados na BBC mantiveram-se em uso por alguns anos. Entretanto, 177 Equipamento destinado a captar as imagens de um filme cinematográfico (ou de um slide) para transmissão por tv. Constituído por um projetor acoplado a uma câmera de tv, converte as imagens ópticas registradas previamente sobre uma película comum de cinema em sinais elétricos de televisão. (Rabaça e Barbosa 2002, 710). 178 3M Corporation - textos estão disponíveis no site oficial da BBC – www.bbc.co.uk 179 Disponível em site http://www.vtoldboys.com. Acesso em 12/10/08. 134 dois anos antes da conclusão do projeto VERA, em março de 1956, a empresa americana Ampex apresentou ao mercado o primeiro gravador de videotape VRX-1000, mais tarde denominado Mark IV. Em 30 de novembro de 1956 o programa Douglas Edwards and The News, da CBS, foi ao ar com a transmissão da reprodução da primeira gravação em videotape em Los Angeles, Califórnia, utilizando o Ampex Mark IV180. Considerando a ocorrência dos fatos descritos, parece não ser difícil imaginar que no exato momento em que foi possível gravar programas em videotape surgiu também a necessidade de editar os conteúdos das gravações para retirar partes indesejadas, juntar conteúdos de dois ou mais carretéis etc, como, por sinal, também já havia acontecido com as gravações de áudio. Nesse momento teve início o desenvolvimento de técnicas e tecnologias necessárias à edição de vídeo gravado em fitas magnéticas que definiram terminologia e conceitos ainda hoje empregados nos softwares de edição de vídeo. No caso da edição do audiovisual em fitas magnéticas foi preciso editar simultaneamente a imagem e o som e cuidar dos aspectos de sincronização entre ambos, já que a imagem e o som eram gravados numa mesma fita magnética. Outro aspecto é que existiam diferenças fundamentais entre o filme fotográfico e as gravações de vídeo. Recorremos a Valter Bonasio181 (2002 p. 205- 207) para compreender este aspecto. No caso do filme, “além de ser um meio quimicamente baseado para captar frames fotográficos completos, seu movimento é criado através da ilusão da rápida exibição sucessiva dos frames.” Já no caso da gravação de imagens em fitas magnéticas o sinal de vídeo “envolve a conversão de energia ótica em sinais elétricos focando a luz sobre uma superfície fotossensível de um aparelho de imagem de uma câmera, o qual converte a luz em sinais elétricos. Pontos brilhantes da imagem original produzem uma carga maior e partes mais escuras, uma carga menor.” Portanto, “os frames de vídeo não podem ser vistos na fita ou disco porque eles estão na forma de sinais eletrônicos.” Relatos apresentados no portal do Museum of Early Editing Equipment and 180 Em 2005 os seis inventores do primeiro gravador de videotape comercial, Charles Anderson, Shelby Henderson, Alex Maxey, Ray Dolby, Fred Pfost e Charles Ginsburg foram laureados com o primeiro prêmio Lifetime Achievement Award da National Academy of Television Arts and Sciences. Disponível em http://www.vtoldboys.com Acesso em 12/10/08. 181 Valter Bonasio é especialista em Broadcast, Comunicação e Arte Eletrônica. Atuou nas redes RECORD e SBT. Consultor de produção de televisão e mídia eletrônica para universidades, produtoras e emissoras. Produtor da primeira série documentária brasileira. 135 Techniques182 demonstram que em função das influências da cinescopia, os primeiros processos de edição também envolveram cortes físicos das fitas plásticas (magnéticas). Com o propósito de possibilitar a visualização do local exato onde a fita deveria ser cortada, a empresa Smith desenvolveu o Smith Splicer, equipamento composto por uma guia para a fita magnética, uma guilhotina de corte acionada por um botão e um microscópio. Esse processo mostrou-se muito mais complicado do que o processo empregado no cinema ou na cinescopia porque, no caso, havia uma dificuldade natural de sincronizar vídeo e áudio nos mesmos espaços. Caso houvesse erros de corte a reprodução do vídeo ou do áudio seriam prejudicadas. Nesse contexto, é importante esclarecer que com a revelação da fita magnética, contrariamente ao que ocorre no cinema, o que se conseguia era ver as marcas magnéticas feitas na fita e não as imagens: Para fazer uma emenda perfeita, primeiro era preciso revelar a fita. Isso era feito de modo que com a ajuda de um microscópio a pessoa poderia ver onde fazer o corte. O ‘revelador’ é uma solução que contém partículas metálicas finas que são atraídas pelas áreas magnetizadas do videotape. Você então usava as lâminas da guilhotina para cortar a fita. Finalmente a emenda era completada com o uso de uma fita de emenda de vídeo da 3M para juntar as duas pontas183. Da citação apresentada podemos concluir a extrema dificuldade na adaptação das técnicas de corte que eram empregadas no cinema para a edição do audiovisual, afinal, como afirma Bonasio (2002 p.207): As diferenças básicas entre o vídeo e o filme estão na captação eletrônica e na fluidez constante das imagens Em vídeo a imagem se baseia no constante movimento de pistolas elétricas construindo linhas, frames e imagens que nunca são concluídas, já que a imagem em vídeo é formada por pontos aquecidos pelas pistolas elétricas para proporcionar o brilho da imagem. O vídeo confirma a teoria do filósofo francês Bérgson de que o movimento de um objeto é indivisível e que este objeto simplesmente vai de um ponto inicial continuamente para o final, num processo dinâmico numa fluidez contínua de eventos. Para resolver a dificuldade das emendas a Ampex lançou o que chamou de Electronic 182 Museu Virtual: Museu de Técnicas e http://www.sssm.com.html. Acesso em 12/11/08. 183 Equipamentos Disponível em http://www.sssm.com.html. Acesso em 02/10/08. de Edição Antigos. Disponível em 136 Editor, em 1963. Com o Electronic Editor era possível emendar sem cortar fisicamente as fitas e as edições eletrônicas podiam ser repetidas e a reprodução era tão suave quanto a reprodução da fita original. Havia, porém, um pequeno problema de ordem operacional com Electronic Editor, cuja descrição apresentada a seguir justifica o apelido ‘aperte e reze’ dado a esta tecnologia. Ele permitia fazer emendas eletronicamente, mas “[...] o operador tinha que pressionar o botão Record exatamente ½ – segundo antes que a edição tivesse que ocorrer. Um pequeno erro e a edição ocorria no ponto errado e, pior, não havia realmente um modo de corrigir o erro184”. Uma solução veio a seguir com o lançamento do painel de controle Editec MK pela Ampex, quando, pela primeira vez, através da operação do painel, foi possível editar quadro a quadro (frame) de um filme; fazer pré-visualização das entradas e do resultado previsto para a edição; acompanhar visualmente a edição; e, até mesmo, acionar equipamentos externos, como, por exemplo, iniciar a operação de um reprodutor de áudio, para incluir o som na edição. Mas ainda não foi desta vez que a solução de edição foi completa. Utilizar o Editec MK em edições complexas dava muito trabalho, era difícil operar os controles com tantos botões e chaves e faltava uma tecnologia que possibilitasse a precisão na definição dos pontos de corte. Faltava o time-code, uma forma para identificar, de modo único, cada frame presente no material da edição e cuja importância pode ser constatada a seguir. O time-code: [...] é um código de oito-dígitos que permite que você especifique com precisão os pontos de edição de vídeo e áudio. Um ponto designado de time-code (conjunto de números) não pode variar de uma sessão de edição para outra ou de uma máquina para outra. Instruções de edição tais como, ‘corte a cena onde uma pessoa sorri para a câmera’ deixam muito espaço para a interpretação – especialmente se tal pessoa tende a sorrir muito. Mas mesmo que a fita seja de quatro horas de duração, por exemplo, ‘00:01:16:12’ se refere a um ponto muito preciso dentro da duração total da fita. [...] Por ser um número de oito dígitos, o time-code pode parecer complicado. Mas, o seu significado é bastante simples. Por exemplo, 02:54:48:17, significa: 2 horas, 54 minutos, 48 segundos e 17 quadros (RON WHITTAKER)185. 184 Museu Virtual: Museu de Técnicas e Equipamentos de Edição Antigos. http://www.sssm.com/editing/museum/ampex/ampex.html Acesso em 15/04/08. 185 Disponível em: Whittaker atua como escritor de importantes revistas norte-americanas. Sua experiência profissional inclui trabalhos como colunista em jornais e revistas - escreveu vários livros e artigos - fotógrafo, produtor e diretor de televisão e locutor de rádio. É professor de radiodifusão em universidades americanas do sul da Califórnia. Citação extraída do curso Television Production do CyberCollege. http://www.cybercollege.com/tvp057.htm. Acesso em 12/11/09. 137 O time-code tornou-se um recurso essencial para referenciar, sincronizar e identificar pontos de edição e é amplamente utilizado para marcar filmes de cinema, vídeo, áudio e para sincronizar música. O uso do time-code possibilitou o corte perfeito de cenas e o seu código é gravado juntamente com os demais conteúdos do videotape. Porém, um novo problema surgiu, cada fabricante de VTR pôde inovar criando sistemas de códigos diferentes e, desse modo, inviabilizar a transferência de videotape de uma tecnologia para outra. Para evitar esse tipo de incompatibilidade foi necessária a criação de um time-code padrão, tarefa realizada pela Society of Motion Picture and Television Engineers186 ou SMPTE que definiu um conjunto de padrões para etiquetar cada frame individual de vídeo ou filme. Time-codes que aderem a esses padrões recebem o nome de SMPTE/EBU time-code. O crítico americano de televisão, cinema e cultura John Leonard, que iniciou seu trabalho na indústria de televisão em 1963 na rede Australiana GVT de televisão canal 9, em Melbourne, registra assim suas lembranças acerca início do uso de time-code em equipamentos EECO187 nas edições dos programas dessa rede Australiana: O uso mais antigo para televisão foi pela EECO, em 1966 nos EUA, utilizando um formato de dados modificado de um código científico anterior. O primeiro sistema de edição com time-code que eu usei foi fabricado pela EECO. Nessa época esses sistemas de time-code tornaram-se tão onipresentes que muitas vezes o time-code era chamado EECO-code, do mesmo modo que outra geração se referiu a aspirina como Aspro. Entretanto, nem o EECO 900 nem o RS-400 eram sistemas de edição computadorizados, como conhecemos hoje. Eram sistemas digitais dedicados e construídos com componentes discretos – não havia chip de CPU à vista. Na mesma época em que passamos a utilizar EECO a filial da Melbourne of Videotape Corp e o Channel O (canal zero, mais tarde canal 10) também compraram o sistema. Compreendo que EECO teve penetração similar em toda a Austrália [...] e a produção para televisão a cores estava começando. De fato, um dos primeiros sistemas para edição de vídeo digital somente foi introduzido no mercado em 1971 pela CMX Editing Systems, fundada em conjunto pelas 186 Associação internacional de profissionais de engenharia que trabalham na indústria de filmes e televisão (motion pictures) sediada nos Estados Unidos da América. 187 O editor EECO – 900 foi desenvolvido pela empresa americana Electronic Engineering Company of Califonia. Disponível em: http://www.screeneditors.com/forums/archive/index.php/t-21.html: Acesso em 02/02/07. 138 empresas CBS – Columbia Broadcast System e pela Memorex empresa da Imation Corporation dos Estados Unidos da América. A criação dos sistemas CMX Editing Systems só foi possível depois da invenção dos minicomputadores e do armazenamento de vídeo e áudio digitalizados em sistemas de discos magnéticos dos computadores ou Disc pack188. A CMX – acrônimo de CBS, Memorex, e eXperimental – integrou computadores digitais e editores analógicos de videotape e construiu os primeiros sistemas digitais de edição de vídeo. Os sistemas CMX foram desenhados para possibilitar tanto edição on-line, em tempo real, quanto off-line, em fase de pós-produção a partir de conteúdos de vídeo e áudio gravados em videotape. O sistema CMX 300189, um dos primeiros baseados em computadores para edição linear, permitia ao usuário controlar até 4 VTRs – Vídeo Tape Recorders para edição offline190 ou 4 entradas de sinal de vídeo para edição on-line191, além de áudio e vídeo switch192. Possibilitava também a criação de listas de decisões de edição (EDL) e sua perfuração em fita de papel, e foi o primeiro editor a usar time-code para quadros Coloridos. Conforme explica Bonasio (idem p. 283). Quando você está trabalhando em edição linear e quiser encurtar ou alongar um segmento em um programa já finalizado, você tem de mudar todos os pontos de edição que vem em seguida na fita master. Para retirar ou somar um take ou seqüência em uma fita já editada o editor de vídeo tem algumas alternativas para executar esse processo. A primeira tentativa é copiá-la para uma segunda master de edição usando a primeira como a fita fonte, mas reeditando apenas o que for necessário. É uma solução 188 Disc pack, pacote de discos ou conjunto integrado de discos, são dispositivos físicos para embalagem de diversos pratos de discos magnéticos que se comportam como unidade única. 189 Museu Virtual: Museu de Técnicas e Equipamentos de Edição http://www.sssm.com/editing/museum/ampex/ampex.html. Acesso em 15/04/08. Antigos Disponível em: 190 É útil em produções externas. As decisões de edição podem ser feitas pelo repórter/produtor usando apenas uma máquina para marcar os pontos de edição numa lista. Esse procedimento vai economizar seu tempo na sala (“ilha”) de edição. [...] o método de edição off-line oferece uma alternativa para diretores e editores refletirem nas suas edições, já que a pressão é muito menor [...] a lista de decisões é usada mais tarde, como referência para dirigir a edição final. (BONASIO, idem p. 283). 191 On-line - Em português em linha diz-se dos dispositivos periféricos que estão sob controle direto de uma unidade central de processamento em comunicação com ela. Oposto a off-line. [...] estado em que se encontra o equipamento ou terminal quando efetua transmissão ou recepção de uma mensagem que é produzida naquele momento e não registrada previamente em fita ou qualquer outro suporte, para posterior transmissão. Usa-se também sem o hífen: online. (RABAÇA e BARBOSA 2002 p. 525). 192 Dispositivo da mesa de controle, que permite selecionar um sinal de vídeo ou de som desejado dentre os sinais captados pelas diferentes câmeras, além de mesclar diferentes sinais (com efeitos de corte, fusão, cortina, split-screen etc.) e ligá-los ao circuito de transmissão. Diz-se também Corte. (RABAÇA e BARBOSA 2002, p. 01). 139 rápida, porém a qualidade técnica é afetada com uma geração a mais e, dependendo dos equipamentos utilizados poderá comprometer a qualidade do trabalho. A outra alternativa seria editar um time-code em um sistema computadorizado. Ele possui um recurso chamado rippling, que permite reprogramar um ponto de edição na fita master fazendo com que o controlador do computador automaticamente mude todos os pontos de edição seguintes no momento exato de frames. Esse método não perde uma geração, mas ainda é um processo linear, ou seja, o programa tem de ser editado e leva tempo. Um segundo sistema, o CMX 600193, de fato o primeiro sistema de edição não-linear, possibilitava a digitalização de conteúdo audiovisual em baixa resolução (preto e branco) ao utilizar minicomputadores e sistemas disc-pack para armazenamento do vídeo. Contrariamente à edição analógica linear com videotape, também conhecida como A/B roll que exige a leitura seqüencial do vídeo gravado nas fitas magnéticas de entrada, o disk pack permitiu que trechos de áudio e vídeo fossem recuperados randomicamente dos discos, ou seja, segmentos de frames podiam ser transportados dos discos para a time-line194 dos computadores de modo imediato e independentemente de sua posição no fluxo (stream) do audiovisual. Em outras palavras, o computador e o software dos CMXs utilizavam o time-code para acesso direto aos pontos de início e de fim do trecho do vídeo desejado. Uma vez digitalizados os conteúdos do videotape, o sistema CMX600 possibilitava o corte de clips195, arranjo dos clips em trilhas de time-line, inclusão de efeitos etc. Após a conclusão da edição as escolhas do editor eram gravadas em listas das decisões de edição – edit decision list – EDL. Uma vez gerada, a EDL era introduzida em um terceiro sistema – CMX200196 – que, com base nas decisões registradas, montava automaticamente a versão final do audiovisual controlando fisicamente diversos VTR – Vídeo Tape Recorders – onde estavam os videotape com os conteúdos originais (master), de modo a garantir alta qualidade no resultado final. Essa forma de edição não-linear, a partir de cópias digitais de baixa resolução, com a possibilidade da criação de EDL para posterior edição linear (A/B roll), em um segundo 193 O CMX 600 utilizava um minicomputador com sistema operacional UNIX, modelo PDP-11, fabricado pela Digital Corporation. Disponível em: http://www.sssm.com/editing/museum/ampex/ampex.html. Acesso em 15/04/08. 194 Trilhas lógicas com marcação dos tempos normalmente em horas, minutos, segundos e frames, sobre as quais são colocados os clips, de modo a demonstrar o tempo exato gasto pelo clip.A/B roll. 195 Pequenos trechos de um filme editado. 196 O CMX 200 utilizava um terminal de teletipo modelo ASR-33 para introduzir as EDLs geradas no CMX600. 140 momento e sem intervenção humana, não somente possibilitou enormes ganhos de produtividade como também resolveu o problema de qualidade típico da edição linear que a cada nova geração de saída perdia qualidade de imagem, conforme nos relata Peter Sharp, em seu artigo Da lâmina de barbear ao desktop - Uma história de edição de vídeo (2007)197: Com o advento das ilhas de edição controladas por computador o processo tornou-se menos antiquado – e muito menos arriscado. As máquinas podiam orquestrar edições baseadas em Listas de Decisões de Edição (EDL), com editor programado, usando pontos de entrada e saída. Tomando esses pontos, o controlador pode movimentar a fita para frente (rollon) ou para traz (rollback) até encontrar o ponto certo ler ou gravar um sinal na fita master. Esse processo é obtido pelo uso do time-code que é gravado em uma trilha de áudio ou misturado dentro das trilhas de vídeo. Sony e Ampex fabricaram essas ilhas, como também a CMX, e a amplitude de seu uso foi responsável pelo vídeo musical dos anos 1980. Entretanto, mesmo estando os sistemas CMX à frente das tecnologias de edição disponíveis na década de 1970 o custo dos produtos eletrônicos (minicomputadores) e magnéticos (disc pack) utilizados para a construção do sistema CMX 600 ainda eram muito elevados, e isto impossibilitava a venda destes equipamentos por valores inferiores a US$ 250.000,00. A viabilidade econômica para utilização de computadores e softwares de edição de audiovisual somente foi resolvida depois da miniaturização do hardware eletrônico, do desenvolvimento da indústria dos microprocessadores, da consolidação da indústria de software para a microinformática e da generalização do uso dos microcomputadores, potencializada pela computação gráfica e pelo desenvolvimento e popularização das GUI – Graphic User Interface. Por outro lado, os processos de gravação de áudio e vídeo continuaram sendo feitos em fita magnética, embora os carretéis de fita magnética e as próprias fitas magnéticas também tenham diminuído de tamanho e sido encapsuladas em cassetes. O primeiro Vídeo Cassete Recorder – VCR a chegar ao mercado foi o U-matic lançado pela Sony em 1971 e tornou-se um padrão de mercado para gravação e edição de vídeo em ilhas analógicas lineares, também denominadas U-matic. Com o aumento da capacidade de processamento dos microcomputadores e a construção de hardware 197 Peter Sharp é um artista contemporâneo australiano que trabalha com uma variedade de mídias. Nascido em Sydney, é bacharel em Educação Artística pelo City Art Institute de Sydney, com mestrado em Belas Artes pela Universidade de Nova Gales do Sul. Disponível em http://www.netribution.co.uk/content/view/590/304/ ou em http://www.netribution.co.uk/content/view/1236/277/ . 141 especializado na conversão de sinais analógicos para digitais, acopláveis as interfaces dos microcomputadores, a partir da década de 80, tornou-se possível ligar VCRs diretamente nas interfaces dos microcomputadores e se utilizar softwares criados para controlar esses equipamentos em edição linear, não-linear e switching. Dessa forma surgiram os sistemas híbridos de edição digital. Bonasio (2002 p. 283) explica que: A vantagem real do sistema computadorizado é sua habilidade de trabalhar off-line e, ao mesmo tempo, permitir montar um material master da mesma forma que na fita de trabalho. Esse sistema usa o time-code SMPTE - para produzir uma lista de decisões detalhadas de edição eletrônica (EDL). À medida que você vai fazendo suas edições, o computador guarda as informações em sua memória e usa a EDL finalizada como uma guia para a montagem automática final da fita máster de edição. A edição computadorizada combina as capacidades do computador com os equipamentos convencionais de produção de televisão. O computador controla os diversos VTs e os faz interagir com equipamentos auxiliares de produção, como switchers de produção e geradores de efeitos especiais [...] o sistema computadorizado pode ser usado tanto em linha (on-line) como fora de linha (off-line). [...] a comparação que se pode fazer para representar os avanços da edição não linear para edição de videoteipe é como uma máquina de escrever comum e um programa processador de texto. A edição não linear dá aos editores mais liberdade para manipulação das imagens, textos, gráficos, cortar e colar, fazer inserções em cadeia [...] ela pode incorporar transições de vídeo e efeitos especiais que antes estavam disponíveis apenas em equipamentos de última geração, misturando vários formatos, tais como NTSC e PAL. Não existe perda de qualidade em gerações múltiplas e ela é muito menos cara que os sistemas de edição em linha. O PC é capaz de funcionar como um switchers de vídeo, gerador de efeitos especiais e controlador de edição tudo combinado em uma unidade. A excepcional redução de custo das tecnologias de edição de vídeo linear e nãolinear, baseadas em microcomputadores e software especializado, possibilitou que estas atividades extrapolassem o âmbito e a aplicação nas redes de televisão centrais e se popularizassem em atividades e empresas com orçamentos significativamente menores, mantendo no mercado a qualidade broadcast praticada, até em tão, exclusivamente pelas emissoras de televisão e grandes produtoras de vídeo. Principalmente a partir da década de 90 tornaram-se centrais as empresas fornecedoras de softwares de edição como Avid Liquid, FAST Vídeo Machine, Apple Final Cut, Adobe Premiere, entre outras menos conhecidas por desenvolverem tecnologias de software livre. Por fim, a acelerada evolução da indústria do audiovisual no final do século XX pode ser, em parte, considerada como resultado do progresso das tecnologias digitais, notadamente 142 das tecnologias de software. Para Squirra198 (2000, p.1) “É reconhecido que a comunicação audiovisual compõe parte importante da cultura dos nossos tempos. [...] A comunicação com imagens em movimento é a base da estrutura e das formas de expressão mais abrangentes existentes nos dias atuais.” Neste contexto, continua este pesquisador: Sonhamos com imagens. Nossa mente sistematiza histórias com imagens. Envolvemonos nas situações oníricas, ora sendo personagens, ora testemunhas destes. Assim, um filme (que nada mais é que uma sucessão de imagens) se desenrola em nossa mente quase todas as noites (ibidem). Neste início do século XXI é fato que a revolução informática impulsionou de forma acelerada a digitalização de imagens em movimento, e este processo é realizado a partir do emprego de softwares cada vez mais especializados. A seguir apresentamos os resultados da análise comparativa entre os softwares proprietários e livres utilizados em atividades de produção de audiovisual pela UMESP e pela ESEEI de Curitiba. Produção que envolve a criação de conteúdos que podem ser vistos e ouvidos ao mesmo tempo, ou seja, compostos por elementos visuais – imagens, desenhos, gráficos etc – e sonoros – voz, música, ruído, etc. Para descrever tais resultados elaboramos algumas tabelas que explicam as variáveis funcionais dos softwares de processamento de audiovisual. A primeira variável – denominada Dados Gerais – descreve as características gerais dos softwares e pode ser útil para orientar a escolha de produtores iniciantes. Normalmente, tais informações também são apresentadas nos websites das comunidades de desenvolvedores e dos seus fabricantes, distribuidores ou nas próprias embalagens desses produtos. A segunda variável – Plataformas de Operação – indica as plataformas de sistemas operacionais nas quais os softwares podem ser operados. A terceira variável – Formatos de Alta Definição para Importação de Vídeo – diz respeito aos formatos de arquivos a partir dos quais os softwares são capazes de importar (digitalizar) os conteúdos. A quarta variável se refere aos – Formatos de Arquivos de Trabalho e Saída – se refere 198 Artigo intitulado Leitura de imagens. Capítulo do livro Sociedade midiática – Significação, mediações e exclusão, organizado por Dirceu Lopes e Eugênio Trivinho, Editora Universitária Leopoldianum, Santos, 2000, v.1, p.105-127. www.metodista.br/poscom/cientifico/publicacoes/ultimas-publicacoes/atct_topic_view?b_start:int=30. 143 aos formatos de arquivos nos quais os softwares podem gravar os resultados dos seus trabalhos.. Tabela 1. Categoria 1. Dados Gerais FABRICANTE ANO E OU MODALIDADE VERSÃO DESENVOLANALISADA VEDOR SOFTWARE TIPO DE LICENÇA Final Cut Pro Proprietário Apple Apple.com/br/fin alcutstudio/ finalcutpro Sony Vegas Proprietário Sonic Foundry/ Edição de vídeo e Sony áudio sonycreativesoft (NLE202 e realtime) Editor ware.com/ products/vegasfa de efeitos visuais mily After Effects Proprietário Adobe adobe.com/br/pr oducts/aftereffec ts Cinelerra Livre Jahshaka Livre CUSTO199 6 (2007) R$ 2.663,24200 ou R$ 3.699,00201 8.0c (2007) U$ 549,95 Editor de efeitos visuais 2D – 3D. C 5.4 (9.0) (2008) R$ 1.620,00 Heroine Virtual heroinewarrior.c om/cinelerra Editor de vídeo. Pós-produção e finalização de vídeo. 4.0 (2008) Livre The Jahshaka Project jahshaka.org Editor de efeitos visuais 2D - 3D (NLE e realtime). 2.0 RC3 para Linux203 (2006) Livre Edição e Montagem de Vídeo A tabela 1 nos mostra a existência de softwares livres suficientes para desenvolver atividades de aprendizado voltadas à produção de audiovisuais pelas escolas de comunicação. Com estes softwares é possível editar vídeos de modo não linear (NLE - non-linear editing) ou em tempo real; incluir efeitos visuais 2D e 3D; realizar tratamento de fotografia e cor; e 199 Os valores apresentados na coluna Custo (em dólar – US$ ou real U$) foram, no período de realização desta pesquisa, divulgados nos websites de cada fabricante e distribuidor. Também podiam ser consultados nas lojas e nos websites dos estabelecimentos que comercializam os produtos na cidade Curitiba, a exemplo da FNAC, pois os valores praticados por esta loja na capital paranaense são os mesmos praticados em outros pontos do Brasil. 200 O referido preço inclui também o Software Color. 201 Valor praticado pela FNAC Curitiba. 202 Non linear editing – Edição não linear. 203 2.0 para Mac. 144 integrar áudio e vídeo. Pelo fato de os softwares livres serem desenvolvidos por comunidades e não necessariamente por indústrias tradicionais de softwares, possíveis usuários têm preocupações com relação a prestação de serviços de suporte, para realização de acertos em bugs (erros em programas), bem como sobre a atualização dos softwares para implementação de novas funcionalidades, adaptação a novas tecnologias de hardware, equipamentos eletrônicos e tecnologias de interface. Na tabela 1 podemos constatar que novas versões (releases) são feitas em prazos relativamente curtos pelas comunidades de desenvolvedores, conforme também pode ser constatado nos sites oficiais dessas comunidades – citados na coluna fabricantes ou desenvolvedores da referida tabela. Portanto, como pode ser constatado na coluna ano e versão, todos os softwares livres citados têm versões atualizadas e disponíveis para produção de audiovisuais. Quanto à questão relacionada ao pagamento de licenças, também podemos constatar que por serem distribuídos com licença GPL estes softwares livres podem ser obtidos diretamente da Internet através de download sem nenhum custo. Entendemos ser interessante ressaltar que, muitas vezes, mesmo depois do pagamento da licença para aquisição os usuários de softwares proprietários são chamados a pagar pelas atualizações dos softwares que utilizam, para se beneficiar de sua evolução. Conforme pode ser verificado nos sites dos fabricantes ou fornecedores. Por fim, as informações da tabela 1 podem ajudar os usuários interessados a escolher softwares adequados para produção de produtos audiovisuais. Outras informações sobre estes softwares podem ser encontradas nos websites das comunidades de desenvolvedores. No caso dos softwares proprietários nos website dos fabricantes, nas próprias embalagens desses produtos ou junto às pessoas que comercializam tais softwares. 145 Tabela 2. Categoria 1. Plataformas de Operação SOFTWARE WINDOWS MAC OS X204 UNIX205 Final Cut Studio Não Sim Não Sony Vegas Sim Não Não After Effects Sim Sim Não Cinelerra Não Sim Sim Jahshaka Sim Sim Sim Na tabela 2 temos o sistema operacional Windows típico da plataforma PC; o sistema Mac OS X da plataforma de Workstations Macintosh, cuja capacidade de processamento vai um pouco além da dos PCs; e o sistema operacional Linux que opera em múltiplas plataformas, desde o PC e MAC até computadores de grande porte (mainframes). Conforme informam os dados da referida tabela todos os softwares proprietários trabalham quase que exclusivamente em uma outra plataforma de sistema operacional, com exceção do ambiente Unix/Linux. O software livre Cinelerra é o único que opera somente em duas plataformas, Mac OS X e Unix, enquanto o Jahshaka é portável para qualquer das três plataformas. O After Effects é o único software proprietário que opera em duas plataformas, Windows e Mac OS X, porém não opera em Unix. Os dados acima nos permitem concluir, portanto, que não existe nenhuma desvantagem para uso dos softwares livres em relação aos proprietários nessa variável – Plataformas de Operação. Ao contrário, mostra as possibilidades de portabilidade e escalabilidade dos softwares livres para edição de audiovisual. 204 Unix inclui sistemas operacionais Unix-like, tais como LINUX, AIX - IBM, HP-UX. O Mac OS X é uma versão do BSD UNIX desenvolvido na Universidade da Califórnia em Santa Barbara. 205 Unix – é nome da plataforma de sistema operacional a qual pertencem sistemas operacionais como Linux, BSD, Irix (Silicon Graphis) entre outros. 146 Tabela 3. Categoria 1. Formatos de Alta Definição para Importação de Vídeo SOFTWARE DV Standard HDV 720p 1080i DVC PRO IMX AVC XD HD CAM AVCI RAW DNx HD HD REDCODE Final Cut Pro Sim Sim Sim Sim Sim Sim Sim Sim ? Sim Sim Sony Vegas Sim Sim Sim Sim Sim Sim Sim Sim Sim Sim ? After Effects Sim Sim Sim ? Sim Sim Sim Sim Sim Sim Sim Cinelerra Sim Sim Sim Sim Sim Sim Sim Sim Sim Sim Sim Jahshaka Sim Sim Sim ? Sim Sim ? Sim Sim Sim Sim Os formatos de arquivo para importação e exportação de vídeo podem ser utilizados para representar elementos individuais (arquivos) de áudio, de vídeo, containers ou wrapper206. Os containers são formatos especiais de arquivos que permitem combinar em um mesmo arquivo elementos de áudio e vídeo, ou seja, num mesmo arquivo container podem ser gravados um arquivo no formato de áudio e outro no formato de vídeo. Isto facilita o armazenamento e o transporte simultâneo dos dois elementos. Quando os elementos são armazenados em computadores, os segmentos de um vídeo, bem como, as informações (metadados) acerca dos segmentos também são armazenados. Ao transferir os arquivos de áudio/vídeo para outros sistemas os metadados também precisam ser transferidos. O wrapper é um tipo especial de container usado em vídeo profissional para combinar os elementos – os arquivos de áudio e de vídeo – e os metadados. Diferenciar elementos (arquivos de áudio ou de vídeo) e containers pode ser uma tarefa complexa porque um mesmo nome de arquivo pode ser compartilhado por diferentes elementos e containers. Por exemplo, MPEG-2 é um codec para vídeo digital, mas, também, é um container quando um arquivo de áudio está combinado nele. Quando os arquivos são combinados dentro de um wrapper somente através da informação contida no metadado saberemos se trata-se de um elemento de vídeo, por exemplo, MPEG-2 separado de um elemento de áudio AIFF ou de um container MPEG-2 com os elementos de áudio e vídeos combinados, porque nos dois casos o arquivo terá a mesma extensão do wrapper. Outra questão importante está relacionada ao fato de as captações de vídeo e áudio 206 Disponível em: http://broadcastengineering.com/hdtv/digital_file_formats_0203/. Acesso em 13/02/09. 147 passarem a ser feitas por filmadoras que armazenam o stream (fluxo da informação dos elementos de áudio e vídeo) em formato digital Nesse processo, utilizam codecs e compressores identificados nos wrappers. Por este motivo os softwares precisam dispor de recursos capazes não somente para processar elementos de áudio e vídeo, mas, também, os metadados existentes em containers. A tabela 3 apresenta os principais formatos digitais em uso na atualidade, mas sem preocupação excessiva por identificá-los como elementos de containers ou wrappers. Alguns formatos, sinalizados com um ponto de interrogação (?), ainda não podem ser considerados adequados para executar tal atividade, pois não encontramos pesquisas que nos permitam considerá-los confiáveis e assim recomendá-los. A seguir, com o objetivo de facilitar a compreensão do leitor, apresentamos o significado de tais formatos, considerados suficientes para a realização dos processos de edição. O primeiro formato – DV Standard – se refere a fluxos (stream) de áudio e vídeos digitais (DV) captados diretamente de equipamentos de filmagem (em tempo real) ou de VCRs (video cassete records), através de algum tipo de interface tal como iLink (fireware), podem ser armazenados diretamente em arquivos de computador. Caso não utilizem codecs de compressão são armazenados em estado bruto (raw, uncompressed) em arquivos com formatos .dv ou .dif, na medida em que os dados são recebidos. O conteúdo DV também pode ser gravado em arquivo container207 AVI – Audio Video Interleave. Outros containers podem ser utilizados para armazenar o formato DV, os mais conhecidos são os containers QuickTime player da Apple e o VLC media player208. Em todos os casos os metadados do DV são preservados. O formato HDV – High Definition Vídeo – foi desenvolvido pelas empresas JVC e Sony para oferecer uma linha de evolução (upgrade) para gravação em alta definição com custos compatíveis aos do DV Standard. Em setembro de 2003 as duas empresas se juntaram às empresas Canon e Sharp e formaram o Consórcio HDV. As duas principais versões de HDV são HDV720p (para reprodução em dispositivos de plasma) e HDV1080i (para reprodução em dispositivos LCD). Utiliza compressores MPGE-2 para vídeo e MPGE-1 áudio layer II, PCM para áudio. Normalmente utiliza a extensão .m2t. 207 O container AVI permite o uso de vários codecs em sua extensão .AVI. Os codecs mais conhecidos são DivX, XviD, 3ivx, AC3 e OGG. 208 O VLC media player é um reprodutor (player) e servidor de streaming multiplataforma que suporta vários formatos de áudio e vídeo, dentre os quais MPEG-1, MPEG-2, MPEG-4, DivX, mp3, ogg, DVDs, VCDs e diversos protocolos de streaming (fluxo de sinal de áudio ou vídeo). 148 Os formatos DVCAM da Sony e DVCPRO da Panasonic são variantes do padrão DV standard e voltados para uso profissional de suas filmadoras e VCRs. IMX é uma evolução do formato Digital Betacam, desenvolvido pela Sony em 2001. Usa o sistema de compressão MPEG-2, porém em bitrate (velocidade) superior ao do Betacam SX. Possibilitam a gravação de sinal de vídeo, oito canais de áudio e trilha de timecode. Os Video Tape Records – VTRs IMX da Sony permitem utilizar interfaces de comunicação SDTI - Serial Data Transport Interface para importação de segmentos de elementos de áudio e vídeo e metadados de time-code e controle remoto dos VTRs. A especificação AVC HD – Advanced Vídeo Codec High Definition – é uma definição de formato de arquivo para filmadoras de mão sem fita. Permite gravação em definições standard e de alta definição (HD), inclusive 720p, 1080i e 1080p. Utiliza codec MPGE-4 AVC/H264. O formato Sony XDCAM permite gravação de arquivos MPEG IMX, DVCAM e stream com baixa resolução em empacotadores MXF – Material eXchange Format, um formato aberto de arquivo projetado para intercâmbio de áudio e vídeo associado aos dados e metadados que os definem – e gravados no disco Sony ProDATA – mídia ótica similar ao disco ótico Blu-ray Disc. O formato AVC-Intra (AVCI) foi introduzido pela Panasonic com um novo codec HD (High definition) baseado no esquema de compressão MPEG-4 AVC/H.264 que busca eficiência três vezes superior ao MPEG-2. Isto posto, pode-se perceber que tanto os softwares proprietários de edição de vídeo como os softwares livres são capazes de importar conteúdos de equipamentos profissionais (filmadoras, VTRs e VCRs) compostos por elementos e metadados. O formato RAWHD é o mesmo HDV, mas importado sem compressão (uncompressed). O DNX HD é um codec desenvolvido pela Avid para compressão com perdas (LOSSY) e que utiliza pouco espaço e banda para comunicação. É normalmente armazenado no container MXF, mas também pode ser armazenado nos containers quicktime da Apple ou no container AVI da Microsoft. Também é suportado pelo Projeto Open Source FFMPGE utilizado pelos editores de software livre. Trata-se de um codec em conformidade com o padrão VC3 da SMPTE. A implantação do codec VC3 foi feita com apoio da BBC Research209 e concluída no ano de 2007. 209 BBC Research – website - www.bccresearch.com/ 149 O codec redcode foi desenvolvido pelo fabricante de câmeras Red Digital Cinema Camera Company.210 Este codec é capaz de tratar resoluções de até 4.096 pixels por 2.304 pixels e gravar diretamente em memória flash211 ou discos rígidos Em resumo quanto aos recursos de edição, os softwares proprietários e livres se assemelham bastante. Possibilitam a edição não destrutiva, playback, em tela cheia e permitem a colocação de elementos de áudio e vídeo em múltiplas trilhas. Possuem mostrador de time-code extensivo a vídeo e áudio. Tabela 4. Categoria 1. Formatos de Arquivos de Trabalho e Saída SOFTWARE DVD HDV OPEN-EXR QUICKTIME WINDOWS MEDIA MPEG4 Final-Cut Pro Sim Sim Não Sim Sim Sim Sony Vegas Sim Sim (Blu-ray) Não Sim Sim Sim After Effects Sim Sim Sim Sim Sim Sim Cinelerra Sim Sim Sim Sim Sim Sim Jahshaka Sim Sim Sim Sim Sim Sim Os formatos de arquivo de trabalho e saída de vídeo também podem ser utilizados para representar elementos de áudio e vídeo, containers ou wrappers. Os dados da tabela 4 nos mostram que tanto os softwares proprietários e livres são capazes de trabalhar com quase todos os formatos comparados. Uma exceção é que os editores Final-Cut Pro e Sony Vegas não trabalham com o formato Open EXR, apesar de sua importância para o vídeo e o cinema. O Open EXR é um formato de arquivo para imagens dinâmicas criado pela Indústria Light and Magic (ILM) empresa da Lucasfilm (George Lucas) que foi liberado como um padrão aberto, juntamente com um conjunto de ferramentas de softwares criado pela mesma entidade e distribuído com licença de free software, similar a BSD212. Suporta compressão 210 Red Digital Cinema Camera Company. Disponível em: www.red.com. 211 Memória flash – memória de computador não volátil que pode ser apagada e reprogramada eletronicamente. 212 A licença BSD é uma licença de código aberto utilizada nos sistemas operacionais do tipo Berkeley Software Distribution, da Universidade de Berkeley na Califórnia. 150 com e sem perda de grandes volumes de dados. Introduz o conceito de formato multiresolução e canais arbitrários que eliminam a necessidade de separação das informações em arquivos distintos. Esta tecnologia está portada para ambientes MAC OSX, Windows e Linux. E pode ser portada para qualquer plataforma de sistema operacional que suporte a linguagem de programação C++213. Os demais formatos foram desenvolvidos para atender a necessidades específicas de tecnologias conforme dito a seguir. DVD e HDV – os formatos de arquivo DVD – Digital Video Disc e HDV – High Definition Disc estão na tabela para representar as possibilidades dos softwares acionarem diretamente as unidades de gravação capazes de gravar esses dois tipos de formatos em mídias que os suportam, hard disc, DVD, fita magnética etc. O Quick-Time é uma especificação de formato de arquivo desenvolvida pela Apple. Trata-se de um container multimídia, multitrilha para armazenamento de áudio, vídeo, efeitos e textos, por exemplo, subtítulos. É identificado pela extensão .mov. Suporta inúmeros formatos de arquivos e tem por base o padrão MPGE4 (.mp4). Windows Media é uma especificação de formato de container, proprietário da Microsoft, contém a especificação dos vídeos Windows Media Vídeo (wmv) e VC1 (nome informal para o padrão de codec de vídeo SMPTE 421M, que se tornou um padrão para HDDVD e discos BLURAY) e do Windows Mídia Áudio, tecnologia de compressão de áudio, de propriedade da Microsoft. O padrão MPEG4, definido pela ISO/IEC Moving Picture Expercts Group (MPGE), especifica processos de compressão com e sem perda para vídeo, áudio e imagens. É utilizado em inúmeros formatos e especificações na indústria. Para finalizar, podemos ver que produções desenvolvidas com softwares livres podem ser gravadas em todos os formatos descritos e, desse modo, favorecer a transferência de conteúdos entre eles. 213 C++ - em português se pronuncia "cê mais mais" ou /sê/ /máys/ /máys/. C++ é uma linguagem de programação de alto nível, ou seja, código de máquina de compreensão próxima à linguagem humana. 151 4.2. COMPARAÇÃO ENTRE SOFTWARES DE PROCESSAMENTO DIGITAL DE SOM Uma pesquisa no Google, utilizando as palavras processamento, áudio, edição, som, voz e digital, é suficiente para nos darmos conta das centenas de instrumentos, equipamentos, sistemas computadorizados e softwares disponíveis para processamento de som. Isso nos leva a perguntar qual será o motivo para tanta variedade de produtos, tantas diferenças de preços e até mesmo como será possível compará-los. Será que existe uma forma ou um método para classificá-los em função dos tipos de operações que realizam com o som, do modo como executam tais operações ou da qualidade do trabalho realizado? Será que existe um modo de classificação que dê conta de realizar tal tarefa? Com base em análise dos resultados da pesquisa no Google, consideramos que é impossível classificar ou comparar softwares para processamento de som sem uma melhor definição de conceitos importantes relacionados ao assunto. Conceitos muitas vezes desconhecidos e aparentemente de difícil compreensão ou complexos, mas necessários. Neste capítulo apresentamos alguns conceitos importantes e que caracterizam os softwares para processamento de áudio. Conscientes da grande variedade de tecnologias de softwares disponíveis para executar operações de processamento de áudio cada vez mais complexas e de qualidade, limitamos a análise comparativa aos softwares proprietários e livres utilizados na UMESP e ESEEI. Para conhecer e compreender conceitos relacionados com softwares para processamento de áudio é necessário primeiro compreender alguns conceitos que dizem respeito ao som. Recorremos a Robert Jourdain214 que no seu livro intitulado Música, Cérebro e Êxtase: como a música captura nossa imaginação (1998, 25) explica o que é o som. Pergunta: quantos bêbados são necessários para fazer um martíni? Resposta: um para segurar a coqueteleira e não importa quantos outros para sacudi-lo. Eles fazem uma fila por trás, cada qual agarrando rigidamente os ombros do próximo, com o bêbado na frente segurando a coqueteleira com o martíni. Então, o bêbado que está atrás começa 214 O norte-americano Jourdain é pianista profissional e compositor que há 20 anos trabalha com inteligência artificial. Dedica-se ao desenvolvimento de esquemas conceituais para representação do conhecimento. Criador de software sintetizador de música, feito para representação gráfica e manipulação dos conceitos musicais. É também autor de cinco livros sobre computação. 152 a trabalhar sacudindo o seu vizinho, cujos passivos banboleios são passados para o próximo na fila; este, por sua vez, sacode o bêbado à sua frente, e assim por diante, até que a coqueteleira com o martíni é agitada. Se estivesse ao lado, você veria os empurrões e puxões ondulando ao longo da fila. É assim que música viaja para nossos ouvidos, com o sujeito de trás no papel de objeto vibrador e a coqueteleira e o martíni no papel do tímpano. Todos os bêbados que estão nas posições intermediárias são moléculas, em geral de ar, agitando-se para frente e para trás, enquanto captam uma pulsação de energia que vem pelo seu caminho e passam-na para outras moléculas recomeçando o ciclo em seguida. Portanto, o som é o resultado da agitação de moléculas produzidas por ruídos naturais, instrumentos musicais e voz que provocam vibrações e atingem nossos tímpanos. Mas como podem, por exemplo, todos os sons dos instrumentos de uma orquestra movimentar-se simultaneamente através do ar? Indaga o pesquisador. Imagine novamente a fileira de bêbados, mas, agora, com várias pessoas sacudindo o infeliz sujeito que está na retaguarda. Uma delas o sacode duas vezes por segundo; outra, três vezes; e ainda outra cinco. Seus movimentos se combinam de várias maneiras. Em alguns momentos, todos empurram ou puxam ao mesmo tempo, transmitindo um forte impulso à fila. Com mais frequência, algumas puxam e outras empurram, de modo que seus esforços em parte se cancelam. Num dado instante, um forte empurrão combinado com um fraco puxão resulta em apenas um empurrãozinho. Um instante depois, empurram exatamente na mesma medida em que puxam e não há movimento algum. Todas as sacudidas se somam formando um complexo modelo temporal que se agita em direção à coqueteleira com o martíni [...] esse padrão de empurrões e puxões é passado de uma molécula para outra até chegar aos tímpanos, que esperam, fazendo com que vibrem da mesma maneira. Um trombone explode ao lado da trombeta e o padrão composto por suas muitas vibrações é incorporado aos movimentos da mesma molécula de ar que a trombeta excitou. Na verdade, cada molécula de ar no salão de concertos soma as vibrações de todos os instrumentos, numa dança frenética (JOURDAIN, 1998, p.25) As explicações de Jourdain podem nos levar a concluir que ouvimos o barulho de sons naturais tais como o da chuva, do trovão ou da voz de uma pessoa porque são vibrações no ar. O mesmo fenômeno sonoro parece ocorrer quando ouvimos sons artificiais, como um discurso ou uma música através de dispositivos como o auto-falante ou receptor de ondas de rádio. Sons também podem ser gerados por instrumentos musicais de teclas, de cordas, de sopro, de percussão etc. 153 No livro Multimídia: Conceitos e Aplicações (2000) Wilson de Pádua Paula Filho215 adianta que as vibrações sonoras geradoras do som podem ser representadas matematicamente como ondas senoidais. A onda senoidal é particularmente importante graças a um fato matemático fundamental: em geral, formas complexas de vibração sonora podem ser sintetizadas como combinação de ondas senoidais. [...] Uma onda senóide soa como uma nota musical muito simples e de sonoridade pobre. Ela é, entretanto, um conceito básico para a compreensão dos sons de voz, música e ruídos. Por isso, a decomposição de um sinal em funções senoidais é um princípio fundamental para a análise de sons complexos (PAULA FILHO idem p. 209-210). Além das propriedades físicas que podem ser representadas matematicamente, o som também possui propriedades perceptuais, determinadas pelas propriedades físicas das ondas senoidais. Sobre esta questão, Paula Filho (2000 p. 210) esclarece que: Os parâmetros perceptuais do som representam as propriedades sonoras, tal como podem ser percebidas pelo sentido da audição. Na onda senoidal, já podemos observar duas das propriedades perceptuais básicas do som: a intensidade e a altura. Elas correspondem às propriedades físicas, embora não de forma direta ou proporcional. Os parâmetros mais utilizados são os seguintes: Intensidade: qualidade que distingue sons fortes (de grande volume) de sons fracos (de pequeno volume). Altura: qualidade que distingue sons graves de agudos. Timbre: qualidade que distingue sons da mesma intensidade e altura, quando emitidos por instrumentos musicais. A fase [...] é uma propriedade física importante, mas normalmente não tem uma propriedade perceptual associada. Incluem-se às vezes também, entre as propriedades perceptuais, aquelas ligadas com a sensação de localização espacial do som. Portanto, a partir da leitura da obra de Paula Filho entendemos que existe uma ralação direta entre as propriedades físicas das ondas senoidais e as propriedades perceptuais dos sons representados. Assim, a intensidade (propriedade física da onda senóide) representa a 215 Wilson de Padua Paula Filho possui graduação em Engenharia Mecânica pelo Instituto Tecnológico de Aeronáutica (1968), mestrado em Engenharia Elétrica pela Universidade de São Paulo (1971) e doutorado em Engenharia Elétrica pela Universidade de São Paulo (1975). Tem experiência na área de Ciência da Computação, com ênfase em Metodologia e Técnicas da Computação. 154 percepção da amplitude da vibração sonora sentida como potência do sinal ou volume do som que ouvimos, normalmente medido em decibéis (dB). Rabaça e Barbosa (2001, p. 210) explicam: [...] um decibel é uma unidade de medida relativa entre dois níveis de potência. Embora possa ser empregado para medir qualquer forma de energia (como luz ou o calor) o decibel (décima parte do bel) é usado com mais frequência para exprimir diferenças de níveis em acústica e eletrônica. Para medir o som, costuma-se adotar como ponto de referência (pois o decibel é apenas uma medida relativa) o limiar da audição, isto é, a mínima potência acústica perceptível ao ouvido humano normal. O termo decibel é uma homenagem a Alexander Graham Bell. A frequência indica a quantidade de ocorrência de ondas em um determinado período de tempo. É medida em hertz (Hz) ou ciclos por segundo e corresponde ao que percebemos como altura ou pitch. Percebemos os sons de menor altura (menor freqüência) como mais graves e os de maior altura (maior freqüência) como mais agudos. Conforme Rabaça e Barbosa (2001, p. 210) hertz é uma unidade de medida de frequência equivalente a um ciclo por segundo. Numa frequência de 80, por exemplo, a corrente oscila (muda de direção) 80 vezes por segundo. A fase representa, de acordo com Paula Filho (idem, p. 211-214), a diferença (atraso) em tempo do sinal senoidal de uma onda com relação ao tempo das outras ondas, que juntas compõem o som complexo. O timbre (propriedade de percepção dependente de sinais mais complexos) nos permite diferenciar notas de instrumentos diferentes a partir de aspectos físicos de domínios de frequência216 e de tempo217. Assim, “[...] Cada combinação suficientemente diferente de freqüências, amplitude e fases será percebida pelo ouvido como um timbre diferente.” Uma característica comum aos sons produzidos naturalmente ou artificialmente é que são eventos cuja existência depende da manutenção de suas vibração no ar. Como esclarece 216 Domínio de frequência é a maneira como o sinal pode ser decomposto em sinais periódicos elementares. 217 Domínio de tempo é a forma como a amplitude do sinal varia com o tempo. 155 David M. Rubin218 no livro O Músico Desktop (1996, p. 17): À medida que a onda de som se movimenta para longe da fonte (espalhando-se em todas as direções), ela perde mais e mais energia, e as mudanças de pressão tornam-se menores. Em outras palavras, o som fica cada vez mais fraco quanto mais ele se afasta da fonte até eventualmente sumir por completo. Se não ocorrerem mudanças na pressão do ar circundante, então percebemos a condição como silêncio. O som pode adotar várias formas de representação, sinal acústico no ar, sinal elétrico no auto-falante ou sinal digital em arquivo de computador, em função dos dispositivos utilizados para representá-los. Os dispositivos de representação podem ser equipamentos ou sistemas analógicos ou sistemas digitais, e a principal diferença entre eles é que, conforme Paula Filho (idem p. 224): Os dispositivos e sistemas analógicos representam o sinal sonoro, que é um sinal de pressão mecânica, por um sinal magnético ou elétrico [...]. Amplificadores e gravadores de fita cassete convencional são exemplos de dispositivos analógicos. São exemplos de sistemas digitais de som: as redes telefônicas digitais; os equipamentos a disco laser (CDs); os equipamentos de fita cassete digital (DATs); os computadores dotados de interfaces de som. As vibrações sonoras, ao exercerem pressão mecânica sobre o meio em que se propagam formam ondas de frequência e amplitude variadas. O ouvido humano é capaz de perceber somente uma pequena variação dessas ondas sonoras, e a essa variação audível219 pelo ouvido humano denominamos áudio. Neste estudo utilizamos os termos som e áudio como sinônimos. Para converter sinal acústico do som – vibrações sonoras – em sinal elétrico são utilizados transdutores de sinal. “Os transdutores de sinal elétrico para acústico são os auto-falantes, e os transdutores de sinal acústico para sinal elétrico são os microfones”. (PAULA FILHO, idem, p. 224). 218 Rubin é mestre em Teoria da Composição e Música e especialista em música digital. Tem seu próprio estúdio de música MIDI onde, utilizando computador, compõe para filmes, vídeos e multimídia. É autor de The Audible Macintosh e co-autor de The Audible PC. 219 A faixa normal de audição estende-se de 0 dB até além 120 dB – um nível normalmente chamado linear da dor. (Rabaça e Barbosa 2001 p. 210). 156 A conversão do sinal analógico, que é a representação elétrica do som acústico, para o sinal digital, que representa o sinal elétrico do som por meio de sequências de números (zeros e uns), é realizada pela operação de conversão analógico-digital, ou conversão A/D. A conversão digital-analógica (conversão D/A) realiza o processo inverso. Para as duas operações é necessário o uso de hardware e software especializados, de modo que dispositivos eletrônicos possam ser conectados fisicamente ao hardware básico220 do computador para possibilitar gravação de áudio. A distinção entre os processos de gravação analógica e digital de áudio é apresentada por Rubin (idem, 339): [...] o som ocorre quando um objeto vibrando define padrões de pressão no ar chamados ondas de som. Para captar essas ondas de som numa gravação, você pode usar dois métodos – analógico ou digital. [...] O processo da gravação análoga funciona assim: as ondas de som excitando um microfone fazem com que o pequeno diafragma que há dentro do microfone vibre [...]. O diafragma vibrando produz um sinal elétrico com voltagens que estão sempre variando. Essas flutuações de voltagem correspondem às vibrações do diafragma, as quais, por sua vez, correspondem às vibrações da onda de som. A gravação digital começa como a análoga. [...]. As coisas mudam rápido, porém, à medida que o gravador digital transforma as voltagens flutuantes numa série de números binários (1’s e 0’s). Ele faz isso com um circuito eletrônico chamado conversor análogo-digital (conversor A/D ou ADC). A diferença entre a gravação analógica do sinal acústico e o processamento digital do sinal elétrico pode ser mais bem percebida nos exemplos apresentados por Robert Lindstrom na obra: Guia business week para apresentações em multimídia (1995, p. 305): Para fazer a gravação de um som, um dispositivo eletrônico converte as ondas de som dentro de alterações correspondentes em níveis de voltagem elétrica. [...] Os níveis de voltagem, relacionados com o sinal analógico, são depois usados para criar um padrão em uma fita magnética (ou talhes em uma gravação). Para a reprodução, o sinal é lido da fita por cabeças de reprodução amplificando e passado aos auto-falantes. A gravação digital, segue explicando Lindstrom (1995, p. 307), “[...] faz a mesma coisa para som que faz para texto ou qualquer tipo de informação. Ela converte a informação 220 Composto por motherboard (placa mãe), processador, memória, gabinete, teclado, mouse e etc caso trate-se de um microcomputador. 157 em combinações numéricas que podem ser armazenadas, recuperadas e manipuladas por um computador.” Portanto, os hardwares e softwares especializados processam as representações de som utilizando tanto sinal elétrico como digital, ou seja, são capazes de converter o áudio analógico – reproduzido por um amplificador ou gravador de fita cassete, por exemplo – em áudio digital, ou obter o áudio digital diretamente de um disco laser (CD) onde estão gravadas as combinações numéricas representativas do som acústico. Com outras palavras, o som acústico gerado no ambiente é introduzido (input) nos computadores através de equipamentos eletrônicos de som, que funcionam como transdutores. Uma vez obtido o áudio analógico, processadores digitais e softwares realizam a operação de conversão A/D e geram áudio digital, para armazenamento em arquivos de computador ou reprodução (output) no ambiente externo, através de auto-falantes. Assim sendo, nesta pesquisa a representação digital do áudio gravada em arquivos de computador é denominada áudio digital. O armazenamento dos arquivos de áudio digital é feito em mídia digital, por exemplo, em fita DAT (digital audio tape), disco magnético221 ou em mídia ótica (CD). Os arquivos digitais podem, segundo Lindstrom (1995, p. 309) ser gravados com diversos formatos e apresentam vantagens sobre os arquivos analógicos porque são mais imunes aos ruídos e não perdem qualidade nas reproduções. “O meio magnético passando sobre a cabeça do aparelho de reprodução/gravação de fita produz um assobio audível que pode prejudicar a qualidade do som. Gravações digitais não adicionam assobio durante o armazenamento ou a reprodução.” Quanto à manutenção da qualidade do áudio digital nas reproduções, continua a explicar Lindstrom (idem, p. 310), “quando o som analógico é transferido de uma fita para outra, um pouco da informação é perdida e algum som estranho é adicionado. Quanto mais toques ou transferências mais o som degrada. A informação de som digital, se adequadamente manuseada, pode ser transferida de um meio digital para outro sem estragar.” Conforme Paula Filho (2000, p. 209) o processo de digitalização pressupõe a realização de operações de codificação – criação de códigos binários para representar as propriedades do áudio analógico introduzido no computador através de alguma interface – e de decodificação – que realiza a operação inversa e transforma o áudio digital novamente em 221 Um disquete é um exemplo de um disco de mídia magnética removível, para armazenamento de dados. Um disquete é um dispositivo que possibilita acesso randômico a conteúdos. 158 analógico. Denominamos codec, acrônimo de codificação e decodificação aos softwares que realizam essas operações de conversão A/D e D/A. A operação de codec de áudio, portanto, consiste em determinar quais propriedades físicas e sensoriais de uma amostra de áudio serão registradas, de que forma e em que locais do arquivo, de modo que a informação numérica possa ser utilizada para reconstituir as propriedades originais do áudio. Os arquivos que contém o áudio digital, codificados pelos diversos codecs desenvolvidos pela indústria, são identificados por meio de formatos e representados por extensões (sufixos precedidos de “.”) acrescidas ao nome do arquivo, tais como .mp3 ou .WAV. 222 Existe uma enorme quantidade de formatos de arquivos digitais de áudio, criados com o passar dos anos de acordo com o desenvolvimento das tecnologias de hardware e software, quase sempre visando melhorar a qualidade do áudio armazenado. Em alguns formatos de arquivos os códigos representativos do áudio são gravados em estado bruto (RAW). Em outros são usados programas de compressão de códigos binários representativos porque “embora o fluxo de informação de áudio seja relativamente baixo se comparado com os de vídeo, há situações em que existe a necessidade de compressão do sinal de áudio digital [...] principalmente quando se transmite material musical de alta qualidade.” (PAULA FILHO 2000, p. 241). Alguns arquivos, chamados containers, podem armazenar segmentos de áudio codificados sem que seja necessário utilizar sempre um mesmo codec. Nesses casos, as extensões dos arquivos não identificam o codec empregado e, por esse motivo, a informação relativa ao codec que foi utilizado nessa gravação específica (e a do compressor) é gravada no próprio arquivo, juntamente com o áudio. Certos softwares são capazes de utilizar “pedaços” de código de outros programas de computador e conectá-los logicamente aos programas de processamento de arquivos, para realizar determinadas tarefas. Esses pedaços de software são conhecidos como plug-ins. É bastante comum o uso dos mesmos plug-ins especializados por uma infinidade de 222 .mp3 – abrev. de MPEG - Formato de áudio MPEG que permite armazenar músicas e arquivos de áudio no computador em um espaço relativamente pequeno e mantendo a qualidade do som. Os programas que tocam arquivos de som no formato MP3 mais populares são Winamp, RealJukebox, iTunes e XMMS. Produzem som com alta qualidade filtrando informações supérfluas do áudio original, o que resulta em arquivo menor com uma perda imperceptível de qualidade. O MPEG (moving pictures expert group ou grupo de especialistas em imagem em movimento) é um grupo formado pela ISO (International Standards Organization) e pela IEC (International Electro-Thecnical Comission) responsáveis pelo desenvolvimento de padrões de vídeo e áudio digital chamados genericamente de MPEG. WAVE - arquivo de som padrão do Windows. Todos os sons que o Windows produz, como ao iniciar e enviar mensagens de erro são arquivos wave. Estes arquivos têm extensão.wav e são cerca de 12 vezes maior do que um arquivo MP3. (Rabaça e Barbosa 2002 p. 500). 159 softwares de diferentes fabricantes principalmente para possibilitar a portabilidade de conteúdos processados entre softwares e equipamentos. Ou seja, para permitir que um arquivo de áudio gravado em determinado software seja processado por outro, sem erro. Outro uso comum de plug-ins é para possibilitar que codecs e compressores possam ser embutidos em containers. Desse modo, softwares que processam conteúdo em containers de áudio no formato WAV ou de vídeo nos formatos AVI ou Quicktime223, podem processar os mesmos codecs e ou compressores que foram utilizados na criação dos arquivos, no momento de seu uso. Lindstrom (idem, p. 318-319) explica que “a compressão trabalha usando algoritmo224 para interpretar matematicamente os dados e reduzir o valor de código necessário para representar a informação.” Uma vantagem do áudio digital, gravado em disco magnético ou ótico, com relação ao analógico, também apontada por Lindstrom (idem, p. 309), está na possibilidade de acesso randômico ou aleatório para leitura ou gravação de segmentos de áudio quando se usa sistemas computadorizados. O som armazenado digitalmente por meio de disco magnético ou disco ótico permite que você vá para frente ou para trás para a seleção desejada, dentro de milhares ou milhões de um segundo. Localizar uma seleção ou ponto inicial em uma fita de áudio, por outro lado, exige avançar ou retroceder as fitas fisicamente. [...] com a gravação digital você pode selecionar um local no disco tão preciso como uma amostra individual. Isso significa precisão de cerca de 20 microssegundos [...]. Raramente alguma produção precisaria deste grau de precisão, mas um efeito de som que ocorre até meio segundo mais cedo ou mais tarde é percebido pelo público. Estas vantagens do áudio digital, adicionadas com software, tornam a tecnologia digital um poderoso instrumento para o processamento de áudio, como observou Paula Filho (idem p. 228). Pode-se simular um estúdio de som com operações de cortar, colar, atenuar, realçar e mixar segmentos de sinal de áudio, trabalhando com um grande número de trilhas. Pode-se armazenar informação de redundância junto com o áudio, permitindo a 223 QuickTime ou QT´ é uma estrutura de suporte (framework) multimídia capaz de manipular formatos de vídeo digital, mídia clips, som, texto, animação, música e vários outros tipos de imagens panorâmicas interativas. A tecnologia QuickTime foi desenvolvida pela Apple, Inc. 224 Algoritmo é uma sequência finita de instruções ou códigos de programação executados por computadores. 160 detecção e recuperação do som. O som digital pode ser armazenado, recuperado e transmitido como qualquer arquivo, e combinado com outros tipos de mídia. Além das operações típicas de um estúdio de som, nos computadores também é possível criar o áudio diretamente no interior dos computadores225. Em qualquer dos casos, para o processamento digital de áudio pelos computadores de mesa (desktop) é necessário, além do próprio computador e softwares especializados, um conjunto de dispositivos adicionais de hardware para possibilitar a conexão de aparelhos de áudio analógicos ou digitais ao computador. Este conjunto de dispositivos de hardware de conexão é chamado de interface. Rabaça e Barbosa (2002, p. 393) explicam que interface é a “união física e geralmente também lógica entre dois sistemas que não poderiam ser conectados diretamente.” Ou seja, as interfaces podem ser implantadas através de placas especializadas conectadas nas placas motherboard (placa mãe) dos microcomputadores ou em dispositivo externo para unir sistemas de áudio analógicos aos digitais. Com essa finalidade a indústria da eletrônica desenvolveu também dispositivos para conexão dos aparelhos de som nas interfaces dos microcomputadores, normalmente chamados de portas, tais como plug (tomada) e jack (pino). Algumas destas portas permitem exclusivamente a passagem do fluxo elétrico representativo de freqüência sonora, ou seja, ondas sonoras analógicas – como é o caso das placas controladoras dos CD-ROM. Outras, mais sofisticadas e caras, como é o caso da conexão digital chamada firewire, permitem não somente a passagem do áudio, mas também a troca de mensagens (informações) para controle e sincronização entre os equipamentos de áudio externos e o software no computador. Raul Fernando Weber226 explica no livro Arquitetura de Computadores Pessoais (2008, p. 240) que a tecnologia firewire, cujo nome foi popularizado pela Apple e chamada de i.Link pela Sony, é uma interface serial de alta 225 Por exemplo, softwares e hardware especializados possibilitam o sequenciamento de notas musicais em partituras virtuais e a partir dessas notas sintetizadores físicos ou virtuais reproduzem o som das notas. 226 Engenheiro Elétrico - Eletrônica pela Universidade Federal do Rio Grande do Sul (1976) Engenheiro Elétrico - Telecomunicações pela Universidade Federal do Rio Grande do Sul (1977), com mestrado em Ciências da Computação pela Universidade Federal do Rio Grande do Sul (1980) e doutorado em Institut Für Informatik IV pela Universitat Karlsruhe (1986). http://buscatextual.cnpq.br/buscatextual/visualizacv.jsp?id=K4787275T3 161 velocidade baseada na norma 1394227 do IEEE – Institute of Electrical and Electronic Engineers. “Desenvolvido originalmente para conectar discos magnéticos, CDs e DVDs, o IEEE1394 também é bastante utilizado para câmeras digitais e camcorders228.” O controle das operações das interfaces e dispositivos de conexão (conectores) é realizado por softwares especializados chamados de drivers. Ou seja, há uma exigência por drivers229 para midiatizar a comunicação entre as interfaces e o sistema operacional das máquinas e essa exigência cria uma dependência entre as interfaces e os sistemas operacionais, o que muitas vezes impede que determinadas interfaces possam operar de forma idêntica ou mesmo parcialmente em computadores e sistemas operacionais diferentes. Isto significa que existem placas desenhadas para operar em hardwares diferentes e cujos drivers estão exclusivamente vinculados a determinados sistemas operacionais. Por exemplo, podemos ter uma placa de áudio que funciona em PC (Personal Computer), mas cujo driver só funciona no sistema operacional Windows. A complexidade de se fabricar softwares generalistas para tipos variados de processamento de áudio levou seus produtores a criarem produtos especializados na realização de determinadas operações e que podem ser classificadas em três modalidades. A primeira é a dos softwares editores de áudio digital, especializados na manipulação de segmentos de áudio armazenados em arquivos digitais. Os editores de áudio são programas que permitem realizar operações simples de processamento no domínio do tempo sobre arquivos de áudio. Isto inclui operações de recorte, cópia e colagem, visualização gráfica, conversão de arquivos e efeitos simples como amplificação e eco. [...] Os editores profissionais de áudio, como o Sound Forge, [...] permitem realizar grande variedade de operações de processamento nos domínios do tempo e de freqüência. [...] (PAULA FILHO idem, p. 241). Os editores de áudio são normalmente utilizados em regime off-line, em atividades de pós-produção e importam os segmentos de áudio de arquivos já digitalizados para múltiplas trilhas cronometradas (timelines). Alguns possuem recursos para digitalização de 227 Norma que define o barramento P1394, um barramento serial de alta velocidade e que suporta atualmente três velocidades: 100Mbps, 200Mpbs ou 400Mbps (12,5 MBytes/s, 25 MBytes/s ou 50 MBytes/s). Futuras extensões à norma propõem velocidades de 800 Mbps e 1 Gbps (100 MBytes/s e 125 MBytes/s. (WEBER, idem ibidem). 228 229 Filmadoras. Softwares responsáveis pela interligação do sistema operacional com o hardware do computador. Revista Coleção Guia Fácil Informática – edição Especial no. 009 – Nov/2007. 162 áudio a partir de dispositivos de reprodução analógicos. Outros dispõem de recursos para controle de time-code. Em certos casos os editores contemplam ainda capacidade para aplicação de efeitos sonoros. Lindstrom (idem, p. 234) ressalta que: Os efeitos sonoros são as marcas de pontuação nos parágrafos de experiência: os sons que alguma coisa faz os ruídos de fundo que sempre existem, as interferências audíveis inesperadas, as indicações sonoras do que você está vendo. Você está familiarizado com o uso de efeitos de som em filmes e na televisão. Na época de ouro do rádio, os efeitos de som eram os ‘visuais’ da rádio-novela. [...] Quando são ruins, podem transformar uma novela séria em uma farsa. Os efeitos sonoros podem ser utilizados, conforme explica Lindstrom (idem, p. 234), como “marcadores de páginas auditivas chamando a atenção para fatos e ideias importantes [...]. Acrescentar profundidade e riqueza a uma cena [...]. Adicionar humor [...]. Reforçar visuais [...]. Motivar uma alteração de visual ou cena [...]. Contar uma história sem palavras [...]”. A segunda modalidade de produtos é a das estações de trabalho de áudio digital chamadas de digital audio workstations (DAW230) ou estúdio digital. Uma digital audio workstation é um sistema eletrônico projetado para gravar, editar e reproduzir áudio digital. Pode realizar o processamento de áudio em multitrilhas (multitrack231) e uma vez que disponham de conversores A/D (analógicos/digitais) e D/A (digitais/analógicos), com qualidade de som profissional, podem digitalizar sinais sonoros reproduzidos por dispositivos analógicos de áudio. A esse tipo de estação normalmente podem ser instaladas interfaces de alta qualidade com portas para conexão simultânea de vários dispositivos de entrada de áudio, digitais ou analógicos, mono ou estéreo. Normalmente possibilitam a conexão de duas ou mais saídas de áudio para monitoramento de reprodução (playback) e roteamento de sinal para outros dispositivos de saída (para gravação, reprodução, ampliação etc). Dependendo dos softwares aplicativos instalados, da disponibilidade de 230 Requer computadores de alto desempenho, memória RAM veloz e em abundância e bastante espaço em discos de alta velocidade. Interfaces e dispositivos de som de qualidade e software para processamento de áudio em multi-trilhas. 231 Multitrack é um método que possibilita a gravação e leitura de múltiplas amostras de áudio separadas em trilhas lógicas. Desse modo é possível, por exemplo, gravar separadamente o som de cada instrumento e compor o todo musical através de processo de edição. 163 microprocessadores de som especializados232 e da presença de interfaces de controle de dispositivos, as estações DAW podem editar conteúdos de arquivos de áudio; criar efeitos sonoros; mixar conteúdos das trilhas, reproduzi-las ou fazer inserção de trilhas sonoras em fitas de vídeo (dublagem), desde que o equipamento de vídeo também tenha interface com time-code SMPTE. A interface SMPTE é usada para a sincronização entre os dispositivos de um estúdio, incluindo equipamentos analógicos e digitais de áudio e vídeo. Esta interface, em conjunto com um programa de estúdio digital, permite que a reprodução de determinadas trilhas armazenadas no disco seja disparada por um sinal proveniente de um aparelho de reprodução/gravação de vídeo, quando este atinge o ponto exato de um determinado quadro de imagem. Isto permite a inserção de trilhas sonoras em fitas de vídeo (dublagem), desde que o equipamento de vídeo tenha tecnologia apropriada (PAULA FILHO idem, p.233). As estações DAW também podem realizar uma das tarefas mais complexas de processamento de áudio digital: compor e editar trilhas de áudio em tempo-real a partir de eventos criados por instrumentos musicais digitais conectados em rede MIDI e gravá-los diretamente nos discos magnéticos do computador. Segundo Rubin (1996 p. 39-40) “MIDI é a sigla de Musical Instrument Digital Interface (interface musical para instrumentos musicais)”. [...] está no coração de toda a indústria de música. [...] a especificação em MIDI estabelece um conjunto de normas que garantem a compatibilidade adequada de hardware entre marcas diferentes de instrumentos eletrônicos. Ela também fornece um protocolo padronizado para transmitir e receber dados entre aparelhos MIDI compatíveis. (RUBIN, ibidem). Para atender as normas e assegurar compatibilidade entre equipamentos de áudio e computadores interconectados, explica Rubin (1996 p. 39-40), “a rede MIDI usa cabos e conectores padronizados, isolados opticamente dos instrumentos para evitar interferências elétricas que possam ser audíveis”. Pois, a arquitetura MIDI é muito mais do que uma rede, além da padronização de cabos, o sistema também define claramente as estruturas dos protocolos de comunicação utilizados na rede. Conforme esclarece Paula Filho (idem p. 252): 232 Por exemplo, processadores digitais de sinais (DSPs) que aumentam consideravelmente os recursos das interfaces de som, permitindo que muitas funções de processamento sejam realizadas na própria placa, Isso pode significar grandes ganhos de desempenho. 164 [...] um conjunto de convenções para comunicação digital entre instrumentos musicais eletrônicos, como teclados, sintetizadores, máquinas de percussão e instrumentos convencionais adaptados. Ele pode ser encarado como protocolo de uma rede local especializada na comunicação entre instrumentos musicais digitais, permitindo pelo exemplo, que um conjunto de instrumentos seja controlado por um solista humano ou um computador. Os protocolos de comunicação MIDI incluem eventos que estão associados tanto as notas musicais como as operações de controle dos instrumentos conectados à rede local. Desse modo os sistemas computadorizados podem ser utilizados como sintetizadores. Em geral o termo sintetizador refere-se a qualquer instrumento musical que crie seus sons eletronicamente (ao contrário daqueles que criam som de forma elétrica ou acústica). Mais especificamente, porém, os sintetizadores criam seus sons usando componentes geradores de sons chamados osciladores. Por meio do uso desses osciladores, um sintetizador pode ‘sintetizar’ novos sons desde o início, o que o torna uma ferramenta poderosa e criativa. [...] atualmente a maioria dos sintetizadores é digital [...] usam micro processadores e processamento digital de sinais (DSP) para simular os efeitos dos osciladores (RUBIN 1996, p.84). A sintetização de áudio também pode ser realizada a partir do processamento de definições de eventos musicais, ou seja, não se trata de uma representação de ondas ou sinais e sim de informações textuais que possibilitam que determinados dispositivos, aí incluídos computadores, softwares e sintetizadores eletrônicos, possam gerar o som. Nesse sentido, o processamento digital do som não fica limitado à manipulação de sons gravados. Novos sons podem ser sintetizados de forma inteiramente artificial [...] a partir de notas musicais em tempo real [...]. Os primeiros sintetizadores eram construídos com circuitos analógicos, que eram ligados por meio de um painel de conexões [...] quando se viabilizou o processamento digital do som, os próprios circuitos de síntese foram substituídos por algoritmos equivalentes, realizados por microprocessadores (PAULA FILHO idem, p. 241- p. 247). Uma vez mais recorremos a Rubin (idem, p.141) para melhor compreensão dos sintetizadores. [...] o grande sintetizador RCA de 1955 foi um marco na evolução da composição eletrônica. Sua habilidade de gerar ricos timbres musicais, porém, era apenas parte de seu legado. Isso era tão importante quanto o fato de você poder programá-lo para gerar 165 uma série de notas dentro das definições de timbre, duração e outros parâmetros. O sintetizador RCA usava no input um rolo de papel para armazenar seus dados, e ao fazer isso, empregava um método de reprodução de música semelhante ao usado pelas pianolas do século XIX. É claro que os rolos de papel não produzem de forma direta sons musicais semelhantes à gravação fonográfica. Em vez disso, eles fornecem os dados de execução necessários para que um instrumento crie o som. Também é possível sintetizar música de estrutura arbitrária, ou seja, utilizando-se notação musical não-convencional e escalas musicais não-usuais. Isto pode ser feito utilizando-se programas chamados compiladores acústicos. Estes programas processam linguagens de síntese musical, em que as partituras e os instrumentos musicais virtuais são definidos através de comandos semelhantes aos de uma linguagem de programação. [...] As partituras são formadas por listas de notas, definidas por seu tempo de início, duração, altura, intensidade e parâmetros de timbre, que são dependentes de instrumentos. O resultado do processamento pelo compilador acústico é um arquivo de áudio. [...] Os arquivos de áudio também podem servir novamente de entrada para os programas compiladores acústicos, permitindo que realizem algumas funções de edição de áudio encontradas nos estúdios digitais. Esses recursos permitem também introduzir em gravações de áudio efeitos especiais que só são possíveis com o emprego dos métodos de síntese musical. Em síntese, o sistema MIDI foi o mecanismo encontrado pela indústria para integrar instrumentos musicais, sistemas computadorizados e outros equipamentos para possibilitar a produção de sons musicais, como demonstra Paula Filho (idem p. 253-256). Os instrumentos MIDI mais utilizados são provavelmente os teclados sintetizadores, controlados através de teclas semelhantes às do piano. [...] Podem funcionar como controladores de rede, reproduzindo canções pré-gravadas. Instrumentos acústicos também podem funcionar como controladores MIDI, desde que disponham de transdutores das ações mecânicas para as mensagens. Existem instrumentos de sopro, instrumentos de corda e pianos MIDI. As baterias eletrônicas são sintetizadores especializados na produção de sons de percussão. [...] Outros instrumentos MIDI, usados em redes avançadas, incluem: módulos de efeito, capazes de realizar eco, reverberação e outros efeitos de processamento de áudio; equipamentos de áudio com controle MIDI, como amplificadores, misturadores, mesas de som e gravadores; equipamentos teatrais com controle MIDI, como controle de iluminação, cortinas, cenários e outros efeitos visuais. O protocolo MIDI também é a base para a definição de como a música é representada 166 no computador pelo sistema MIDI. Segundo Ricardo Mazzini Bordini233, em Introdução à Multimídia na Web, o lado negativo do MIDI é que ele não pode gravar sons (somente notas). Ou seja, ele não pode armazenas canções (songs), somente melodias (tunes). O lado positivo do formato MIDI consiste no fato de ele conter somente instruções (notas). As principais vantagens do formato de arquivo .MID, quando comparado a outros, tais como .mp3, é que podem ser bastante pequenos e o som de cada instrumento pode ser gravado separadamente e, por conseqüência, editado individualmente desde que o software editor seja compatível com o protocolo MIDI. Neste contexto Paula Filho (idem, p. 256) informa que: [...] O formato .MID é muito mais compacto que os formatos de sinal de áudio; ele pode captar nuanças de expressão musical, refletidas no volume e andamento da peça. O timbre, entretanto, é codificado apenas como um número que denota o instrumento. Este número é chamado de programa ou patch. O resultado da reprodução dos arquivos MIDI será um sinal de áudio, cujos detalhes dependerão do sintetizador utilizado. Os arquivos .MID são organizados em trilhas, por analogia com os gravadores profissionais de áudio. Estas trilhas representam as vozes, no sentido musical. Cada voz normalmente corresponde a um instrumento monofônico. Instrumentos polifônicos podem ser repartidos em vozes; por exemplo, nas partes do piano correspondente às duas mãos. As trilhas por sua vez, são organizadas como seqüências de eventos. Eventos são mensagens MIDI carimbadas com os instantes de tempo associados à sua interpretação ou emissão. Funções de controle não associadas diretamente à produção de som podem ser incluídas através de metaeventos. Pode-se incluir também informação de texto, como comentários e notas de copyright. O padrão MIDI também permite a mixagem de eventos musicais de diferentes origens, fonte, época e formatos. Os arquivos MIDI podem ser obtidos de várias fontes: gravação de performances ao vivo através de sequenciadores; bibliotecas comerciais, vendidas em disquetes ou CDROMs; bibliotecas de domínio público, disponíveis na Internet; transformações de outros arquivos, através do processamento com sequenciadores; edição gráfica de partituras musicais; geração semi-automática, através de ferramentas de composição [...]. A capacidade de gravação e reprodução de MIDI permite que o compositor que esteja trabalhando com ele possa, em tempo real, ouvir a música que está sendo composta, dentro das limitações impostas pelo sintetizador disponível [...]. O material 233 Bordini é graduado em Composição e em Regência pela Universidade Federal do Rio Grande do Sul. Mestre em Música pela Universidade Federal da Bahia e Doutor em Música pela Universidade Federal da Bahia – textos disponíveis no website do Centro de Laboratórios Integrados de Música (CLIM) disponível em: http://www.hugoribeiro.com.br/Curso_HTML/media/c02.htm 167 musical pode ser criado de várias maneiras: desenhado na pauta; capturado nota a nota, de um teclado on-line ou até do teclado normal do computador; importado de um arquivo MIDI; capturado em tempo real, podendo-se conservar, para fins de reprodução sonora, detalhes de performance que não são expressos rigorosamente pela notação musical (PAULA FILHO idem p. 263-264). A utilização de hardwares e softwares sequenciadores de áudio é o que caracteriza a terceira modalidade de processamento de som. Rubin (1996 p. 142) explica esta afirmação: Imagine um sequenciador como um editor de texto sofisticado para música. E o uso frequente de comandos como Cut, Copy end Paste tende a reforçar a analogia. Assim como o editor de texto [...] um sequenciador permite que você faça o mesmo antes que sua música vá para seu estágio final de saída – o módulo de som. Desse modo, você pode fazer coisas com um sequenciador que um gravador de fitas nunca poderia fazer, tais como mudar o andamento de uma peça sem alterar sua afinação ou copiar uma passagem repetidas vezes sem diminuir sua qualidade de som. O sistema MIDI também é fundamental para o funcionamento dos softwares sequenciadores, como observa Paula Filho (idem p. 256-267): Os sequenciadores são as principais ferramentas disponíveis para o trabalho com os arquivos .MID. Eles fazem o papel de estúdios digitais de gravação, edição e reprodução. Ao contrário dos estúdios digitais de áudio, a unidade de trabalho não é a amostra do som, mas o evento MIDI. Todos os sequênciadores suportam o formato .MID, o que permite o intercâmbio de dados entre eles e com os outros aplicativos que trabalham com MIDI, como editores de partitura [...]. Os sequênciadores podem oferecer diversos tipos de vistas de um arquivo MIDI. Tipos comuns são as vistas de trilhas, rolos de pianola, eventos e pautas. Assim como no processo de comparação entre softwares para produção de audiovisual, para comparar os softwares proprietários e livres de áudio utilizados nos cursos de Radialismo da UMESP e da ESEEI foi necessário compreender a definição de determinados conceitos relativos ao processamento digital de áudio. Tais conceitos são explicados com o objetivo de facilitar a compreensão dos dados das variáveis funcionais, apresentados nas tabelas que foram assim organizadas: A primeira variável Dados Gerais descreve informações consideradas importantes para orientar a escolha e a aquisição de softwares processadores de áudio pelos usuários comuns. Normalmente tais informações são apresentadas nos sites dos seus fabricantes ou nas 168 próprias embalagens desses produtos. A segunda variável se refere às Plataformas de Operação – aponta as plataformas de sistemas operacionais nas quais os softwares processadores de áudio podem ser operados. A terceira variável, Interfaces aceitas pelos Softwares, diz respeito à capacidade dos softwares operarem com determinadas interfaces, de forma que possam interagir diretamente com equipamentos eletrônicos para entrada e saída de sinais de áudio. A quarta variável se refere aos Formatos de Arquivos que os softwares de áudio podem ler e gravar. Os arquivos de áudio como outros arquivos digitais são identificados por sua extensão, ou seja, podem ser .MID, .mp3 etc. Lembrando o que já foi dito, existem dois tipos de representação de som em arquivos digitais de computador: áudio digital e arquivos MIDI. “Áudio digital é um termo geral para qualquer voz, efeito de som ou música convertidos de forma analógica para digital. MIDI é uma designação padronizada para arquivos de música gerados por instrumentos e dispositivos musicais controlados digitalmente” (LINDSTROM 1995 p. 317). 169 Tabela 1. Categoria 2. Dados Gerais SOFTWARE Sound Forge Pro Tools Rosegarden TIPO DE LICENÇA MODALIDADE FABRICANTE OU DESENVOLVEDOR VERSÃO ANALISADA CUSTO Proprietário Editor de Áudio Digital Sonic Foundry. Atualmente distribuído pela Sony234 9 (2007) A partir de U$ 299,95 Proprietário Estação DAW; sequênciador MIDI; Editor de áudio digital. Digidesign235 divisão da Avid Technology 8 (2008) A partir de U$ 1.047,00 1.7.2 (2008) Livre Editores de partituras musicais. Livre Livre Ardour Digital audio workstation Estação DAW MIDI; Processador de áudio digital. Paul Davis e Comunidade Ardour.org237. 2.7.1 (2008) Livre Editor de áudio digital Comunidade238 Audacity.sourceforge.ne t 1.2.6 (2006) e 1.3.5 (2008) Livre 0.9.4 (2008) Livre Livre Audacity Livre Hydrogen Chris Cannam, Richard Bown, Guillaume Laurent, e comunidade236 Rosegarden music Sequênciador MIDI; Editor de eventos musicais de percussão. Alessandro Cominu e Comunidade hydrogen-music.org A partir da apresentação dos dados gerais descritos na tabela podemos concluir que existem softwares livres para atender as todas as modalidades de processamento de áudio, ou seja, para edição de áudio digital, estação DAW e sequenciadores MIDI para edição de eventos musicais, partituras e de percussão. Informações seguras sobre estes produtos com código aberto e licença GPL podem ser facilmente encontradas na internet nos sites oficiais das comunidades de desenvolvedores. Como por exemplo: Rosegarden music.com, Ardour.org, 234 Website - http://www.sonycreativesoftware.com/ 235 Website - http://www.digidesign.com/ 236 Website -Rosegarden music.com/ 237 Website - http://www.Ardour.org/ 238 Website - http://www.audacity.sourceforge.net 170 audacity.sourceforge.net e Hydrogen-music.org Quanto à questão relacionada ao pagamento de licenças, podemos constatar que por serem distribuídos com licença GPL estes softwares livres podem ser obtidos diretamente da Internet através de download sem custos. Em relação a preocupações com acertos de bugs (erros em programas) e evolução dos softwares (implementação de novas funcionalidades, adaptação a novas tecnologias de hardware, equipamentos eletrônicos e tecnologias de interface), pelo fato destes softwares serem desenvolvidos por comunidades e não por indústrias tradicionais podemos constatar que releases (novas distribuições) são feitos em prazos relativamente curtos, como pode ser constatado nos sites oficiais das comunidades. Tabela 2. Categoria 2. Plataformas de Operação SOFTWARE WINDOWS MAC OS X LINUX Sound Forge Sim Não Não Pro Tools Sim Sim Não Rosegarden Não Não Sim Ardour Não Sim Sim Hydrogen Não Sim Sim Esta variável é importante para possibilitar portabilidade e escalabilidade dos softwares livres de processamento de áudio, ou seja, tem a mesma finalidade e importância descritas na tabela 2 da categoria 1. Na tabela acima podemos observar que a portabilidade também permite a liberdade de escolha para se operar os software livres em dois sistemas operacionais, ou seja, de rodar o software em Mac ou Linux, por exemplo. Já a escalabilidade também contribui para que um usuário de PC/Windows, por exemplo, possa rodar um software de processamento de áudio em máquinas maiores e com sistema operacional diferente daquele instalado no PC. 171 Tabela 3. Categoria 2. Interfaces aceitas pelos Softwares SOFTWARE REWIRE JACK VST LADSPA LV2 DSSI RTAS AU DXI Sound Forge Sim Não Sim Não Não Não ?239 Sim ? Pro Tools Sim Sim Sim Não Não Não Sim Não Não Rosegarden Não Sim Sim Sim Não Sim Não Não Não Ardour Não Sim Sim Sim Não Não Não Sim Não Audacity Não Sim Sim Sim Não Não Não Não Não Não Sim Não Sim Sim Sim Não Não Não Hydrogen Esta variável é importante porque a inexistência de interfaces que permitam a realização de processos de conversão A/D e D/A limita a funcionalidade dos softwares, pois estes somente poderão utilizar arquivos previamente digitalizados. Este recurso também é importante quando é necessário acionar entradas ou saídas de sinais automaticamente em vários equipamentos a partir de time-code sincronizado. Os softwares acionam as interfaces de duas formas: na primeira embutem em seu próprio código os algoritmos obtidos das API – Application Programming Interface (Interface de Programação de Aplicativos) fornecidas pelos fabricantes das interfaces. Ou seja, as APIs definem um conjunto de rotinas, padrões e de funções estabelecidas pelo fornecedor para o acionamento e controle das interfaces. A segunda forma consiste na utilização de Plug-ins que, como explicado anteriormente, é um programa pronto e capaz de acionar e controlar as interfaces com o qual o software processador do áudio se comunica. As interfaces consideradas na tabela e descritas a seguir, são as mais utilizadas nas respectivas plataformas em que os sistemas operacionais operam, quais sejam: ReWire – esta interface é um protocolo de software proprietário desenvolvido conjuntamente por Propellerhead e Steinberg, que permite controle remoto e transferência de dados entre softwares de edição de áudio digital e outros relacionados. Permite gatilhos com ação remota tais como começar e parar gravação. O protocolo é licenciado, gratuitamente, somente para autores de software proprietário. 239 O sinal de ? significa que não foi possível avaliar o desempenho à interface. 172 O JACK Audio Connection Kit ou apenas JACK, é uma API (interface para programação de aplicações) open source para Linux e Mac OS X. É um servidor de som que fornece conexões para interfaces de áudio e MIDI. Steinberg's Virtual Studio Technology (VST) é uma interface para integrar softwares sintetizadores de áudio e plug-ins de efeitos com editores de áudio e sistemas de gravação em disco. Usa Digital Signal Processing (DSP) para simular sistemas tradicionais de gravação. LADSPA é um acrônimo para Linux Audio Developers Simple Plug-in API. É uma interface padrão para uso de filtros e efeitos de áudio. Licença GNU LGPL. LV2 similar ao LADSPA, mas permite programação de extensões com mais facilidade. DSSI significa Disposable Soft Synth Interface e estende a LADSPA para cobrir plugins de instrumentos. DSSI é uma arquitetura de plug-in para software sintetizador de instrumento virtual, para uso por aplicações de sequenciamento de música. Foi desenhado especificamente para plug-in de instrumentos que geram sons de eventos de notas. Real-Time Audio Suite (RTAS) é um plug-in formato de áudio desenvolvido pela Digidesign para o Pro Tools. Utiliza o poder de processamento do computador hospedeiro ao invés de placas DSP utilizados nos sistemas Pro Tools HD. Audio Units (AU) são arquiteturas de plug-in em nível de sistemas fornecidas pelo Core Audio no Mac OS X desenvolvido pela Apple Computer. AU são conjuntos de aplicações de serviços de interface de programação fornecidas pelo sistema operacional para gerar, processar, receber ou manipular fluxos de áudio próximo de tempo-real com um mínimo de latência. DirectX plug-in é um componente de processamento de software que pode ser carregado como plug-in por aplicações hospedeiras para possibilitar processamento em tempo real, efeitos de áudio, mix de áudio ou atuar como sintetizador virtual. Os dados da tabela 3 nos permitem concluir que os softwares livres analisados dispõem de interfaces equivalentes aos proprietários e, em alguns casos, são até mesmo capazes de utilizar interfaces proprietárias. 173 Tabela 4. Categoria 2. Tipos de Arquivos para Leitura e Gravação SOFTWARE OMF AAF Sim Sim Sim Sim Sim Sim Não Não Sim Não Não Não Não ? ? Sound Forge Pro Tools Rosegarden Ardour Audacity Hydrogen MIDI WAV MP3 AAC Sim Sim ? Sim ? AIFF, FLAC, SND Sim Sim Não Não Sim AIFF, SDII (Mac OSX) ? Sim Sim ? ? ? Sim Sim Sim Não Sim Sim Sim Sim Sim ? ? Não Ogg/Vorbis REX2 Sim Sim Sim Não Não ? OUTROS AIFF, RAW, FLAC ? A importância dessa variável está na possibilidade do transporte de arquivos de áudio e MIDI – Musical Instrument Digital Interface – entre diversos softwares, por exemplo, permitir que uma música criada em um software sequenciador MIDI possa ser lida por uma estação DAW, mixada com uma voz gravada na própria estação, editada (incluído um efeito sonoro, por exemplo) e transportada para um segmento de vídeo. A leitura e a gravação podem ser feitas de duas formas: entrada e saída ou importação / exportação. No primeiro caso o software é capaz de processar o formato original do arquivo, por exemplo, o software abre um arquivo .mp3 e trabalha com este formato. No segundo, o software se utiliza de conversores (API ou Plug-ins) para converte o formato original para um formato com o qual trabalhe internamente. Rubin (1996 p. 39- 40) explica que embora até o momento o Ardour suporta uma série de funcionalidades MIDI, dentre elas: MIDI sequencing; MIDI Time Code (MTC) master e slave; Controle de dispositivos através do MIDI Machine Control (MMC); todos os plug-ins do MIDI Continuous Controller (CC) e mensagens de liga/desliga, notas musicais e outras. Na comparação dos tipos de arquivos suportados em leitura e gravação foram considerados os formatos de arquivos mais utilizados pelos produtores de áudio do mundo nas diversas plataformas em que os sistemas operacionais operam. Porém, como mostra a tabela 4 alguns tipos de arquivos estão sinalizados com um ponto de interrogação (?) devido à falta de dados confiáveis e não podem ser considerados adequados para executar tal atividade. Mesmo assim, com o objetivo de facilitar a compreensão dos leitores deste documento cada tipo de arquivo é explicado a seguir. 174 Open Media Framework (OMF) é um tipo ou formato de arquivo independente de plataforma para transferir mídia digital entre softwares aplicativos diferentes. The Advanced Authoring Format (AAF) é um formato de arquivo para intercâmbio profissional projetado para ambientes de pós-produção de vídeo e autoria. AAF foi criado para auxiliar no problema de portabilidade para produção de vídeo baseado em computador entre plataformas de multi-fabricantes. MIDI – Musical Instrument Digital Interface é um protocolo padrão da indústria definido em 1983 que habilita instrumentos musicais eletrônicos, computadores e outros equipamentos a comunicar, controlar e sincronizarem-se entre si. Permite que computadores, sintetizadores, controladores MIDI, placas de som, amostradores (samplers ou sintetizadores PCM) e baterias controlem uns aos outros, e troquem informações do sistema. Não transmite sinal de áudio e sim mensagens de eventos tais como altura (pitch) e intensidade das notas musicais tocadas, e sinais de controle para parâmetros tais como volume e sinais de cronômetro para estabelecer o tempo. WAV ou WAVE é abreviatura de Waveform utilizada como extensão de formato padrão de arquivo criado pela Microsoft e IBM para armazenar fluxos de bits (bitstream) de áudio em microcomputadores pessoais PC. É uma aplicação do método bitstream do formato de arquivo RIFF utilizado para armazenar dados em espaços volumosos de área bruta de discos magnéticos (chunks). Muito parecido com os formatos de arquivo IFF utilizado por computadores Amiga e AIFF dos computadores Macintosh. Utilizado no ambiente Windows gravação de áudio bruto (raw) e sem compressão. A codificação (codec) utiliza o formato PCM. MP3 é a camada 3 do formato de codificação de áudio digital MPEG-1. Utiliza uma forma de compressão com perda (lossy). Formato comum para armazenamento de áudio para mercado consumidor e um padrão (de fato) de codificação de música para reprodução em tocadores digitais de áudio. Criado pelo Moving Picture Experts Group, foi projetado para reduzir significativamente o volume de dados necessários para representar o áudio gravado. Advanced Audio Coding (AAC) é um padrão para codificação e compressão com perda (lossy) de áudio digital. Projetado para ser o sucessor do formato MP3, geralmente obtém melhor qualidade de som. Foi padronizado pela ISO - International Standard Organization e IEC, como parte das especificações MPEG-2 e MPEG-3. Ogg é um formato de container sem custo e de padrão aberto mantido pela Xiph.Org Foundation e sem restrição de patentes. Projetado para fluxo (streaming) eficiente e 175 manipulação de multimídia digital de alta qualidade. Pode embutir grande quantidade de codecs independentes, livres e de fonte aberta para áudio, vídeo, texto (tais como legendas) e metadados. Dentre eles: Theora para camada de vídeo com perda; Vorbis para camadas de áudio; Speex para compressão de som de fala; codec de compressão sem perda (loseless) FLAC; e OggPCM para áudio. REX2 é um formato de arquivo proprietário para sample loop de arquivo de áudio, desenvolvido pela empresa sueca Propellerhead. É o mais popular em uso para sequenciadores e software para DAW. Outros Formatos240: AIFF – Audio Interchange File Format – formato de áudio utilizado pelo sistema operacional Mac OS X da Apple e em computadores Silicon Graphics. FLAC acrônimo de Free Lossless Audio Codec ou codec de compressão de áudio sem perda de informação. Não remove nenhuma informação do fluxo de áudio, mantendo a qualidade do som. SND Sound – arquivos SND não são multi-plataforma e o formato não é suportado por todos os navegadores web. Os sons armazenados no formato SND têm a extensão .snd. É um formato comum de gravação para armazenar som cru em computadores. SDI - Serial Digital Interface de vídeo e áudio utilizada em equipamentos profissionais. Pertence a uma família de vídeo interfaces padronizada pelo SMPTE. RAW – formato de arquivo digital de imagens. Este formato conserva todos os dados da imagem captada pela câmara e uma maior profundidade de cor, em geral 30 ou 36 bits/píxel. Seus arquivos são grandes, salvo quando são comprimidos. 4.3. COMPARAÇÃO ENTRE SOFTWARES DE COMPUTAÇÃO GRÁFICA 3D Softwares de computação gráfica 3D, também conhecidos como computer-generated imaginery (CGI) são, na atualidade, utilizados na área da comunicação social para produção de efeitos visuais gráficos, de desenhos animados, videogames tridimensionais, entre outros usos. No entanto o esforço de desenvolvimento dessa tecnologia vem ocorrendo de longa 240 Definidos por Ricardo Mazzini Bordini – disponíveis no website do Centro de Laboratórios Integrados de Música (CLIM) disponível em: http://www.hugoribeiro.com.br/Curso_HTML/media/c02.htm Acesso em 15/10/08. 176 data, como relatam Eduardo Azevedo e Aura Conci, no livro Computação Gráfica: Teoria e Prática (2003 p. 4), para quem “parece existir consenso entre os pesquisadores de que o primeiro computador a possuir recursos gráficos de visualização de dados alfanuméricos foi o Whirlwind I, desenvolvido pelo MIT241 […], em 1950, com finalidades acadêmicas e militares.” Segundo os mesmos autores, embora o termo computação gráfica tenha sido criado por Verne Hudson242 em 1959, uma das teorias fundamentais para o desenvolvimento da CGI e que mais contribuiu com a adoção, em alta escala, desta tecnologia computacional foi apresentada numa tese de pesquisa acadêmico-científica. Em 1962, surgiu uma das mais importantes publicações da computação gráfica de todos os tempos, a tese de Ivan Sutherland (Sketchpad – A Man-Machine Graphical Communication System), introduzindo as estruturas de dados para armazenamento de hierarquias construídas através da replicação de componentes básicos, bem como técnicas de interação que usavam o teclado e caneta ótica das indústrias automobilísticas e aeroespaciais americanas. Os conceitos de estruturação de dados, bem como o núcleo de computação gráfica interativa, levaram a General Motors a desenvolver em 1965 o precursor dos programas de CAD (Computer Aided Design). Logo depois, diversas outras grandes corporações americanas seguiram esse exemplo sendo que, no final da década de 1960, praticamente toda a indústria automobilística e aeroespacial utilizava softwares de CAD (AZEVEDO e CONCI idem p.4-5). A partir da década de 1980, o avanço das tecnologias de computação gráfica e da ciência da computação possibilitou o surgimento de teorias e técnicas essenciais ao uso de CGI tais como “iluminação global com o ray-tracing (1980) e a radiosidade (1984), aproximando as imagens geradas por computador do fotorrealismo”. (idem, ibidem). Explica Wilson Paula Filho (2000 idem p. 183) que a técnica de radiosidade “considera as trocas de energia difusa entre os objetos de cena, que são calculados por modelos termodinâmicos. O cálculo da radiosidade é extremamente pesado, porque as superfícies têm que ser divididas em pequenas áreas elementares, e a influência mútua entre cada par de áreas elementares tem que ser determinada. Entretanto, o cálculo independe da posição do observador e, portanto, não precisa ser repetido quando este se move.” A técnica de ray-tracing ou de rastreamento de raios, ainda hoje é uma das mais utilizadas e, 241 242 Massachusetts Institute of Technology. Nessa época Verne Hudson coordenava um projeto de simulação de fatores humanos em aviões para a Boeing. 177 diferentemente de modelos físicos de iluminação que consideram as propriedades físicas dos objetos e das fontes de luz, consiste em modelo onde: Os raios de luz são percorridos em sentido inverso, partindo do observador, caminhando rumo às fontes de luz, obedecendo às leis da reflexão e refração. O cálculo é complexo porque depende da computação das interseções de todos os raios com todos os objetos em cena, e porque as refrações e reflexões multiplicam o número de raios. (PAULA FILHO, ibidem). Um outro fato importante para a computação gráfica foi o desenvolvimento do software OpenGL em 1992, pela empresa americana Silicon Graphics. OpenGL (Open Graphical Library) pode ser definida como uma interface de software (API-Aplication Program Interface) para aceleração de programação de dispositivos gráficos, com aproximadamente 120 comandos para especificação de objetos e operações necessárias para a produção de aplicações gráficas interativas 3D. Na verdade, podemos classificá-la como uma biblioteca de rotinas gráficas para modelagem 2D ou 3D, extremamente portável e rápida, possibilitando a criação de gráficos 3D com excelente qualidade visual e rapidez, uma vez que usa algoritmos bem desenvolvidos e otimizados pela Silicon Graphics. (AZEVEDO e CONCI, idem p. 4-5). Não se trata, portanto, de uma linguagem de programação e sim de bibliotecas que podem ser usadas por diversas linguagens de programação (C++, Java, Ada, Pyton, Pearl, Delphi e Visual Basic entre outras) e que podem operar em diversos sistemas operacionais, dentre eles Windows, Mac OS X e Linux. Com o OpenGL243 a tecnologia de computação gráfica tornou-se altamente portável, escalável e é utilizada para as mais variadas aplicações, como observaram Azevedo e Conci (idem p. 26). Os principais fabricantes de PC e supercomputadores como SGI, Cray Research, Compaq, Fujitsu, Hewlett-Packard, Hitachi, IBM, Intel, Microsoft, Mitsubishi, NEC, 243 A biblioteca OpenGL vai além do desenho de primitivas gráficas, tais como linhas e polígonos, dando suporte a iluminação, sombreamento, mapeamento de textura e transparência. As diversas implantações das bibliotecas do OpenGL (para Microsoft, Mac OS X e Linux, por exemplo) podem ser baixadas direta e gratuitamente do site oficial www.opengl.org. Bibliotecas adicionais e documentação completa podem ser obtidas em reality.sgi.com 178 Samsung, Siemens-Nixdorf, Sony e Sun Microsystems adotaram OpenGL como uma estratégia de padrão aberto para hardware gráfico. Suas aplicações variam de ferramentas CAD a jogos e imagens médicas ou programas de modelagem usados para criar efeitos especiais para televisão e cinema [...]. Outra tecnologia de software a destacar é a Realidade Virtual, que tem por objetivo apresentar ambientes virtuais de modo que se assemelhem o mais possível a um ambiente real. Sistemas de realidade virtual levam ao extremo a tecnologia de multimídia: modelos tridimensionais, animação e som especializados são combinados com tecnologias avançadas de dispositivos gráficos de entrada e saída para aperfeiçoar a ilusão de realidade. Os sistemas de realidade virtual mais avançados são imersivos, isto é, envolvem completamente a visão, a audição e, possivelmente, o tato do usuário […]. (PAULA FILHO, idem p.183). O formato de arquivo mais conhecido para representação de dados de Realidade Virtual é o estabelecido pela VRML - Virtual Reality Modeling Language, anteriormente conhecido por Virtual Reality Markup Language, desenvolvido em novembro de 1994 visando sua utilização na World Wide Web, e que é muito parecido com um formato de arquivo definido pela Silicon Graphics. Em 1997, foi lançada a versão VRML 97 (ou VRML 2) e esta versão foi adotada como padrão pela ISSO - Internacional Standard Organization. Desde a década de 1990, após o surgimento dos PC e das estações de trabalho, a ciência da computação e a indústria de tecnologia da informação – TI têm desenvolvido constantemente inúmeros modelos matemáticos e tecnologias com o objetivo de trazer cada vez mais recursos aos softwares de computação gráfica 3D. Modelos matemáticos cada vez mais sofisticados e complexos tornaram possível modelar objetos e cenas gráficas 3D com atributos variados de Coloração, texturas, rugosidade, transparências, reflexos, sombras e outros. Ainda na mesma década, a computação gráfica 3D extrapolou os campos da aplicação Industrial e WEB e consolidou-se como tecnologia madura para uso na produção de efeitos especiais visuais “com imagens impressionantes como no filme Jurassic Park, em 1993 […] nas cenas de movimentos dos dinossauros” (AZEVEDO E CONCI, idem p.5). Outros marcos evolutivos importantes foram a utilização de um personagem computadorizado no filme o Exterminador do futuro 2 e a produção de Toy Story, o primeiro longa metragem totalmente produzido em desenho animado 3D, em 1995. 179 No limiar do século XXI, de filme em filme, novos desafios para tornar realistas imagens gráficas 3D foram sendo vencidos. Conforme ressaltam Azevedo e Conci (idem p.56): “Em 2001, são lançados diversos sucessos de bilheteria, como Shrek (Dreamworks), com novos métodos de síntese e animação de personagens, e Final Fantasy, o triunfo da modelagem de personagens 3D; também não podemos deixar de citar Matrix Reloaded, com personagens virtuais sendo usados, dentre outras coisas, para cenas de risco.” Wayne Carlson, professor de computação gráfica da Ohio State University, em seu curso A Critical History of Computer Graphics and Animation244 demonstra o envolvimento de centenas de entidades e pessoas, norte-americanas, européias e asiáticas que contribuíram com o desenvolvimento das tecnologias CGI. Em seu site, Carlson explicita o nome de algumas das mais importantes universidades245, laboratórios de pesquisa246, produtoras de filmes247, companhias248 e indivíduos249 - cientistas e artistas – espalhados por vários continentes e que, de algum modo, contribuíram para que atingíssemos o atual estágio de desenvolvimento tecnológico de CGI. Se você puder imaginar algo, isso pode ser gerado com a computação gráfica. A computação gráfica está a um passo de um mundo novo, repleto de aplicações, ainda desconhecidas, e muitas oportunidades de trabalho para designers, modeladores, animadores, iluminadores e programadores. […] Para isso, foram criadas […] ferramentas SDK (Software Development Kit) capazes de simular fenômenos físicos, 244 Disponível em design.osu.edu/ carlson/history/ID797.html 245 Dentre as universidades encontram-se: Massachusetts Intitute of Technology, The Ohio State University, University of Utah, New York Institute of Technology, Cornell University, California Institute of Technology, Brown University, University of Illinois - Chicago Circle, Texas A&M University, Ringling School of Art and Design , University of North Carolina - Chapel Hill, North Carolina State University, Hiroshima University, Technical University of Berlin e dezenas de outras 246 Dentre os laboratórios foram destacados Bell Labs, Lawrence Livermore Labs, Jet Propulsion Laboratory, National Research Council of Canada e Xerox PARC. 247 Dentre as Produtoras destacam-se MAGI, Robert Abel and Associates, III, Digital Effects, Cranston/Csuri Productions, Digital Productions, Pacific Data Images (PDI), Industrial Light and Magic (ILM), Pixar, Bo Gehring and Associates, Santa Barbara Studios, Universal Studios, Omnibus Computer Graphics, Metrolight, JCGL, Rhythm and Hues, Sony Pictures Imageworks, R/Greenberg, Blue Sky, Xaos, Sogitec, Kroyer Films, Rez.n8, Boss Films, Lamb & Co. e DeGraf/Wahrman. 248 Dentre as companhias estão Boeing, General Motors, Evans and Sutherland (E&S), Toyo LINKS (Japan), Wavefront Technologies, Alias Research, Alias/Wavefront, Side Effects, Autodesk/Kinetix/Discreet, Softimage, Ikonas Graphics Systems, Trancept Systems, Interactive Machines, Inc., Apple Computer, Microsoft e muitas outras. 249 Dentre os indivíduos foram destacados John Whitney, Sr., Jim Blinn, Nelson Max, Turner Whitted, Loren Carpenter, Yoichiro Kawaguchi, Melvin Prueitt, Chuck Csuri, Karl Sims, Chris Landreth, Wayne Lytle, Paul Debevec, Larry Cuba, David Em, Craig Reynolds e Lillian Schwartz. 180 facilitar a criação de cenários, entre outros infinitos recursos que podem ser criados por qualquer pessoa e acoplados à engrenagem do SDK sob a forma de plug-in. (AZEVEDO E CONCI, idem p. 8). Mesmo ao considerarmos somente os softwares CGI aplicados à criação de produtos para televisão e cinema, ainda assim, é uma tarefa difícil fazer comparação entre eles porque, independentemente de sua aplicação, todos esses softwares, utilizando-se de modelos e técnicas variadas, disponibilizam recursos de computação gráfica para representação e modelagem, cores, animação, realismo visual e iluminação, e simulação de física real – esqueletos, partículas e fluídos. Uma dificuldade adicional é assegurar que os resultados das comparações possam ser entendidos por pessoas que possuam pouco domínio de TI, embora sejam usuários ou conheçam os softwares disponíveis no mercado. Com o objetivo de facilitar a compreensão acerca da comparação feita entre os softwares estudados tomamos por base o quadro comparativo publicado no site TD T3D The Dream Team, citado no início do capítulo 4. Um das justificativas para considerarmos o modelo do quadro comparativo de Benoît SaintMoulin confiável está no fato de o termo artista – que designa o artista da computação gráfica – não ser o mesmo aplicado ao artista convencional, conforme explicam Azevedo e Conci (idem p. 3): A computação gráfica é matemática e arte. É uma ferramenta de concepção de arte, assim como o piano ou o pincel. Esta ferramenta proporciona um maior poder de abstração, ajudando na criação de imagens complexas e em muitos casos não imaginadas. A relação entre luz, tempo e movimento constitui a base desta que poderia ser classificada como uma arte tecnológica. A computação gráfica pode ser encarada como uma ferramenta não convencional que permite ao artista transcender das técnicas tradicionais de desenho ou modelagem. Imagens que exigiriam do artista o uso de técnica apurada de desenho podem ser geradas mais facilmente com o auxílio de softwares. As ilustrações que usam técnicas de radiosidade ou caustic são belos exemplos. Nesses casos, as representações das sombras são extremamente difíceis de serem desenhadas à mão. Com o uso do software, o artista precisa ter apenas a ideia e deixar a parte complexa por conta da máquina. Contudo, esses softwares exigem certo nível de conhecimento e treinamento que forçarão os artistas a uma complementação do estudo das técnicas de desenho tradicional, com a teoria da computação gráfica e matemática. A credibilidade das informações publicadas no site TD T3D The Dream Team aumenta na medida em que a filosofia do site está baseada em abertura (transparência) e 181 compartilhamento de informação com qualidade de conteúdo e acesso a todos. “Aberto, livre e irrestrito, é um intercâmbio comunitário onde qualidade, conhecimento, aprendizagem, críticas, amadores e profissionais estão chegando”, afirma seu fundador Benoît SaintMoulin250, que ao apresentar as conclusões das comparações que realizou e postou no site em novembro de 2007251teceu os seguintes comentários acerca de seu problema, metodologia e conclusões: Se você quisesse começar na criação 3D hoje, você provavelmente precisaria saber com qual pacote de aplicação 3D você se sentiria melhor e qual seria mais adequado para seu negócio. Muitos artistas CG testam muitos softwares antes de efetivamente iniciar seus negócios, essa é sem dúvida a melhor solução para experimentar e saber se você se sente mais confortável com um que com outro, mas se você não puder conhecer todos os aspectos de todos os softwares 3D quando iniciar… Aqui está uma tabela comparativa com prós e contras para as mais conhecidas e principais aplicações das principais indústrias 3D. Esta tabela não pretende estar completa com todas as funcionalidades disponíveis, mas tenta envolver as tarefas comuns dos artistas 3D de hoje. Todos os softwares foram profundamente testados durante um total de aproximadamente 12 meses, durante 12 meses eu instalei todas as versões e pacotes de serviço (educacional, aprendizagem pessoal (PLE) e completo) e procurei utilizar todos os softwares listados para realizar o mesmo trabalho quando criei os projetos para meus alunos, tais como (movimento, realtime, Mag.Print, arquitetura, lowpoly, texturização, ...). Utilizei todas essas aplicações 3D quando trabalhei para empresas na área de CG, hoje é relativamente fácil trocar de uma para outra e tenho um bom sentimento com interfaces de software […] claro que é sempre uma tarefa longa e dolorosa trocar, mas quando você aprendeu 2 ou mais pacotes de aplicações 3D as funcionalidades técnicas são sempre as mesmas, o mais difícil é saber onde encontrálas! Como agora sou professor/ educador de CG, sempre digo aos meus alunos que o mais importante não é o software, mas a compreensão técnica e que um triângulo sempre terá … 3 vértices: -) como no Autodesk 3ds max, NewTek LightWave, Blender [...] Cada aplicação 3D é boa [...], hoje todos os pacotes 3D podem realizar todos os seus sonhos, você tem que ter ideias para fazer [...]252. Em sua análise, Saint-Moulin confirma a participação de inúmeros outros artistas e pesquisadores ao agradecer às colaborações recebidas. Primeiro, agradeço a todos os profissionais e geeks 3D que releram meu trabalho e me deram muitos feedbacks! Artistas que leram este artigo são de muitas áreas diferentes de CG e de vários países diferentes (Bélgica, França, Alemanha, Suécia, USA, Vietnam,...) e todos utilizaram mais de uma aplicação 3D antes de mergulhar em 250 www.bsm3d.com 251 Última atualização realizada em 27 de março de 2008. 252 Tradução livre. 182 negócios. Também mantive contatos (telefone ou e-mail) com pessoas (2 ou 3 normalmente) que trabalhavam em cada companhia do software listado para evitar erros, Eu solicitei conhecimentos sobre funções, algumas vezes SDK, discuti sobre problemas comuns de importação e exportação, ergonomia de interface, parâmetros, ajustes finos… As aplicações testadas foram pacotes básicos com baixo custo para iniciantes em 3D, evidentemente muitos softwares listados tem versões de produções de maior nível disponíveis! Saint-Moulin também informa com detalhe, no site253, quais critérios adotou para a realização dos testes com os softwares 3D. Embora tenha apresentado resultados dos testes para os softwares 3D Studio Max, Maya, Blender 3D, Luxology Modo 301, Cinema4D, Lightwave e Softimage Foundation, reestruturamos os quadros apresentados por Saint-Moulin em 6 novas tabelas, envolvendo somente as variáveis dos softwares relativos à nossa pesquisa, ou seja, o Maya utilizado na UMESP e o Blender 3D na ESEEI. Conforme apresentadas a seguir. A primeira variável apresenta os dados gerais; a segunda, plataformas de operação; a terceira variável, tipos de aplicação suportada pelos softwares; a quarta, funcionalidades operacionais dos modeladores; a quinta, sistema de rendering; a sexta suporte a formatos de arquivos vetoriais 3D (importação/exportação). Tabela 1. Categoria 3. Dados Gerais SOFTWARE TIPO DE LICENÇA Maya Blender 3D Proprietária GPL MODALIDADE FABRICANTE OU DESENVOLVE DOR VERSÃO ANALISADA CUSTO Computação gráfica 3D 8.5 (2009) U$ 1.925 Autodesk Computação gráfica 3D Comunidade Blender. org 2.45 (2008) Livre O destaque da tabela 1 se refere ao custo dos softwares. O Blender pode ser livremente instalado e utilizado, sem nenhum custo. 253 www.tdt3d.com/articles_viewer.php?art_id=99 183 Tabela 2. Categoria 3. Plataformas de Operação SOFTWARES WINDOWS MAC OS X UNIX254 Maya Não Sim Sim Blender Sim Sim Sim Quanto às variáveis plataformas de operação, a tabela 2 mostra a total portabilidade e escalabilidade do software Blender 3D. Inclusive para o sistema Windows. Tabela 3 – Categoria 3. Tipos de Aplicação Suportada pelo Software SOFTWARE APLICAÇÃO MAYA BLENDER Visualização (VIZ) Sim Sim Design Sim Sim Filme Sim Sim Efeitos /Movimento Sim Sim Games Sim Sim Web Design Sim Sim 3D Realtime / VR Sim Sim A tabela 3 mostra que o Maya e o Blender apresentam funcionalidades equivalentes quando se trata de aplicações de games e produção de filmes. Segundo Saint-Moulin o Blender 3D possui recursos exclusivos para escultura 3D em tempo real e para edição de vídeo. Como desvantagens são atribuídas ao Blender 3D pouca documentação sobre software. Enquanto o tempo necessário ao aprendizado do Maya é apresentado como sua principal desvantagem. 254 Unix – é nome da plataforma de sistema operacional a qual pertencem sistemas operacionais como Linux, BSD, Irix (Silicon Graphis) entre outros. 184 Tabela 4. Categoria 3. Funcionalidades e Recursos dos CGI SOFTWARE ATRIBUTOS AUTODESK MAYA BLENDER 3D Animation tools (Ferramentas de animação) Sim Sim Uvtools (Recursos para CAD e Arquitetura) Sim Sim Painting (pinturas) Sim Parcial Modeling (modelagem) Sim Sim Modifiers (modificadores) Sim Sim ( Non-uniform rational B-spline) Sim Parcial Dynamics / Rigid bodies (corpos rígidos e dinâmicos) Sim Sim Soft bodies (corpos moles) Sim Sim Hairs (cabelos) Sim Sim Cloths (roupas) Sim Sim Particles (partículas: fogo, neve, etc) Sim Sim Fluids (fluídos) Sim Sim Compositing (composição) Não Sim Nodes-Based Workflow (fluxo de trabalho em nós) Sim Não Nodes-Based Materials (materiais em nós) Sim Sim Nodes-Based Compositing (composição em nós) Não Sim CG shader / Games (sombreamento) Sim Sim Scripting (Linguagem de programação textual) MEL, Python, C, C++ Python, C, C++ Vue 6 XStream (paisagens realistas) Sim Não NURBS 255 Os dados da tabela 4 demonstram poucas diferenças entre os dois softwares. Ambos possuem recursos para CAD e arquitetura; modelam corpos rígidos, dinâmicos e moles; cabelos, roupas e fluídos. Tratam partículas; possuem recursos para iluminação e animação. No quesito composição e escultura 3D em tempo real somente o Blender dispõe de tal recurso baseado em nós – Nodes-Based Workflow. O Blender trabalha parcialmente com NURBS e não disponibiliza plug-in para a produção de paisagens realistas criadas com a técnica Vue 6 XStream. No quesito pinturas é inferior ao Maya que possui o recurso exclusivo Paint FX. Tanto o Maya quanto o Blender 3D permitem a inclusão de programas escritos em Python. 255 NURBS - Non-uniform rational B-spline é um modelo matemático usado em computação gráfica para gerar e representar curvas e superficies irregulares. 185 Tabela 5. Categoria 3. Sistema de Rendering SOFTWARE FUNCIONALIDADES AUTODESK MAYA BLENDER 3D Rendering interno (processo de gerar uma imagem a partir de um modelo) Sim Sim Quality plug-in (plug-in de qualidade) Vray256/ Mental Ray 257 Yafray258/Indigo259 Textures Baker (produtor de textura) Sim Sim HDRI (High Dynamic Range Images) Sim Sim O processo de rendering pode ser interpretado como um processo de converter dados em imagem realística, ou, simplesmente um processo de sintetizar um objeto ou cena até que ele tenha aparência de algo real, e não de forma criada inteiramente em computador. Este processo envolve tanto aspectos de iluminação com aplicação de ray-tracing – técnica de rastreamento de raios, quanto sombreamento e aplicação de texturas. No Blender 3D a iluminação baseada em HDRI de imagens pode ser utilizada em conjunto com o Yafray para armazenar a iluminação presente no momento da criação. Vray, Yafray/Índigo são plug-ins incorporados aos respectivos softwares. 256 V-ray é um software de renderização desenvolvido pela Chaos Group. Este mecanismo de renderização é dedicado a softwares proprietários de modelagem como o 3D Studio Max. Para o ambiente software livre existe o YafRay, dedicado ao Blender. http://pt.wikipedia.org/wiki/V-Ray. 257 O Mental Ray foi produzido pela Mental Studios, e é disponibilizado com o software 3D Studio Max e outros programas da área. Foi criado com o propósito de gerar renderizações capazes de simular perfeitamente efeitos de luz, reflexões, caustica, utilizar shaders (texturas) especiais como o SSS skin que simula a pele humana e um outro recurso especial que se chama scatter que traz mais realismo a textura. Disponível em http://imasters.uol.com.br/artigo/4200/3dsmax/mentalray_occlusion/.: Juca Duarte, 13/06/2006. Seções relacionadas: 3ds max. 258 YafRay (Yet Another Raytracer Livre) é um plug-in multiplataforma GPL desenvolvido por Alejandro Conty para renderizar cenas. Foi recentemente integrado ao Blender e pode ser utilizado para desenhar cenas feitas diretamente com este software, sem a necessidade de exportá-las. Disponível em: www.yafray.org. 259 Indigo Renderer é um renderizador GPL - gratuito para uso comercial e uso não-comercial, que emprega recursos avançados de física, tais como simulação de luz espectral. 186 Tabela 6. Categoria 3. Suporte a Formatos de Arquivos Vetoriais 3D (Importação/Exportação) SOFTWARES TIPO DE EXTENSÃO AUTODESK MAYA BLENDER 3D Sim Sim COLLADA260 (padrão de exportação e importação de arquivos) Sim Sim FBX Sim Sim Sim Sim VRML / X3D261 (Linguagem para modelagem de realidade virtual) VRML 2 VRML 1 E 97 Point Oven Sim Sim Sim Parcial STL262 Sim Sim Composição de Saída Sim EXR 3D (3 dimensões) (Formato de arquivo .Fbx) OBJ (linguagem de programação) (conjunto de plug-ins) DXF (Formato de intercâmbio de desenhos) Os dados da tabela 6 demonstram portabilidade total entre os dois softwares, isso significa que CGI 3D produzidos pelo Blender podem ser transportados para os mesmos visualizadores ou softwares de computação gráfica 3D proprietários. A parcialidade apresentada no formato DXF (formato de intercâmbio de desenhos) está relacionada ao fato desta extensão contemplar arquivos CAD enquanto o Blender contempla mais arquivos para computação gráfica de entretenimento, e não técnica. Concluímos está análise afirmando que, principalmente nesta categoria de software, o Blender 3D é um ótimo recurso para produção de CGI3D. É particularmente interessante para a produção de jogos em tempo real. Sua 260 COLLADA (abreviação do inglês para COLLAborative Design Activity) é um padrão de exportação e importação de arquivos criado pela Sony e usado como padrão para o console Playstation 3. É suportado pelos melhores editores 3D do mercado, como Blender (software livre), 3D Studio Max e Maya. O formato utiliza XML como padrão e suporta além de modelos detalhados, animações e iluminação. Disponível em: http://pt.wikipedia.org/wiki/COLLADA. 261 X3D é a norma ISO baseado em formato de arquivo XML para representar computação gráfica 3D, é o sucessor do Virtual Reality Modeling Language (VRML). 262 STL é um formato de arquivo nativo à estereolitografia CAD, criado pela 3D Systems. Arquivos STL descrevem apenas a superfície de uma geometria tridimensional do objeto, sem qualquer representação de cor, textura e outros atributos comuns ao modelo CAD. Disponível em: en.wikipedia.org/wiki/STL_(file_format). Acesso em 10/07/08. 187 interface adota enorme variedade de idiomas263, inclusive o português, que podem ser trocados durante o uso do software. Embora a utilização do Blender 3D seja baixa a tecnologia de base é bastante moderna e leve. Para ser ter uma ideia, o instalador do Blender 3D requer somente 8 mega-bytes e o produto instalado 27 mega-bytes, comparados com os 2 gigabytes utilizado pelo Autodesk 3D Smax. O crescimento do Blender 3D está levando muitos artistas a publicarem suas experiências e conhecimentos. A comunidade Blender 3D é muito ativa e prestativa no esclarecimento de dúvidas e notificação de problemas. No sites de comunidades Blender 3D os artistas encontram espaço para participação nos fóruns e postagem dos trabalhos e experiências que realizam, a exemplo do que ocorre com o site Blender Brasil, mantido pelas Faculdades ESEEI. 4.4. COMPARAÇÃO ENTRE SOFTWARES EDITORES DE IMAGEM MATRICIAL OU RASTER As imagens denominadas matriciais ou raster264 são aquelas imagens representadas internamente por uma matriz de pixel. A palavra pixel significa a aglutinação de Pix – abreviatura da palavra picture (imagem em inglês) – e Element. Um pixel é, portanto, o menor elemento a compor uma célula de uma matriz de imagem. Na matriz de pixel estão codificados os atributos da imagem tais como cor, brilho, contraste etc de cada célula da matriz. O valor de um pixel, sua cor, por exemplo, pode ser representado por um ou mais bits em um arquivo bitmap – mapa de bits em inglês. Caso o pixel seja representado por um único bit, o conteúdo daquele ponto da matriz onde o pixel está localizado poderá ter somente os valores branco ou preto. Para representar mais cores cada pixel é composto por um maior número de bits de modo que a combinação dos bits forma cores variadas, por exemplo, caso o 263 Dentre as quais Inglês, Finlandês, Turco, Chinês, Tailandês, Sueco, Espanhol, Russo, Polonês, Japonês, Italiano, Alemão, Francês, Checo, Português. 264 Imagens raster (ou bitmap, mapa de bits) são imagens que contêm a descrição de cada pixel, em oposição aos gráficos vetoriais. 188 pixel seja composto por dois bits265 será possível representar até quatro cores. Quanto maior for uma imagem, maior será o número de pixels necessários para compô-la e, portanto, maior será o tamanho do bitmap. Entretanto, um dos problemas das imagens matriciais é que quando são ampliadas na tela do computador perdem qualidade, pois cada ponto da imagem – pixel – é transformado em blocos maiores o que distorce a imagem. Wilson de Pádua Paula Filho (2000, p. 129) explica que no caso das imagens raster “os formatos de imagens sempre partem da representação destas como um arranjo retangular de pixels”, e que a quantidade de pixels utilizada em cada polegada da imagem, ou seja, a resolução ou DPI – Dots Per Inch (pontos por polegada) – é determinante na qualidade da imagem e na quantidade de espaço necessário para armazená-la em um arquivo digital. Um modo de diminuir os requisitos de espaço das imagens raster em arquivos digitais é utilizar formatos de arquivos que comportem codecs e compressores, pois imagens de alta resolução e com ampla variedade de cores podem ocupar até vários megabytes de espaço em arquivos digitais. Mas na maioria dos casos, afirma Paula Filho, (idem p. 136) “pode-se conseguir grande redução do tamanho dos arquivos através das técnicas de compressão de imagens estáticas.” Portanto, a escolha de um formato de arquivo envolve um conjunto de variáveis, entre elas o número de cores e a resolução que o formato suporta; o grau de compressão utilizado e fatores de perda de qualidade; adequação aos dispositivos de representação nos quais as imagens serão apresentadas; e, não menos importante, a aderência a codecs e compressores com padrões estabelecidos, quer por negociação da indústria de software ou por imposição comercial. Os processos de compressão podem ser de dois tipos: no primeiro não existe perda de qualidade na imagem comprimida e no segundo a compressão dos arquivos é feita com redução da qualidade das imagens. Portanto, a qualidade ideal das imagens está condicionada às exigências da visão humana e pela capacidade técnica e viabilidade econômica dos dispositivos que irão representar as imagens, como nos demonstra Paula Filho (idem, p. 111): O campo visual humano corresponde a uma matriz de cerca de 3.000 X 3.000 pixel. 265 No caso de dois bits cada bit pode representar duas variareis zero ou um, permitindo, portanto, 22. Se o pixel for composto por 4 bits será possível representar 24 (2x2x2x2) ou seja 16 cores. 189 Os filmes fotográficos apresentam resoluções maiores do que isso, pois a ilusão de participação requer a inclusão da visão periférica e da visão devida a movimentos de cabeça. A resolução dos monitores de televisão e de computadores, por outro lado, tem sido bem menor, devido aos custos elevados de sistemas de resolução mais alta. A televisão comum (NTSC ou PAL-M) tem resolução aproximadamente equivalente a 512X480 pixel (512 colunas por 480 linhas). Os sistemas de televisão de alta definição (HDTV) se situam em torno de 2.000 X 1.100. Além da capacidade da visão humana o tamanho do dispositivo no qual a imagem será exibida ou impressa, normalmente medida em polegadas (inch), e a quantidade de pontos (preenchida com pixel) presentes em cada polegada são outras variáveis essenciais para definição do tamanho e da qualidade das imagens. Nesse sentido, a qualidade de uma imagem será tanto maior quanto maior forem os números de pontos por polegada, por permitir maior gradação dos atributos da imagem. Nos pixels são apresentadas as cores e, portanto, o sistema empregado para representar as cores nos pixels adquire grande importância. Os sistemas de cores, por sua vez, envolvem dois aspectos: os sistemas de representação das cores e os sistemas de codificação de cores. Paula Filho (idem p. 111) explica que as cores representadas nos sistemas são resultados de composições de luzes que enxergamos como resultado de processos de emissão, reflexão, refração, difusão e absorção de luzes com variadas freqüências espectrais. Por outro lado, observa o autor, nem toda a faixa espectral é visível ao olho humano, pois: A visão humana enxerga a luz de comprimento de onda situado entre 400 e 700 nanômetros266. As luzes desta faixa são percebidas como cores espectrais, ou cores do arco-íris. Tradicionalmente, diz-se que as cores espectrais vão do violeta ao anil, azul, verde, amarelo, alaranjado e vermelho embora essa variação na realidade seja contínua. As faixas de maior sensibilidade do olho humano correspondem aproximadamente ao verde (principal), ao vermelho (um pouco menos) e ao azul (bem menos). (PAULA FILHO, ibidem). Assim, explica o pesquisador (ibidem), todas as cores que enxergamos “são percebidas de forma quase equivalente à mistura de no máximo três cores básicas” – vermelho (red), verde (green) e azul (blue) – e é por esse motivo que a representação de cores em imagens digitais exige especificações rigorosamente estabelecidas em sistemas ou 266 1 nanômetro = 10 -9 m. 190 modelos de cores, de modo a assegurar sua constância. Para representar as cores em imagens, tanto digitais como analógicas, são utilizados basicamente quatro sistemas de cores: Aditivo; Subtrativo; HLS acrônimo de hue-luminance-saturation, ou seja, sistema de composição de cores com base em matiz, luminosidade e saturação de uma ou várias imagens de uma vez; e, CIE – Commission Internationale d'Eclairage. O sistema aditivo é um dos mais utilizados principalmente em sistemas que projetam imagens, tais como monitores de televisão e computadores, como explicam Eduardo Azevedo e Aura Conci na obra Computação Gráfica (2003 p. 191): É o sistema usado nos monitores de vídeo e televisão, no qual a cor é gerada pela mistura de vários comprimentos de onda luminosa provocando uma sensação de cor quando atinge e sensibiliza o olho. As cores primitivas aditivas do sistema RGB são: vermelho, verde e azul. No processo aditivo, o preto é gerado pela ausência de qualquer cor, indicando que nenhuma luz está sendo transmitida; o branco é a mistura de todas elas, o que indica que uma quantidade máxima de vermelho, verde e azul está sendo transmitida. No sistema RGB, portanto, outras cores podem ser obtidas pela adição de combinações proporcionais das luzes primárias, e isso o torna adequado à representação de imagens em dispositivos que operam por emissão de luzes por raios catódicos, como é o caso dos monitores de televisão e de computadores. O segundo sistema – subtrativo – faz uso das cores secundárias, ou seja, o cian (turquesa), o magenta (púrpura) e o yellow (amarelo) que são as complementares das cores primárias RGB, e é conhecido como CMY (cian-magenta-yellow). É um processo usado nas impressoras e pinturas. Uma é diferente de um monitor que por ser uma fonte de luz, pode criar cores. As cores primárias do sistema CMY para objeto sem luz própria são: ciano; magenta e amarelo; são cores primárias subtrativas, pois seu efeito é subtrair, isto é absorver alguma cor da luz branca. Quando a luz branca atinge um objeto ela é parcialmente absorvida pelo objeto. A parte que não é absorvida é refletida, e eventualmente atinge o olho humano, determinando assim a cor do objeto. O processo subtrativo altera a cor através de uma diminuição (da luz incidente) dos comprimentos que são absorvidos. No processo subtrativo, o branco corresponde à ausência de qualquer cor. E o preto é a presença de todas. (AZEVEDO e CONCI 2003, p. 192). Paula Filho (idem, p. 114) complementa a explicação sobre o funcionamento da 191 formação de cores secundárias, a partir da mistura de pigmentos para processos Coloridos de impressão e fotografia: Cada pigmento reflete apenas a cor que não absorve; assim um pigmento vermelho será aquele que reflete apenas o vermelho e, portanto, absorve apenas o verde e o azul. A combinação de pigmentos é subtrativa, porque a mistura de dois pigmentos reflete apenas a luz que não é absorvida por nenhum deles. Os pigmentos básicos absorvem apenas uma cor, cada um: o pigmento cian absorve a luz vermelha, o pigmento magenta absorve a luz verde e o pigmento amarelo absorve a luz azul. Na computação gráfica, particularmente, as imagens criadas ou editadas para posterior impressão em impressoras Coloridas os sistemas RGB e CMY se complementam, mas não permite transposição exata e precisa das cores. Para resolver este problema foi criado o modelo CMYK, como esclarecem Azevedo e Conci (idem, p. 195): O modelo CMYK é um modelo complementar ao modelo RGB, porém destinado a produtos e dispositivos não emissores de luz, tais como impressoras. A composição da cor ocorre similarmente ao modelo RGB, porém emprega as cores complementares Ciano (C), Magenta (M), Amarelo (Y) e Preto (K). As cores complementares atuam na luz incidente subtraindo desta as componentes RGB criando assim cores equivalentes às produzidas por dispositivos emissores de luz. O sistema HLS – hue-luminance-saturation se utiliza de três qualidades distintas das cores matriz-luminância-saturação, propriedades da luz mais perceptivas e quantificáveis, do ponto de vista da percepção humana. A intensidade ou luminância mede a amplitude da vibração luminosa e, portanto, a sua energia. A intensidade nula corresponde ao preto. [...] O matiz (hue) mede a qualidade que distingue o azul do verde, do vermelho etc. Para cores espectrais, o matiz mede a frequência dominante da vibração luminosa. [...] A saturação mede o grau de pureza em relação à contaminação por outras cores. A mistura perfeita de cores é o branco, que tem saturação zero. Para outras cores, a saturação pode ser entendida como a quantidade de branco presente. Tons muito saturados são “brilhantes”, e tons pouco saturados são 'pastel’. (PAULA FILHO, idem p. 115). O sistema CIE complementa os três sistemas anteriores à medida que o RGB funciona por emissão de luz, o CMYK por absorção de luz e o HLS é orientado para o usuário humano, e em todos esses casos torna-se difícil definir com precisão as cores. O 192 sistema CIE é baseado em propriedades físicas de modo a possibilitar definição fisicamente rigorosa. Conforme explica Ana Paula Ferreira de Carvalho267 (2001 p. 1228): O Sistema CIE (Commission Internationale d’Éclairage) é um sistema de cores proveniente de um consenso internacional e que tem sido empregado em estudos radiométricos que visam à caracterização de solos. As equações de cores para dados radiométricos em termos de vermelho, verde e azul para a visão humana envolvem valores negativos, o que dificulta o seu modelamento. Com a adoção do sistema CIE elimina-se a ocorrência de valores negativos. No entanto, é gerado um sistema virtual que não traduz fidedignamente o comportamento do olho humano. Paula Filho (idem p. 117-119) também explica que este é um sistema baseado em três cores imaginárias e invisíveis, chamadas de X, Y e Z: Estas cores são definidas de tal modo que qualquer cor visível possa ser expressa como combinação linear268 dessas cores básicas. O espaço das cores é representado por um sólido de aparência complexa. [...] O conjunto de cores que pode ser produzido a partir de determinadas primárias é a gama do sistema. Quanto mais saturadas as primárias, maior a gama. [...] A gama dos monitores profissionais é maior que a da TV, o que significa que as cores mais saturadas produzidas em um sistema de computação gráfica não serão aceitáveis pelos padrões de televisão, e poderão ser reproduzidos como cores distorcidas. A gama da fotografia é maior que a gama dos monitores, que por sua vez é maior do que a gama das várias técnicas de impressão. Quanto à codificação de cores nos computadores, trata-se de utilizar bit's (Binary Unit) para armazenar informações que permitam aos softwares tratar as imagens importadas e exportá-las de modo adequado. O sistema de codificação de cores implica definir e empregar uma quantidade adequada de bits para representar digitalmente a cor presente em cada pixel, com base nas definições requeridas pelo sistema de cores escolhido. Uma boa explicação nos 267 Funcionária do INCRA Brasília, DF, Brasil. Docente do Departamento de Ecologia da Universidade de Brasília (UnB)- Campus Universitário Darcy Ribeiro, Brasília, DF, Brasil em artigo intitulado Medição de Cor de Imagens Hiperespectrais Aviris pelo Sistema CIE (Commission Internationale D’Éclairage). Anais X SBSR, Foz do Iguaçu, 21-26 de abril de 2001, INPE, p. 1225-1232, Sessão Técnica Oral – Workshops. (mimeo). Disponível: http://marte.dpi.inpe.br/col/dpi.inpe.br/lise/2001/09.20.17.35/doc/1225.1232.091.pdf Acesso em 10/10/08. 268 Soma ponderada com coeficientes positivos. 193 é apresentada por Paula Filho (2000 p. 119): Em sistemas de cores primárias, é preciso prever a possibilidade de imagens formadas por pontos que se distinguem apenas pela luminância, quaisquer que sejam a matiz e a saturação. Isso ocorrerá em imagens onde existe predominância de matizes próximos; em uma cena de floresta, por exemplo, predominam cores verdes de diferentes luminâncias. Por isso é preciso prever 8 bits para a codificação de cada primária, correspondendo à sensibilidade do olho humano, que pode distinguir 256 níveis diferentes de luminância. Para um sistema de três primárias, isso dá um total de 24 bits por pixel. Esses sistemas, chamados cor verdadeira, podem reproduzir cerca de 16 milhões de cores. Atualmente, quase não encontramos dispositivos digitais ou analógicos capazes de reproduzir imagens com a qualidade descrita acima. Para evitar problemas de representação, por exemplo, ao deixar sem cor determinados pontos da matriz cujos pixels não possam ser representados, os sistemas de códigos se valem do conceito de paleta. Nestes sistemas, o conteúdo do pixel não é enviado diretamente ao monitor, e sim como índice para uma tabela armazenada em uma memória especial. Dessa tabela é retirado o valor que irá alimentar os monitores. Essa tabela é chamada paleta (palette) ou tabela de cores (color look-up table). Com o uso da paleta, pode-se reduzir a profundidade (tamanho em bits) do pixel, usando menos memória para o armazenamento das imagens. (PAULA FILHO, idem p. 121). Independentemente da profundidade do pixel ou da paleta, entretanto, a qualidade da imagem sempre ficará condicionada aos recursos dos dispositivos de representação, e de modo a minorar o impacto das diferenças pode ser empregado o recurso de dithering269 pontilhamentos que permitem criar transição de cores gerando imagens mais realistas em diferentes modos de vídeo, e com diferentes paletas de cores. 269 Trata-se da técnica de simular as cores que não estão presentes na paleta de uma determinada imagem. Funciona combinando pixels de diferentes cores que geram uma outra cor substituindo as ausentes. Disponível no Glossário Hospedenet: www.hospedenet.com.br/info/Dithering.html - 17k. Acesso em 10/10/08. 194 Um caso comum é o de modos gráficos com pixels de 8 bits, que é o caso de determinados VGA e superVGA270. Estes modos são capazes de reproduzir apenas 256 cores simultâneas. Essa limitação é aceitável em muitas aplicações de arte gráfica, de projeto assistido por computador e de interface homem-máquina. As imagens produzidas em sistemas de pixel de 8 bits normalmente não são realistas. Pode-se, entretanto trocar resolução espacial por resolução de cores, representando-se cada ponto da imagem por um grupo de pixels vizinhos (dithering). Essa técnica é semelhante à representação utilizada nos textos impressos. Aproveita-se a limitação de resolução espacial do olho humano, que tende a misturar as cores de pontos muito próximos. (PAULA FILHO idem p. 120-121). A profundidade do pixel, ou seja, a quantidade de bits utilizados para especificar sua cor, também pode ser aproveitada para indicar níveis de transparência permitidos para a imagem, recurso muito útil em processos de composição, como observou Paula Filho (2000 p. 121): Numa composição com bit de transparência, se a imagem A for colocada sobre a imagem B, cada pixel da imagem composta copiará o pixel correspondente de A, se este for opaco, ou o pixel de B, se o pixel de A for transparente. Nos sistemas de 24 bits, quando usamos pixels de 32 bits, sobra um canal alfa de 8 bits, que permite especificar 256 gradações de transparência. Isto permite realizar efeitos sofisticados de combinação de imagens, muito utilizados em processamento de vídeo: títulos de alta qualidade, misturas de imagens ao vivo com computação gráfica e efeitos de transição entre imagens. As imagens matriciais, formadas por arranjos de pixels distribuídos em uma matriz de duas dimensões, podem representar somente imagens 2D. Com um número maior de bits a representar um pixel, os sistemas de cores RGB, CMYK, HLS e CIE podem ser empregados para representar milhões de cores do espectro visual humano. Por último, a comparação entre softwares gráficos requer uma melhor compreensão do papel dos dispositivos de entrada271 e saída, afinal, sem os mesmos, não teríamos como 270 Vídeo Graphics Adapter. Padrão de vídeo que suportava resolução de 640 x 480, com a exibição de 256 cores simultaneamente, que podiam ser escolhidas em uma palheta de 262.000 cores. Super VGA, o padrão de vídeo utilizado atualmente. Uma placa de vídeo SVGA é capaz de exibir 24 bits de cor, ou seja, vários milhões. Isto é o suficiente para o olho humano não conseguir perceber diferença nas cores de uma imagem exibida no monitor e de uma foto colorida, por exemplo. Justamente por isso, as placas de vídeo SVGA são também chamadas de "true-color" ou "cores reais". Disponível em: http://www.guiadohardware.net/termos/s.html#super-vga-svga. Acesso em 10/10/08. 271 Segundo Valverde (2008), são dispositivos típicos de entrada gráfica os teclados, posicionadores (mouse), scanners, captador de quadros de imagens em movimento (frame grabber), capacetes (helmets) e luvas sensoras (gloves) entre outros. 195 importar imagens analógicas para dentro dos computadores ou exportar e visualizar os resultados das edições e modelagens das imagens digitais. As câmeras de TV e os VCR's são importantes dispositivos para entrada de imagens em movimento, mas para isso devem estar conectadas a frame grabbers – captador de quadros – capazes de converter sinais analógicos de vídeo em sinais digitais. De acordo com Paula Filho (idem, p. 128-129): Estes dispositivos requerem diversos tipos de circuitos de alta velocidade. Circuitos de sincronização com a fonte do sinal de vídeo (genlock), para iniciar a amostragem do sinal no instante correto. Conversor digital-analógico bastante rápido para cada canal de cor. Devem ser de preferência de 8 bits, para melhor reprodução de cores. Circuitos de acesso à memória de imagem, com velocidade suficiente para preenchê-la durante o tempo de conversão de um quadro. Os dispositivos de saída gráfica possibilitam ao ser humano ver as imagens criadas ou modificadas no computador, e podem ser agrupados como dispositivos interativos ou dispositivos de cópia permanente (hardcopy). Fazem parte dos primeiros os monitores de tubos de raios catódicos para computadores e televisores; matrizes de dispositivos de cristal líquido (LCD's); matrizes de diodos eletroluminescentes (LED's) e painéis de plasma. Cada uma dessas tecnologias apresenta vantagens e desvantagens com relação às outras, como mostra Paula Filho (idem, p. 122) ao afirmar que as tecnologias LCD, LED e Plasma “apresentam a vantagem de peso e volume menores do que a dos tubos de raios catódicos. No caso dos LCD’s apresentam, também, baixo consumo de energia. Para um determinado nível de qualidade gráfica, entretanto, seu custo é bem superior, e há limitações na reprodução de cores.” Na categoria de dispositivos hardcopy – cópia permanente – encontramos as impressoras; plotters; películas fotográficas; fitas magnéticas, discos magnéticos e óticos, entre outros. A partir das explicações apresentadas, para fazer a comparação entre os softwares proprietários e livres de edição de imagens matriciais ou raster (bitmap) utilizados nos cursos de Radialismo da UMESP e da ESEEI foram criadas cinco tabelas que apresentam, cada uma, algumas variáveis fundamentais de cada software, são elas: A primeira variável – Dados Gerais – descreve as características gerais dos produtos de softwares. A segunda variável – Plataformas de Operação – se refere às 196 plataformas de sistemas operacionais nas quais os softwares podem ser operados. A terceira variável – Funcionalidades Operacionais – mostra quais as operações os softwares realizam, ou seja, quais funções ele desempenha quando se pretende processar imagens matriciais ou raster em computadores. Sistemas de Cores é a quarta variável – e mostra a capacidade dos softwares para Colorir, enriquecer ou melhorar as cores das imagens matriciais ou raster. Por fim, a quinta variável – Suporte a formatos de arquivos (rasters) – mostra os formatos nos quais os softwares podem salvar os arquivos de imagens matriciais ou raster. 197 Tabela 1. Categoria 4. Dados Gerais SOFTWARE TIPO LICENÇA FABRICANTE OU DESENVOLVEDOR Adobe Photoshop Proprietário Adobe Systems Adobe.com Color Proprietário GIMP Livre CinePaint Livre Apple.com Apple Color Comunidade GIMP GIMP.org. Comunidade CinePaint Team cinepaint.org TIPO VERSÃO ANALISADA CUSTO Editor de imagens raster. CS4 (11.0) (2008) US$ 699,00272 ou R$ 892,39 Editor de vídeo e tratamento de cores 1.0.4 (2008) Incluso no custo do Final Cut Editor de imagem e desenho gráfico 2.6.2 (2009) Livre Editor de vídeo 0.23 (2008) Livre As informações da tabela 1 da categoria quatro podem ser encontradas nos websites dos desenvolvedores, fabricantes, distribuidores ou nas próprias embalagens dos softwares citados. Como pode ser constatado, todos os softwares livre analisados têm versões atualizadas e disponíveis para emprego em atividades de processamento de imagens matriciais ou raster. Quanto à questão relacionada ao pagamento de licenças, também podemos constatar que por serem distribuídos com licença GPL estes softwares livres podem ser obtidos diretamente da Internet através de download sem nenhum custo. É importante novamente ressaltar que, muitas vezes, mesmo depois do pagamento da licença para aquisição os usuários de softwares proprietários são chamados a pagar pelas atualizações que utilizam para se beneficiar de sua evolução. No caso do Adobe Photoshop a atualização de versão (upgrade) para quem já adquiriu uma versão anterior custa US$ 199,00 nos EUA conforme pode ser verificado no site do fabricante, citado na coluna custo da referida tabela. 272 Disponível em: https://store1.adobe.com/cfusion/store/index.cfm. Acesso em 10/01/09. 198 Tabela 2. Categoria 4. Plataformas de Operação SISTEMAS OPERACIONAIS SOFTWARES WINDOWS MAC OS X UNIX Adobe Photoshop Sim Sim Não Color Não Sim Não GIMP Sim Sim Sim CinePaint Sim Sim Sim Como pode ser observado na tabela 2, todos os softwares livres rodam nas plataformas apresentadas. Esta informação nos permite concluir que não existe nenhuma desvantagem para uso de tais softwares em relação aos proprietários analisados. Esta variável é importante porque mostra as possibilidades de portabilidade e escalabilidade dos softwares livres de processamento de imagens matriciais ou rasters. Conforme já dissemos a portabilidade se refere à liberdade de escolha de se operar o software em determinado sistema operacional, ou seja, de ‘rodar’ o software em qualquer das três plataformas citadas na tabela. A escalabilidade está diretamente relacionada com a portabilidade, ou seja, permite que um usuário de PC/Windows, por exemplo, possa ‘rodar’ um software com o qual já está acostumado (treinado) em máquinas maiores e com sistemas diferentes. O Color é o único que não roda na plataforma Windows, porém assim como o Photoshop também não roda em UNIX. Para resolver este problema a comunidade GIMP desenvolveu o GIMPShop com interface semelhante a do Photoshop, mas o GIMPshop tem a vantagem de ser gratuito. 199 Tabela 3. Categoria 4. Funcionalidades Operacionais SOFTWARES FUNCIONALIDADES LICENÇA PROPRIETÁRIA LICENÇA LIVRE ADOBE PHOTOSHOP COLOR GIMP CINE PAINT Selection editing (edição seletiva) Sim Sim Sim Sim Layers (camadas) Sim Sim Sim Sim Histogram (Histograma) Sim Sim Sim Sim Scripting (texto com instruções para computador) Sim Sim Sim Sim HDRI (High dynamic range imaging) Sim Sim Sim Sim Retouching (retoque) Sim Sim Sim Sim Resizing (redimensionar) Sim Sim Sim Sim Sized Printing (impressão sob medida) Sim Sim Sim Sim Noise removal (remoção de ruído) Sim Sim Sim Não Lens correction (correção de lentes) Sim Sim Sim Não Sharpening (eliminação de arestas) Sim Sim Sim Sim Color correction (correção de cores) Sim Sim Sim Sim Plug-in support (suporte a plug-ins) Sim Sim Sim Sim Pressupondo que algumas funcionalidades descritas na tabela 3 sejam pouco conhecidas por pessoas que não utilizam regularmente os softwares analisados, optamos por explicar os conceitos das funcionalidades apresentadas com o objetivo de facilitar a compreensão dos interessados. A funcionalidade Selection editing – edição seletiva – mostra, segundo Gordon e Gordon (2003 p. 202), como um objeto é ligado por linhas, ou seja, quando “[...] um programa bitmap tem algumas ferramentas de base vetorial para permitir ao utilizador realizar seleções muito precisas e suaves com a ajuda de paths.” Este tipo de ferramenta de base vetorial, continuam os pesquisadores (idem p. 200): 200 [...] descreve a forma de um objeto com uma série de pontos estrategicamente localizados, ligados por linhas controladas por fórmulas matemáticas – um pouco como a imagem de ‘unir os pontos’ com o beneficio acrescido de que as ligações entre pontos podem ser descritas com precisão como linhas retas ou curvas. A essa linha é chamado paths ou vetor. Os paths podem ter espessura e cor e as forma ou objetos que criam também podem ser preenchidos com uma cor, gradação, texturas e por ai adiante. Os Layers ou camadas existem para ajudar o designer gráfico a criar trabalhos de montagem, bem como, para facilitar a realização de alterações de numa imagem sem destruir o trabalho já existente. Gordon e Gordon (idem p. 210) explicam que “[...] a imagem original pode ser vista através da layer e, se não gostar do que criou na layer, pode apagar ou deita-las fora.” Alguns softwares podem também “aplicar opacidades diferentes (e muitas outras propriedades) a cada layer a níveis controláveis, dando a impressão de imagens que se fundem uma na outra.” Histogram - histograma: Milani (2005 p. 53) esclarece que “o histograma representa a quantidade de pixels que utiliza cada nível de intensidade de cor presente na imagem. A partir de sua análise, é possível identificar se a imagem é uma composição muito escura ou muito clara, ou se possui a distribuição de cores equilibrada. Em outras palavras, é montado um mapa com a qualidade de pixels que utiliza cada nível de cor (em escala de cinza, ou em um canal de cor específico) na imagem.” Scripintg – texto com instruções para computador – recursos que permitem programar a execução de diversas operações que o programa é capaz de fazer, ou seja, permite automatizar uma sequência de operações desejadas evitando-se, desse modo, a necessidade de se repetir manualmente um determinado conjunto de tarefas. André Milani (2005 p. 257) explica que há uma maneira fácil de compreender a importância dos scripts, qual seja: Suponha que existam 10 fotografias, de tamanhos variados, que necessitem estar do mesmo tamanho (640 x 480, por exemplo) e que sejam criadas bordas laterais de cor branca com espessura de 10 pixels em cada uma. Realizar todas essas operações uma dezena de vezes seguidas, além de cansativo demora. Construir um script seria uma maneira de automatizar as tarefas de redimensionamento e criação de borda, executado a partir de um clik de mouse para cada fotografia, diminuindo o tempo de trabalho muito significativamente. E ainda: um nível mais avançado, automatizar para que este script seja executado em todas as fotografias que estiverem dentro de determinada pasta no computador, necessitando apenas de um clik e na seleção do diretório dos arquivos, diminuindo tempo de trabalho para praticamente zero. 201 HDRI - High dynamic range imaging – é um conjunto de técnicas que permite uma maior abrangência dinâmica de luminância entre áreas iluminadas e escuras de uma cena. A intenção é representar com mais precisão a ampla variedade de níveis de intensidade encontrados em cenas reais, desde a presença direta da luz do sol até sombras. Azevedo e Conci (2003 p. 325) descrevem o uso dessa funcionalidade afirmando que: [...] geralmente ao se criar uma cena 3D os objetos distantes como montanhas, nuvens, lagos, árvores e todo cenário de fundo não são modelados para não sobrecarregar inutilmente o software/hardware deixando-o lento e travado. Nesses casos, são usadas imagens como fundo (back grounds), essas imagens são incorporadas à cena, mas não interagem com os objetos, ou seja, não contribuem na iluminação. Os arquivos de extensão .HDR representam propriedades de energia passando ao programa a definição de quais regiões da imagem são fontes de luz. O que ocorre é que as imagens HDR possuem informações além dos canais de cores (RGB). Essas informações adicionais dizem quais são os pixels da imagem que contém atributos de energia luminosa. Retouching ou retoque envolve uma gama completa de ferramentas para a criação de desenhos e diversos tipos de pintura. São recursos tais como balde de tinta para Colorir regiões da imagem; mistura com degradê para realizar efeitos de 3 dimensões e iluminação; lápis e pincel para desenhos à mão livre; borracha para remoção de cores e realização de acabamentos; aerógrafo, um spray cujo jato de tinta é formado por um canal de tinta e um canal de sob pressão; caneta tinteiro; clonagem etc. Resizing ou redimensionar – ferramenta utilizada para fazer “o redimensionamento do tamanho de vetor, imagem ou regiões selecionadas para outros tamanhos.” (Milani, idem p. 107). Trata-se de componente de um conjunto maior de ferramentas de transformação, dentre as quais a de movimentação de partes da imagem para outro local mantendo intactos tamanho e propriedade de cor ou possibilitando a rotação, a inclinação, perspectiva ou espelhamento. A funcionalidade Sized Printing ou impressão sob medida diz respeito à disponibilidade de recursos que assegurem ao designer a impressão em sistemas gráficos das imagens projetadas no computador. Dentre estes recursos Gordon e Gordon (2003, p. 66-75) destacam alta resolução; controle de bleed (sangria da cor ou de imagens da página); compatibilidade das fontes de criação e impressão; imposição (documento com mais de duas páginas visualizado no ecram, como uma série de planos de duas páginas, mas impresso num documento de páginas múltiplas); gestão de cor (utilização de cores especiais – pantoni – e 202 conversão e separação CMYK). A Adobe introduziu o PDF (Portable Document Format) como um tipo de arquivo universal para transmissão e impressão de documentos profissionais. É agora o formato standard para distribuir manuais em várias plataformas, desenhos técnicos, informação de marketing e provas. Os PDFs têm sido aclamados como a chave para o futuro de pré-impressão, elimando os fotolitos, chapas e ateliers reprográficos (GORDON e GORDON, ibidem). Noise removal ou remoção de ruído. Conforme Milani (idem, p. 179) “ruídos nada mais são do que pixel ou pontos que literalmente sujam a imagem. Mas porque alguém iria querer sujar imagens?” Existem diversas aplicações que utilizam os ruídos como base de efeitos. Por esse motivo também existem várias maneiras de adicioná-los em seu conteúdo gráfico. Desde “a criação de nuvens de pontos, onde se podem construir nuvens no céu de imagens, passando por suavização de cores, chegando à confecção de manchas e texturas (de aço escovado, por exemplo).” Lens correction – correção de lentes. Trata-se de filtros para correção de imagens, tais como, distorções provocadas em fotografia feita com lente grande angular ou como o abaulamento do nariz de uma pessoa numa fotografia muito próxima da lente. Sharpening – eliminação de arestas. É um recurso que permite tornar mais nítidos os contornos de componente de uma imagem. Milani (idem, p. 184) explica que “o recurso de detecção de bordas pode ser muito útil quando se necessita destacar ou recortar um determinado objeto da imagem. [...] é possível criar uma borda uniforme nos limites do contorno do objeto da imagem, desde que identificada pelo filtro de detecção selecionado. Utilizado em conjunto com ferramentas de seleção por cor, região ou outras esse recurso pode facilitar a captura de determinados objetos da imagem ao separá-los de seu fundo original. Além desta facilidade, os filtros de detecção de borda podem ser utilizados para aplicações de efeitos [...]”. Color correction ou correção de cores envolve um conjunto de ferramentas para manipulação de cores, dentre elas equilíbrio de cores, ajuste de matriz – saturação, Colorização, brilho e contraste, limites para preenchimento de cores, níveis de claridade de cada pixel da imagem, ajuste da curva de cores, posterização (redução do número de cores de uma imagem) e outros. Plug-in support ou suporte a plug-ins. Rabaça e Barbosa (2001 p. 576) explicam que plug-in é um “Acessório de software que só funciona em conjunto com outro programa.” O 203 recurso de incorporação de Plug-ins possibilita que determinadas funcionalidades que não estavam previstas num determinado programa, como, por exemplo, a gravação em um determinado formato de arquivo, possa ser incluída no referido programa. Um exemplo interessante é o uso do plug-in free type. “Nas primeiras versões do GIMP, após um texto ser inserido na imagem, ele não poderia mais ter seus atributos alterados (tamanho, fonte, estilo), o que se tornou possível com o uso deste plug-in que é um renderizador de fontes.” (MILANI, idem p. 319). A computação gráfica trata da síntese de imagens através do computador. Sintetizar uma imagem não é mostrá-la no computador digitalmente a partir da captura de algo existente. Isso é tratado no Processamento de Imagens. Sintetizar uma imagem (uma cena ou um objeto) é criá-la em termos da definição dos dados dos objetos que a compõem. Isso se faz a partir da geometria da cena, das informações sobre os materiais de que são feitos os objetos (suas cores e suas texturas), das condições de iluminação ambiente; e da posição de observação da cena. Nesse processo de criação sintética, é denominado rendering a fase de introdução nas cenas, do realismo fotográfico (AZEVEDO e CONCI 2003 p. 249). As explicações feitas até o momento nos levam a pressupor que os dados descritos na tabela 4 contribuem para demonstrar que os softwares livres realizam todas as funcionalidades necessárias para o tratamento de cores. Portanto, os softwares livres GIMP e Cine Paint não apresentam nenhuma desvantagem funcional quando comparados com os softwares proprietários. Tabela 4. Categoria 4. Sistema de Cores SISTEMAS DE CORES273 SOFTWARE RGB CMYK CIE LAB HLS Adobe Photoshop Sim Sim Sim Plug-in Color Sim Sim Sim Sim GIMP Sim Plug-in Sim Sim CinePaint Sim Sim Sim Sim No início deste capítulo discorremos sobre os sistemas de cores existentes e utilizados como modelos nos sistemas de computação gráfica. Conforme apresentado na 273 Glossário. 204 tabela 4, a análise comparativa demonstra que todos os softwares livres são capazes de utilizar os sistemas de cores descrios, portanto são adequados à criação de imagens digitais, pois permitem sua nítida visualização em telas de computadores e em papel, imagens impressas. Tabela 5. Categoria 4. Suporte a Formatos de Arquivos Raster SOFTWARES FORMATOS274 ADOBE PHOTOSHOP COLOR GIMP CINE PAINT RAW imports (importação bruta) Sim Sim Sim Sim BMP Sim Sim Sim Sim GIF Sim Sim Sim Sim JPEG Sim Sim Sim Sim JPEG 2000 Sim Sim Sim Não HD Photo Sim Sim Não Não PNG Sim Sim Sim Sim TIFF Sim Sim Sim Sim PSD Sim Sim Sim Parcial PSP Não Sim Sim Não XCF Não Sim Sim Sim PCX Sim Sim Sim Sim OpenEXR Sim Sim Não Sim Suporte a Formatos de Arquivos Raster, assim como feito com relação ao sistema de cores, foi já explicado. A quantidade de formatos apresentada na tabela 5 varia em função, principalmente, do uso de determinados codecs e compressores. Como já pontuamos os compressores podem ser agrupados em duas categorias, com perdas e sem perdas, com o propósito básico de reduzir o tamanho dos arquivos de imagem. Quanto aos codecs, os idealizadores das teorias matemáticas empregadas o fizeram visando atender às necessidades de qualidade e precisão das imagens, tanto nos processos de importação (scanning) quanto de exportação (printing). Alguns formatos de arquivos já podem ser considerados obsoletos, como, por 274 As siglas da tabela 5 estão descritas no glossário. 205 exemplo, o BMP (bitmap da Microsoft) – um formato de arquivo com baixa compressão e, portanto, que ocupa muito espaço físico –, porém ainda são mantidos para possibilitar o processamento de arquivos gerados no passado. Como resultado da análise, constatamos que somente em alguns casos existem diferenças de suporte a determinados formatos de arquivos. Como é o caso do HD Photo, que não é suportado pelo GIMP e Cine Paint. Entretanto, isso não significa que estes dois softwares não possam processar conteúdos originalmente gravados em um determinado formato, HD Photo, por exemplo. Ocorre que há muitos programas freeware e shareware disponíveis e capazes de converter os arquivos cujo formato não é tratado diretamente pelo software para outro que o software possa manipular. Por exemplo, converter o HD Photo para Raw sem perda de qualidade. Nos casos de instalações que demandem uso intensivo de formatos que não são suportados pelos softwares utilizados lembramos que é possível escrever scripts, como é o caso do GIMP e Cine Paint que suportam esta funcionalidade de modo a automatizar essa importação. Para concluir, entendemos que os softwares livres analisados podem suportar os mesmos formatos de arquivos suportados pelos softwares proprietários citados na tabela 5. Portanto, não há desvantagem acerca do uso deste tipo de tecnologia em processos de criação de imagens que envolvam a questão de suporte a formatos de arquivos raster. 4.5. COMPARAÇÃO ENTRE SOFTWARES DE DESENHO VETORIAL Os softwares para desenho vetorial são ferramentas utilizadas na criação de desenhos que podem ser armazenados na forma de dados geométricos, em arquivos com formatos mais compactos que os arquivos de imagens raster. Paula Filho (2000 p. 143) explica que os desenhos com formato geométrico ou vetorial são “[...] figuras na forma de coleções de entidades geométricas, ou seja, do ponto de vista do computador, registro de dados que descrevem conceitos de geometria. Dada a importância que os vetores da geometria têm na descrição computacional dos desenhos, esses arquivos são chamados de arquivos vetoriais.” Um desenho vetorial em 2D é um desenho feito em duas dimensões (bidimensional) com dois eixos cartesianos onde o eixo X representa a largura ou comprimento (horizontal) e 206 o eixo Y representa a altura (vertical). As imagens de três dimensões ou tridimensionais – 3D são aquelas imagens que além de largura e altura (2D) têm também profundidade, o eixo cartesiano Z. Segundo Menegotto e Araújo (2000 p. 82) “No desenho bidimensional trabalhamos com as entidades sobre o plano XY definido pelos eixos X e Y. Para modelar a realidade tridimensionalmente, devemos incorporar a coordenada Z do sistema cartesiano. Com a incorporação do eixo de coordenadas Z, ficam delimitados 3 planos que serão denominados com os nomes dos eixos correspondentes: assim temos os planos XY, XZ, YZ.” Os softwares WordArt275 e Adobe Illustrator276 podem ser tomados como exemplo de programas proprietários adequados para a criação de desenhos vetoriais, pois, geralmente são utilizados em projetos que contemplam desenhos circulares ou arcos em formas trigonométricas. Tais desenhos são conhecidos por curva de Bézier277 ou curva cúbica simples – tipos de curvas que têm a propriedade de conservar a curvatura nas ampliações expressas por alguns pontos representativos chamados de pontos de controle. Sue Plumley (1995 p. 13 21) explica que quando desenhos circulares são feitos com o Illustrator é possível se conservar a curvatura ou os pontos de controle da curva de Bézier, pois “[...] regularmente você usa as ferramentas seleção, mão livre, caneta e zoom, enquanto trabalha desenhos.” O WordArt, por exemplo, permite a criação de textos com efeitos visuais, tais como texturas e linhas, conforme explica Roger C. Parker278 (1995 p. 26-29). Muitos processadores de texto contêm módulos de desenho, como o WordArt do Microsoft Word. [...] Esses módulos, ou mini-aplicativos (applets), que frequentemente são ignorados, podem ter recursos surpreendentes. Eles permitem que você movimente letras como objetos independentes e os agrupe, para que você possa manipulá-los com uma só unidade. Isso permite que você crie logotipos ou títulos para publicações, incorporando texto e elementos gráficos com linhas horizontais e fundos sombreados. [...] Há muitos programas especializados em desenho disponíveis no 275 WordArt - gênero editor gráfico. Disponível para os sistemas operacionais Microsoft Windows, Mac OS X sob licença comercial - proprietária. 276 A versão 1.0 do Illustrator foi rapidamente substituída pela versão 1.1. A seguir foi lançada a versão 88, por coincidir com o ano de 1988. Última versão é a CS3 (13.0) lançada em abril de 2007. Website oficial do desenvolvedor: www.adobe.com. 277 Na obra Multimídia: conceitos e aplicações (p. 149) Paula Filho apresenta desenho que exemplifica a Curva de Bézier. 278 Parker é considerado um dos mais renomados especialistas em projetos de editoração eletrônica. Além de colaborador freqüente em diversas publicações sobre o assunto, entre elas, Grafphic Solutions, Publisch, Techinique, e x-heigt. É autor de diversos livros, como Desktop Publishing & Desing para Leigos (1995). 207 mercado, destinados aos tipos específicos de desenhos e ilustrações. [...] A necessidade é o que determina o software necessário para a criação de diferentes desenhos. Quanto ao Illustration, Sue Plumley (1995 p. 13 -21) esclarece que “[...] Você também pode ver a arte-final no modo Preview Illustration, que mostra o desenho como ele será impresso.” Também se pode criar trabalhos artísticos simples ou complexos com Illustrator. Seja “[...] um mapa mostrando o caminho até a loja em frente ou o diagrama esquemático de uma placa eletrônica, você utiliza as mesmas ferramentas e técnicas básicas.” Também existem programas livres (Open Source) para edição de desenhos vetoriais, como já foi dito. O Inkscape é um exemplo de tecnologia livre e que tem funcionalidades semelhantes aos softwares proprietários Illustrator e CorelDRAW. Suporta muitas características avançadas do formato SVG – Scalable Vectorial Graphics ou gráficos vetoriais escaláveis (marcadores, clones, mistura alpha, etc) e é fácil de ser usado. Conforme matéria de Marco Aurélio Zanni – intitulada Software livre faz desenhos de primeira (2008) – disponível no portal da Revista Info - seção tecnologia279: O Inkscape é rápido e tem os principais recursos avançados dos programas de desenho vetorial. A versão 0.46, ainda em fase de testes, tem algumas novidades importantes, como a possibilidade de abrir arquivos do CorelDRAW e uma ferramenta para esculpir objetos. Com ela, basta arrastar uma espécie de borrão sobre a imagem e distorcê-la aos poucos. Outra vantagem do software é a interface simples. O Inkscape tem poucas ferramentas de desenho, mas elas permitem fazer a maior parte dos efeitos manualmente, e não pelo uso de objetos pré-definidos. Isso abre o leque de possibilidades de criação. Por serem somente representação geométrica de desenhos, para serem exibidos em telas de computador ou impressos, os conteúdos dos arquivos vetoriais precisam ser antes convertidos em imagens matriciais, ou seja, formadas por arranjos de pixels. Por esse motivo, a representação de desenhos vetoriais nos dispositivos analógicos de apresentação requer mais tempo de processamento porque terá que ser transformada em matricial antes da apresentação. Paula Filho (2000, p. 144) explica que: As imagens matriciais também podem ser geradas por programa de computador, a 279 Revista Info. Editora Abril. São Paulo, Brasil. 13 de fevereiro de 2008. Disponível em: http://info.abril.com.br/aberto/infonews/022008/13022008-1.shl. 208 partir de descrições de uma cena em termos geométricos. A passagem do modelo geométrico, que se situa no espaço de objetos, para o modelo matricial, situado no espaço de imagem, é chamada de conversão de varredura (scan conversion), rastelação (rasterization), elaboração (rendering) ou síntese. As imagens artificiais geradas são também arranjos de pixels, e são representadas pelos mesmos formatos para imagens naturais. Por serem formadas por arranjos de pixels as imagens rasters demandam mais espaço de memória no computador. Neste contexto, uma vantagem importante do arquivo de imagem vetorial sobre o arquivo de imagem matricial é que este tipo de imagem permite o armazenamento de figuras sintéticas em formatos muito mais compactos, porque no lugar dos bitmaps esses arquivos contêm somente informação textual necessária à reconstrução das imagens 2D e 3D pelo computador. Assim, uma forma para aperfeiçoar o processamento de imagens vetoriais é transformá-las em imagens matriciais e vice-versa. Bob Gordon e Magie Gordon, na obra Design Gráfico Digital: o guia completo (2003, 202), cita softwares que exemplificam está afirmação: “O Adobe Illustration e o Macromedia FreeHand, ambos os programas de desenho, têm a capacidade de modificar imagens bitmap importadas através de vários filtros de efeitos especiais e são também capazes de converter (rasterizar) objetos vetoriais em bitmaps [...]. Por oposição, o photoshop, um programa bitmap tem algumas ferramentas de base vetorial para permitir ao utilizador realizar seleções muito precisas e suáveis [...].” Neste estudo, para comparar os softwares de desenho vetorial proprietários e livres foram criadas quatro tabelas que apresentam, cada uma, suas variáveis fundamentais. Quais sejam: A primeira – Dados Gerais – como nas categorias anteriores descreve as características gerais dos produtos de softwares. A segunda variável – Plataformas de Operação – também se refere às plataformas de sistemas operacionais nas quais os softwares podem ser operados. A terceira variável – mostra os formatos de arquivos vetoriais importados pelos softwares. Formatos de arquivos vetoriais, a quarta variável – mostra os formatos de arquivos vetoriais exportados pelos softwares, conforme descrito a seguir. 209 Tabela 1. Categoria 5. Dados Gerais SOFTWARE TIPO DE LICENÇA Adobe Illustrator Proprietária CorelDRAW Proprietária Inkscape Livre FABRICANTE TIPO VERSÃO ANALISADA CUSTO280 Adobe Desenho vetorial 2D CS4 (14) R$ 756,85 Corel Desenho vetorial 2D X34 (14) R$ 497,42 Comunidade inkscape.org Desenho vetorial 2D 0.46 (2008) livre As informações da tabela 1 mostram que os softwares livres analisados têm versões atualizadas e disponíveis para emprego em atividades de criação de desenho vetorial. Quanto à questão das licenças, por serem distribuídos com licença GPL estes softwares livres podem ser obtidos sem nenhum custo. Tabela 2. Categoria 5. Plataformas de Operação SISTEMAS OPERACIONAIS SOFTWARES TIPO DE LICENÇA WINDOWS MAC OS X UNIX Adobe Illustrator Proprietária Sim Sim Não CorelDRAW Proprietária Sim Não Não Inkscape Livre Sim Sim Sim Conforme informam os dados da tabela 2, o software livre Inkscape opera em todas as três plataformas. O software proprietário Adobe Illustrator em apenas duas e o CorelDRAW em apenas uma. Isto mostra uma vantagem do software livre sobre os proprietários analisados. 280 Valores extraídos dos sites dos fornecedores. 210 Tabela 3. Categoria 5. Formatos de Arquivos Vetoriais: Importação FORMATOS DE ARQUIVOS281 SOFTWARES AI CDR ODG PS/EPS PDF SVG SWF DXF Adobe Illustrator Sim Sim Não Sim Sim Sim Não Sim CorelDRAW Sim Sim Não Sim Sim Sim Não Sim Inkscape Sim Sim Não Sim Sim Sim Não Não Os dados da tabela 3 mostram que os softwares proprietários abrem a maioria dos formatos de importação de arquivos vetoriais. Com exceção dos formatos ODG e SWF282 que não são compatíveis com nenhum dos três softwares pesquisados. Neste quesito o Inskscape tem uma desvantagem em relação ao Illustrator e ao CorelDRAW, é o único que não tem capacidade para abrir três tipos de formatos, ou seja, além dos ODG e SWF também não abre o DXF (AutoDesk Drawing Interchange format, um arquivo de intercâmbio para modelos de CAD). Tabela 4. Categoria 5. Formatos de Arquivos Vetoriais: Exportação FORMATOS DE ARQUIVOS283 SOFTWARES AI CDR ODG PS/EPS PDF SVG SWF DXF Adobe Illustrator Sim Sim Não Sim Sim Sim Sim Sim CorelDRAW Sim Sim Não Sim Sim Sim Sim Sim Inkscape Sim Sim Não Sim Sim Sim Sim Sim Os dados da tabela 4 mostram que apenas o formato ODG não é suportado pelos três softwares. Logo, o Inskscape pode ser uma alternativa interessante para realiza o processo de exportação de arquivos vetoriais. 281 Os significados das siglas da tabela 3 da categoria 5 são descritos no glossário. 282 OpenDocument format ou ODF, é um formato de arquivo desenvolvido pelo consórcio OASIS e usado para armazenagem e troca de documentos de escritório, como textos, planilhas, gráficos, apresentações etc). SWF desenvolvido pela Adobe Flash - antigamente pelo Macromedia Flash - para animações multimídia ou aplicações. 1.283 No glossário apresentamos os significados das siglas da tabela 4. 211 CONCLUSÃO Esta pesquisa analisou possibilidades de uso de tecnologias de microcomputadores e softwares em processos de criação de produtos comunicacionais para rádio e televisão pelas faculdades brasileiras, no contexto de cursos de comunicação social. Para contextualizar o estado da arte acerca do uso de microcomputadores e softwares discorremos sobre alguns fatos históricos que possibilitaram a evolução, até o estágio atual, de algumas outras tecnologias de comunicação. Utilizamos a metáfora de Ondas proposta por Alvin Toffler para caracterizar as fases dessa evolução e para precisar as mudanças culturais e sociais que se sucederam, inclusive nos cursos de comunicação social do Brasil. Notadamente a partir do final do século XX, o aparecimento de inovadores dispositivos tecnológicos que propiciaram novas possibilidades para a comunicação, entretenimento e trabalho entre os humanos provocou, também, mudanças nos sistemas educacionais, pois, o crescimento do uso desses novos dispositivos em atividades profissionais trouxe novos desafios para as faculdades no sentido de prepararem pessoas cada vez mais qualificadas para atuarem nos meios de comunicação, especialmente em áreas relacionadas à criação de produtos para RTV. Tal preparação também se fez necessária para que houvesse maior aproximação e integração entre as universidades e o mercado de trabalho, pois, conforme expressam as Diretrizes Curriculares Nacionais na nova economia do conhecimento os estudantes devem ser capazes de aprender a aprender durante toda a vida para, assim, poderem interagir no mundo e conquistarem espaço num ambiente profissional tecnológico de rápidas e constantes mudanças. Considerando a importância de as novas gerações serem preparadas para utilizar profissionalmente novos dispositivos tecnológicos, uma vez que sua utilização competente tem sido requisito importante para aumentar a geração de empregos e o acesso ao mercado de trabalho, postulamos que os sistemas educacionais devem privilegiar o aprendizado para uso das novas tecnologias de software, pois os processos atuais de comunicação, veiculação de mensagens e símbolos através do rádio, televisão, Internet, telefone etc se tornaram muito dependentes destas tecnologias. De modo geral, os softwares são desenvolvidos por companhias que comercializam, entre outros, programas de aplicação popular como processadores de textos, planilhas 212 eletrônicas e outros produtos especializados, como softwares para processamento de som e vídeo, imagens e desenho, modelagem e animação 2D e 3D. Geralmente tais softwares, popularmente conhecidos por softwares proprietários, são registrados como propriedade intelectual dos seus produtores para proteger os direitos autorais dos fabricantes e são fornecidos ou comercializados a partir de pagamento de licenças, ou seja, o usuário não compra o produto, mas o direito de utilizá-los dentro dos limites da licença. Em síntese, neste estudo caracterizamos software proprietário aquele protegido por direito autoral; com código fechado; que não pode ser modificado; e que é comercializado mediante o pagamento de licença. Do ponto de vista econômico, na maioria das vezes, as empresas usuárias deste tipo de software além arcarem com pagamentos de licenças, assistência e manutenção são obrigadas a realizar investimentos contínuos para atualizar versões anteriores destes produtos, pois as licenças que os acompanham definem as regras estabelecidas pelos fabricantes para seu uso, isto é, quais ações são, durante o uso, autorizadas ou proibidas. A utilização de cópias não licenciadas de softwares proprietários é considerada crime de pirataria. Uma outra característica deste tipo de software é que os fabricantes ou companhias vendem os programas de aplicação popular para computadores pessoais, por exemplo, em lojas e pela internet e este tipo de comercialização facilita o acesso pelos usuários a tais produtos, fator que contribui para sua popularização uma vez que ficam mais expostos aos olhos dos consumidores. No final da década de 1990 um novo tipo de software, conhecido como software livre ou com código aberto, começou a se apresentar como alternativa natural de mercado ao software proprietário e a despertar a atenção da comunidade técnica, acadêmica e de negócios em todo o mundo. Essa nova tecnologia permite que qualquer programador possa ler, entender e modificar um software, bem como ter acesso ao seu código fonte, a chave para adaptá-lo a realidades específicas de países, empresas e pessoas. Neste contexto, um software livre pode ser compreendido como um software que é distribuído com código aberto – Open Source; é gratuito e permite que os usuários saibam como foi construído, que possam modificá-lo ou redistribuí-lo livremente. Os softwares livres são desenvolvidos por comunidades de especialistas e empresas que têm entre seus objetivos compartilhar conhecimentos sobre inovações tecnológicas e diferentemente dos softwares proprietários a maioria dos produtos livres não é comercializada em lojas, mas copiada da internet, portanto o usuário precisa fazer download dos programas, 213 mas sem pagamento de licenças e com a vantagem de que uma única cópia pode ser instalada em qualquer quantidade de computadores, pois tanto o código executável como o código fonte podem ser obtidos através de download. No caso do código executável a instalação é simples e direta desde que o usuário escolha a versão do software aplicativo, do Blender 3D, por exemplo, compatível com o sistema operacional no qual irá utilizá-lo. Embora, geralmente, o processo de download seja simples para algumas pessoas essa necessidade é vista como uma desvantagem dos softwares livres, pois muitas ainda sentem desconfiança ou insegurança para realizar tal procedimento, fator que parece contribuir para a preferência dessas pessoas pelos softwares proprietários. Reconhecendo a importância de os profissionais de comunicação aprenderem a utilizar tecnologias de software, especialmente para criarem produtos para rádio e televisão, realizamos este estudo comparativo com o objetivo de tornar evidentes as qualidades de alguns softwares proprietários e livres, seus custos, rendimentos e possibilidades de adoção pelas faculdades de comunicação do país. Para tanto, comparamos as experiências de uso destas tecnologias nos cursos de Radialismo da Universidade Metodista de São Paulo – UMESP e das Faculdades ESEEI de Curitiba. Os cursos de Radialismo destas entidades foram objetos de estudo nesta pesquisa porque a primeira utiliza somente softwares proprietários em plataforma MAC OS X e a segunda, exclusivamente, softwares livres em plataforma Linux em processos de criação de produtos audiovisuais. Para facilitar a compreensão sobre a referida análise e para ordenar o processo de comparação os dois tipos de softwares foram agrupados em cinco iguais categorias: a primeira categoria detalha as variáveis fundamentais dos softwares para processamento de audiovisual; a segunda dos softwares de processamento digital de som; a terceira dos softwares de computação gráfica 3D; a quarta dos softwares editores de imagens matricial ou raster; e a quinta dos softwares de desenho vetorial. Os softwares proprietários utilizados na UMESP e agrupados nas cinco categorias descritas são: categoria 1 – processamento de audiovisual, Final Cut Pro HD, Vegas e After Effects; categoria 2 – processamento digital de som, Sound Forge, Pro ToolsTools; categoria 3 – computação gráfica 3D, Maya; categoria 4 – editores de imagem matricial ou raster, Photoshop CS3 e Color; categoria 5 – desenho vetorial, Illustrator e CorelDRAW X3. Os softwares livres utilizados na ESEEI e também agrupados em cinco iguais categorias são: categoria 1 – Cinelerra, Jahshaka; categoria 2 – Ardour, Audacity, Rosegarden e Hydrogen; categoria 3 – Blender 3D; categoria 4 – GIMP e CinePaint; 214 categoria 5 – Inkscape. A análise comparativa entre os dois tipos de softwares foi feita com base no modelo de um quadro comparativo elaborado por Benoît Saint-Moulin, fundador e administrador do site TD T3D The Dream Team284, que apresenta as conclusões das pesquisas comparativas que realizou sobre softwares computação gráfica. Outros modelos de quadros comparativos disponíveis na Wikipedia também foram importantes nesse processo de análise dos softwares. Para finalizar o processo de comparação consideramos a importância de três macrofunções denominadas – Entrada => Processamento => Saída – que permitiram comparar os recursos disponíveis em alguns dos softwares para importar (digitalizar) conteúdos para dentro do computador; para tratá-los digitalmente; e para exportar os resultados em formatos e resoluções de arquivos e dispositivos de representação adequados. Os resultados das referidas análises, apresentados nas tabelas do capítulo 4, nos permitiram constatar que nas cinco categorias todos os softwares livres analisados dispunham de recursos similares aos dos proprietários para entrada, processamento e saída de conteúdo, ou seja, importação de material bruto, processamento e exportação de resultados. Isso significa dizer os softwares livres estudados podem ser utilizados em processos de criação de produtos para rádio e televisão, pois apresentam o mesmo nível de qualidade que os softwares proprietários com quais foram comparados, logo, são uma alternativa confiável e podem trazer benefícios ou vantagens para as escolas de comunicação e empresas de mídia que adotarem este tipo de tecnologia. Uma primeira e interessante vantagem dos softwares livres em relação aos softwares proprietários, constatada nesta pesquisa, se refere ao fato de os softwares livres poderem estar presentes em praticamente todos os artefatos tecnológicos digitais da atualidade, porque além de poderem ser copiados diretamente da Internet podem ser adaptados às necessidades específicas dos usuários. O fato de serem disponibilizados com código aberto permite que conhecimentos sobre suas funcionalidades deixem de ser propriedade econômica de algumas pessoas ou empresas para serem compartilhados universalmente, assim, o usuário que se interessar e tiver capacidade pode saber como o software foi construído ou adaptado para atender suas necessidades. Um exemplo é a possibilidade de um usuário poder escolher a língua que o software deve adotar na interface de comunicação com ele, isso pode ser feito por todos os softwares livres que analisamos e significa que uma mesma cópia instalada pode 284 www.bsm3d.com 215 rodar 'falando' português, francês ou outras dezenas de línguas. O fato de os softwares livres poderem ser instalados em qualquer quantidade de computadores vai ao encontro dos fundamentos do Paradigma Libertário, que defende de forma intransigente a liberdade para troca de conhecimentos e uso dos softwares livres como um valor supremo, especialmente em prol da realização de trabalhos colaborativos entre membros das comunidades de usuários ou desenvolvedores. Pessoas que trabalham para melhorar cada vez mais a tecnologia, considerando, inclusive, as contribuições dos usuários comuns, pois tais contribuições não são tratadas exclusivamente como um assunto técnico pelos desenvolvedores, no mundo do software livre os usuários finais também são bem vindos com suas experiências e sugestões. Muitas vezes as ideias divulgadas nos sites da Internet são implantadas rapidamente nos softwares pelos desenvolvedores e trazem benefícios surpreendentes aos usuários. As facilidades decorrentes da popularização da Internet e de acesso à informação têm favorecido a constante formação de comunidades virtuais colaborativas envolvidas com o desenvolvimento de free software. Assim, pela rede, os membros destas comunidades promovem encontros entre pessoas dos mais diversos pontos do planeta no ciberespaço, geralmente, com o objetivo de discutir soluções ou apresentar novos projetos para a tecnologia de código aberto, atividade impossível de ser realizadas sem acesso aos códigos fontes dos programas. Neste contexto, o desenvolvimento de tecnologia com padrões de código fechado tem sido muito discutido por fabricantes de software, comunidades e governos, pois, manter conteúdos armazenados em arquivos de formato proprietário prejudica o processo de inovação tecnológica, ajuda a formação de monopólio e dificulta, sobremaneira, a interoperabilidade entre softwares. O fato de existirem inúmeras comunidades de desenvolvedores, compostas por um universo fascinante de voluntários que prestam suportes técnicos e orientações genéricas sobre atualizações, reparos de bug (acertos de erros) e demais serviços é outro ponto positivo do software livre. Pois, diferentemente dos softwares proprietários, além das empresas tradicionais, conforme comprova o anexo – Linux.local – as pessoas podem contar com o apoio técnico das comunidades de desenvolvedores pela Internet. Outra vantagem dos softwares livres está na constatação de que a quase totalidade dos softwares estudados funciona em diferentes plataformas de hardware e sistemas operacionais, ou seja, estes softwares rodam tanto em sistemas operacionais PC/Windows, como MAC OS X e PC/Linux. Portanto, os usuários podem instalá-los gratuitamente no 216 hardware de um dos três sistemas operacionais, com o qual já estão acostumados a trabalhar, por exemplo, e, assim, preservarem seus arquivos e investimentos anteriores. A possibilidade de uma interface de software livre poder ficar parecida com a de um software proprietário é também uma outra vantagem, pois ajuda os iniciantes no uso dessa tecnologia a se adaptarem com seus comandos, como é o caso do GIMP que tem uma interface semelhante a do Adobe Photoshop. Quando analisamos os valores das licenças dos softwares proprietários nos site oficiais dos desenvolvedores ou distribuidores, bem como em lojas que vendem estes produtos constatamos nova vantagem da tecnologia de código aberto, pois os valores praticados pela indústria de software proprietário para a cessão de licenças podem representar um alto investimento para as entidades educacionais. Para esclarecer o que dissemos imaginemos a seguinte situação: para adquirir uma cópia do software Final Cut Studio 2 uma entidade educacional precisa desembolsar em média R$ 3.699,00, por licença. Esta licença é valida por um ano e para uma máquina apenas. Se considerarmos a necessidade de a entidade adquirir 10 cópias desse software teria que investir aproximadamente R$ 36.990,00 em licenças. Para algumas instituições de ensino este valor pode inviabilizar a instalação do software em quantidade necessária de máquinas para uso durante atividades de aprendizado por todos os alunos ao mesmo tempo. Podemos fazer outro cálculo para aprofundar tal raciocínio acerca dos custos com licenças. Supondo que uma faculdade tenha 5 ilhas de edição de vídeo (Workstations) profissionais com interfaces para conexão de VCRs e câmeras, e outras 100 máquinas em laboratórios de informática com interface de rede, DVD e áudio, e que seja necessário ter os mesmos softwares nos dois ambientes, para instalar o Final Cut Studio nas máquinas das ilhas e dos laboratórios seria necessário um investimento aproximado de R$ 388.395,00. Se a referida faculdade precisasse ainda instalar nas mesmas máquinas o Adobe Photoshop CS4, ao preço de R$ 837,77 cada licença, e o After Effect 6.5 por R$ 1.620,68 cada, teria que fazer investimento adicional de R$ 258.137,25. Esse valor total de R$ 646.532,25, somente para esses três softwares, não contabiliza as despesas com atualização (upgrade) de cada nova versão liberada pelo fabricante. Da mesma forma investimentos somente nestes três softwares não são seriam suficientes para permitir que alunos e professores pudessem realizar todos os processos necessários para a criação de produtos para rádio e televisão, por exemplo, pois, como dito nesta pesquisa, na UMESP outros softwares são disponibilizados para a realização das atividades de criação de produtos audiovisuais. 217 Por outro lado, se uma entidade educacional optasse por instalar o software livre Cinelerra, equivalente ao Final Cut Studio, nas 5 ilhas de edição de vídeo e nas 100 máquinas dos laboratórios de informática não desembolsaria nenhum centavo, pois o Cinelerra, bem como o Jahshaka e GIMP são softwares livres. O mesmo ocorre se substituísse o CorelDRAW X3, cujo custo médio de cada cópia é de R$ 297, 34, ou o Adobe Illustrator 10 para MAC, que custa em média R$ 1. 250,01 por cópia, pelo Inkscape que é aberto e sem custo. Portanto, ainda que sejam poucos conhecidos pelas instituições de ensino ou empresas de comunicação brasileiras os resultados desta pesquisa mostram que a adoção, mesmo complementar, dos softwares livres analisados pode trazer considerável economia com o pagamento de licenças para as escolas de comunicação. Além dos benefícios econômicos com o pagamento de licenças, tais resultados também mostram que nas cinco categorias os softwares livres analisados apresentaram qualidade equivalente ou até superiores as dos softwares proprietários para importar e exportar os principais formatos de arquivos. Por fim, sem a intenção de reduzir a importância da indústria de microcomputadores e da indústria do software proprietário, pois foram elas que popularizam o uso das tecnologias da informática entre os cidadãos comuns, esperamos que este estudo contribua para estimular o uso de softwares livres pelas faculdades e empresas de comunicação do Brasil, para o desenvolvimento de novas pesquisas sobre este tema, formação de novas comunidades interessadas em compartilhar conhecimentos sobre inovações tecnológicas, novos códigos éticos de colaboração e novas formas interativas de comunicação digital, pois todos os dias novas oportunidades profissionais surgem na área da comunicação e do Radialismo (RTV), mas, geralmente, tais oportunidades estão associadas à capacidade que os estudantes têm para se relacionar, comunicar e utilizar os novos aparatos tecnológicos em processos de criação, produção, desenvolvimento e interpretação de materiais audiovisuais. 218 REFERÊNCIAS ALCANTARA, Paulo Roberto. Tecnologia multimídia na escola regular e especial. Revista Educação e Tecnologia – Centro Federal de Educação Tecnológica do Paraná. Ano 2, No. 4, Curitiba, 1999. AZEVEDO Eduardo. CONCI Aura. Computação Gráfica. Rio de Janeiro: Elsevier, 2003. BARBOSA FILHO, André. COSETTE, Castro. TOME, Takashi (Org) Mídias Digitais: Convergência tecnológica e inclusão social. São Paulo: Paulinas, 2005. BARBOSA, Denis Borges. Registro do Programa na Nova Lei de Software (mimeo). http://nbb.com.br/english/publications/intellectual_04.html Acesso em 12/12/08. ___________________Tipos de Software, contratos de software e sua tributação (mimeo). Disponível em http://nbb.com.br/english/publications/intellectual_04.html Acesso em 12/12/08. BATTEZZATI. Silma C.C. Os Desafios da Internet para os profissionais de Comunicação. INFOCOM - Semana Acadêmica de Comunicação Social e Tecnologia da Informação. Curitiba. Faculdades ESEEI, 2008. __________________. Estratégias de Gestão e Modernização Tecnológica In: ENDECOM 2006 – Fórum Nacional em Defesa da Qualidade do Ensino de Comunicação,. ECA/USP, São Paulo, 2006. ___________________. A Aprendizagem Colaborativa em Ambientes de CMC. 4º Encontro de Educação a Distância da Universidade Metodista de São Paulo. UMESP – São Bernardo do Campo, 2005. ___________________. Mídia e Tecnologia na área educacional. Revista do Instituto Superior de Educação da América Latina - ISAL. Curitiba, 2005. ___________________. Vencer a ruptura entre teoria e prática: um desafio para os Cursos de Comunicação Social no Brasil. Revista InterMAIS - INTERFACES Amazonas, Universidade Federal do Amazonas (Ufam). Ano 1, n. 1, jan./jun. 2005. Disponível em: http://www.interfaces.ufam.edu.br/revista/ruptura_4.html. ____________________. BORTOLOZZI, Flávio. O Ambiente AMANDA: uma referência para intensificar a interatividade em fóruns com mediação automatizada. Revista Diálogo Educacional, Curitiba, v. 4, n.12, p.189-204, maio/ago. 2004. ____________________. A Aprendizagem Colaborativa em Fóruns com Mediação Automatizada: O Ambiente Amanda. Dissertação de Mestrado. Pontifícia Universidade Católica do Paraná. Curitiba, 2003. BEHRENS, Marilda Aparecida. O Paradigma Emergente e a Prática Pedagógica. Curitiba: Champagnat, 2º edição, 2000. BRITO, Allan. Blender 3D: guia do usuário. São Paulo: Novatec Editora, 2006. 219 BORDINI, Ricardo Mazzini. Introdução à Multimídia na Web. Laboratório Multimídia de Materiais Didáticos Aplicados à Música – Tutoriais. Centro de Laboratórios Integrados de Música (CLIM). Universidade Federal da Bahia / Salvador. http://www.hugoribeiro.com.br/Curso_HTML/media/c01.htm BOTELHO, Antonio José Junqueira. Práticas de Proteção de PI de Software nas Empresas Brasileiras Produtoras de Software. INPI, Rio de Janeiro, 29 de agosto de 2008. www.inpi.gov.br/menu-esquerdo/academia-da-propriedade-intelectual-e.../PIemQuestao_2908-08_AntonioJunqueira.pdf BOUQUET, Michele. 3D Studio: dicas técnicas: versões 3 e 4. São Paulo: Makron Books, 1995. CADENA, Nelson. 200 Anos de Imprensa no Brasil: O curso de jornalismo da ABI que não decolou. http://www.abmp.com.br/falemercado/ColNelson_SobreOAutor.asp. Acesso em 20/06/2007. CAETANO, Fagundes. LISHA - O Laboratório de Integração Software e Hardware (2002). Disponível em: http://www.lisha.ufsc.br/~caetano / http://epos.lisha.ufsc.br/wpkg/stb.pdf http://www.lisha.ufsc.br. Acesso em 18/08/08. CAMPOS, Augusto. O que é software livre. BR-Linux. Florianópolis, março de 2006. Disponível em http://br-linux.org/linux/faq-softwarelivre. CARLSON, Wayne A Critical History of Computer Graphics and Animation. Ohio State University. http://www.design.osu.edu/ carlson/history/ID797.html CASTELLS, Manuel. A Galáxia da Internet: reflexões sobre a Internet, os negócios e a sociedade. Rio de Janeiro: Jorge Zahar Ed. 2003. ________________. A Sociedade em Rede - A Era da Informação: economia, sociedade e cultura; v.1. 3. ed. São Paulo: Paz e Terra, 1996. _________________. Fim de Milênio. São Paulo: Paz e Terra, 1998. _________________. O Poder da Identidade. 2ª edição Coleção. A Era da Informação: Economia, Sociedade e Cultura. Volume 2. São Paulo: Paz e Terra, 1997. CASTRO, Álvaro. Propaganda e Mídia Digital: a Web a grande mídia do presente. Rio de Janeiro: Qualitymark Editora, 2000. CASTRO, Cláudio de Moura. SCHWARTZMAN Simon. Reforma da Educação Superior: uma visão crítica. Brasília: Funadesp, 2005. CARVALHO, Ana Paula Ferreira de. Medição de Cor de Imagens Hiperespectrais Aviris pelo Sistema CIE (Commission Internationale D’Éclairage ). Anais X SBSR, (mimeo). Foz do Iguaçu, 21-26 de abril de 2001, INPE, p. 1225-1232, Sessão Técnica Oral – Workshops. CEBRIÁN, Juan Luis. A Rede: como nossas vidas serão transformadas pelos novos meios de comunicação. v. 59. São Paulo: Summus, 1999. CERQUEIRA, Tarcísio Queiroz. Software, Direito Autoral e Contratos. Editora Polar, Fotomática Editora/Adcoas: Rio de Janeiro, 1993. CHANTLER, Paul. HARRIS Sim. Radiojornalismo. São Paulo: Summus,1998. 220 CNE - Conselho Nacional de Educação. Diretrizes Nacionais para a Educação Nacional. Parecer CNE/CES 1.363/2001 – Homologado. Despacho do Ministro em 25/1/2002, Diário Oficial da União 29/1/2002, Seção 1. CORELDRAW user’s Manual (mimeo). Ontário, Canadá: Corel Corporation, 1994. COHEN Peter. Apple adquire Silicon Color. Revista MacWorld de 16 out. de 2006. http://en.Wikipedia.org/wiki/Color CYSNEIROS, P.G. Professores e máquinas: Uma concepção de informática na educação. III Congresso da RIBIE - Rede Iberoamericana de Informática Educativa, Barranquilla, Colômbia, 1996 (Anais). Reunião Anual da Anped, 1997 (Anais). Universidade Federal de Pernambuco, Recife, NIE/NPD. 1999. Disponível em www.npd.ufpe.br DEFLEUR,Melvin. BALL-ROKEACH, Sandra. Teorias da Comunicação de Massa. Jorge Zahar Editor. Rio de Janeiro, 1989. DIZARD, Wilson JR. A Nova Mídia. Rio de Janeiro: Jorge Zahar Editor, 2000. DUARTE, Jorge. BARROS, Antônio. Métodos e Técnicas de Pesquisa em Comunicação. São Paulo: Atlas, 2005. ECO, Humberto. Como se Faz Uma Tese. São Paulo: Perspectiva, 2004. FALCÃO, Joaquim e outros. Estudo sobre o Software Livre (mimeo). Escola de Direito da Fundação Getulio Vargas. Rio de Janeiro: Licença Creative Commons, 2005. FALLEIROS, Dario Pimentel. O Mundo Gráfico da Informática: Editoração eletrônica, Desing Gráfico & Artes Digitais. São Paulo: Futura, 2003. FREIRE, Paulo. Aprendendo com a própria história. Rio de Janeiro: Paz e Terra. 1987. FREE SOFTWARE FOUNDATION. Software Livre e o Paradigma Libertário. http://www.fsf.org/ Acesso: 20/06/2007. FRIEDMAN, Thomas L. O Mundo é Plano: uma breve história do século XXI. Rio de Janeiro: Editora Objetiva Ltda, 2005. GAMBA JUNIOR, Nilson Gonçalves. Computação Gráfica para Designer: dialogando com as caixinhas de dialogo. Rio de Janeiro: 2AB, 2003. GATES, Bill. A Estrada do Futuro. São Paulo:Companhia das Letras,1995. GIACOMINI FILHO, Gino. Consumidor versus Propaganda. São Paulo: Summus, 1991. GIACOMANTONIO, Marcelo. O Ensino Através dos Audiovisuais. São Paulo: Summus,1981. GIL, Antônio Carlos. Métodos e Técnicas de Pesquisa Social. 5ª ed. São Paulo: Atlas, 1999. GORDON, Bob. GORDON, Maggie. Design Gráfico Digital: o guia completo. The Ilex Pess Limited. Cambridge: England. Versão portuguesa Lisboa: Central Livros, 2003. GUIA LIVRE. Referência de Migração para Software Livre do Governo Federal. Grupo de Trabalho Migração para Software Livre. Brasília: mimeo, 2005. Disponível em: http://www.governoeletronico.gov.br/acoes-e-projetos/guia-livre/?searchterm=guia%20livre HARTLEY,Robert F. Erros de Marketing. São Paulo: Editora Manole, 2001. 221 INTERCOM – Revista Brasileira de Ciências da Comunicação. São Paulo, v.30, n.2, julho/dezembro de 2007. v.30, n.1, janeiro/junho de 2007. INTERCOM – Revista Brasileira de Ciências da Comunicação. São Paulo, v.29, n.1, janeiro/junho de 2006. V.29, n.2, julho/dezembro de 2006. JANUÁRIO Marcelo. Costa Rego. Dicionário PJ:Br – Jornalismo Brasileiro.Disponível em: www.eca.usp.br/pjbr/arquivos/dic_c6.htm. Acesso em 12/12/2007. JOURDAIN, Robert. Múscia, Cérebro e Êxtase: como a música captura nossa imaginação. Rio de Janeiro: Objetiva 1998. JOSGRILBERG, Fabio. Inclusão Digital: educação e desenvolvimento econômico: alguns marcos do debate. Revista FAMECOS: Porto Alegre, no. 33. Agosto de 2007. KUNSCH, Margarida M. Krohling. (org.): Ensino de Comunicação: Qualidade na Formação Acadêmico-Profissional. São Paulo: ECA- USP: Intercom, 2007. ________________________ O Ensino de Comunicação: análises, tendências e perspectivas. São Paulo: ABECOM, 1992. _________________________Universidade e Comunicação na Edificação da Sociedade. São Paulo: Loyola, 1992. LDB - Lei de Diretrizes e Bases da Educação Nacional - Lei 9394/96. Disponível em www.planalto.gov.br/ccivil_03/LEIS/l9394.htm - 141k - Acesso em 10/ 04/07. LEMOS, André. PALACIOS, Marcos. Janel@s do Ciberespaço: comunicação e cibercultura. Porto Alegra: Sulina, 2001. LÉVY. Pierre. Cibercultura. Trad. Carlos Irineu da Costa. São Paulo: Ed. 34 Ltda, 1999. LÉVY, Pierre. O Que é Virtual. Trad. Paulo Neves. São Paulo: Editora 34 Ltda, 1996. LÉVY, Pierre. As Tecnologias da Inteligência - O futuro do pensamento na era da informática. São Paulo: Editora 34, 1993. Lindstrom, Robert L. Guia Business Week para Apresentações em Multimídia. São Paulo: MAKRON Books, 1995. MAUSS Marcell. Ensaio sobre a Dádiva. São Paulo, Cosac & Naif, 2003. MARQUES DE MELO, José. (org). O Campo da Comunicação no Brasil. São Paulo: Editora Vozes, 2008. ___________________. Pedagogia da Comunicação: Matrizes Brasileiras. 1º. Ed. São Paulo: Angellara, 2006. ___________________. O Ensino de Comunicação e os Desafios da Modernidade, In: Comunicação e Modernidade. São Paulo: Loyola, 1991. ___________________. História do Pensamento Comunicacional. Editora Paulus. 2003. ___________________. Teoria e Comunicação: paradigmas Latino-Americanos. Petrópolis, Editora VOZES, 1998. ____________________. Para uma Leitura Crítica da Comunicação. São Paulo: Edições Paulinas, 1985. 222 ____________________.Comunicação Social: Teoria e Pesquisa. 6a ed. Petrópolis: Editora Vozes, 1978. ____________________.Contribuições para uma Pedagogia da Comunicação. São Paulo: Edições Paulinas, 1974. MEDITSCH, Eduardo. O Rádio na Era da Informação – Teoria do Novo Radiojornalismo Florianópolis; Insular - Editora da UFSC, 2001. MENEGOTTO José Luis. ARAÚJO Tereza Cristina Malveira de. O Desenho Digital Técnica e Arte. Rio de Janeiro: Interciência, 2000. MILIES. Cesar Polcino. A Matemática dos Códigos de Barras. Universidade de São Paulo. mimeo: São Paulo, 2006. MILANI. André. GIMP: Guia do Usuário. São Paulo: Novatec Editora Ltda. 2005 MORAN, José Manuel. Novas Tecnologias e Mediações Pedagógicas. José Manuel Moran, Marcos T. Masetto, Marilda Aparecida Behrens. Campinas, SP: Papirus, 2000. __________________. Leituras dos Meios de Comunicação. São Paulo, Ed. Pancast, 1993. MCLUHAN, Marshall. Os Meios de Comunicação como Extensões do Homem. São Paulo. Editora Cultrix Ltda, 1964. NAISBITT, John. High Tech High Touch: a tecnologia e a nossa busca por significado. São Paulo: Editora Cultrix, 1999. OLIVEIRA, Rômulo Silva de. CARISSIMI, Alexandre da Silva. TORCANI, Simão Sirineo. Sistemas Operacionais. Porto Alegre: Bookman: Instituto de Informática da UFRGS, 2008. O’SULLIVAN, Tim et.al. Conceitos-chave em Estudos de Comunicação e Cultura. Piracicaba: Editora UNIMEP, 2001. PAULA FILHO,Wilson de Pádua. Multimídia Conceitos e Aplicações. Rio de Janeiro: LTC Livros Técnicos e Científicos Editora S.A., 2000. PARKER. Roger C. Desktop Publishing & Desing para Leigos. São Paulo: Berkeley, 1995. PERUZZO, Cicília M. K. SILVA, Robson B. da. (org). Retrato do Ensino da Comunicação no Brasil: analises e tendências. São Paulo: INTERCOM, Taubaté: UNITAU, 2003. PERUZZO Cicilia M. Krohling. Manual de Metodologia para Elaboração de Relatório de Qualificação, Dissertação de Mestrado e Tese de Doutorado (mimeo). Universidade Metodista de São Paulo. Faculdade de Comunicação Multimídia. Programa de Pós-Graduação em Comunicação Social (Póscom). São Bernardo do Campo, 2005. PISSUTO, Camila de Lima. O Trânsito e as Crianças: Aprendizagem Interativa em 3D. Trabalho de Conclusão de Curso - TCC. mimeo. Curitiba: Faculdades ESEEI. Curso de Comunicação Social: Habilitação Editoração Mídia Digital, 2006. PLUMLEY, Sue. Adobe Illustrator 4 for Windows Técnicas Avançadas. São Paulo: Berkeley, 1995. PPC. Projeto Pedagógico de Curso (mimeo). Curitiba: Faculdades ESEEI, 1999. RABAÇA, Carlos Alberto. BARBOSA, Gustavo Guimarães. Dicionário de Comunicação. Nova Edição Revista e Atualizada. Rio de Janeiro: Elsebier, 2002. 223 RANDELL, Brian, ed. As Origens dos Computadores Digitais: Tradução Paul Roger Selected Papers, 3 ª ed. (NY, NY: Springer-Verlag) 1982. RAYMOND. Eric S. A Catedral e o Bazar. Tradução Erik Kohler (2004). Cópia e redistribuição permitida - livre. Disponível em The Linux Logic Home. Disponível em: http://www.geocities.com/CollegePark/Union/3590/pt-cathedral-bazaar.html. REVISTA COLEÇÃO GUIA FÁCIL INFORMÁTICA. Edição Especial. no. 009 – Editora On-line. São Paulo. Nov/2007. REVISTA ÉPOCA. Ciência e Tecnologia. Ed. 489426. Editora Globo S.A. 01 de Nov. 2007. Disponível em:http://revistaepoca.globo.com/Revista/Epoca/0,,EDG79322-6010-489,00.html REVISTA EXAME. Cisco Systems. Edição 927. Ano 42. No. 18 – 24/09/2008. Editora Abril. São Paulo, Brasil. REVISTA EXAME. Como o Software Livre está Ajudando as Empresas Brasileiras a Cortar Custos. Edição 857. Ano 39. No. 24 Editora Abril. São Paulo, Brasil. 7 de dez. de 2005. REVISTA EXAME. O Poder da Geração Digital. Edição nº 875. Ano 40. No. 17 Editora Abril, São Paulo. 30/08/ 2006. REVISTA INFO. Software Livre Faz Desenhos de Primeira. Editora Abril. São Paulo, Brasil 13 de fevereiro de 2008. http://info.abril.com.br/aberto/infonews/022008/130220081.shl. REVISTA INFO - Plantão Info, seção tecnologia. Revista Info. Editora Abril. São Paulo, Brasil . 13 de fevereiro de 2008. http://info.abril.com.br/aberto/infonews/022008/130220081.shl. REVISTA LINUX MAGAZINE. Qualidade em Software. Agosto de 2004. Disponível em: http://www.proqualiti.org.br/revista/revista_ProQualiti_maio2005.pdf. REVISTA MEIO-DIGITAL. A Revolução dos Sistemas de Busca e Vídeos On-line a TV do Futuro. No. 4 . São Paulo. Gráfica Aquarela. Grupo M&M. Março e Abril de 2008. REVISTA SUPERINTERESSANTE. Educação Digital: aprender é muito divertido. Edição Especial 162-A. São Paulo: Editora Abril. Abri de 2001. REVISTA SUPERINTERESSANTE. Edição de colecionador. 14 Tecnologias que vão fazer parte da sua vida daqui a 14 anos. Edição Especial 168. Editora Abril. Setembro de 2001. REVISTA VEJA. Fábrica de Maus Professores. Edição 2088. Editora Abril, São Paulo. 26 de novembro de 2008. REVISTA VEJA. Em apenas 3 Segundos. Edição especial 2078. Ano 41. Editora Abril, São Paulo. Set/2008. REVISTA VEJA. As 10 Tecnologias que estão Transformando o Mundo. Edição Especial de Natal 2036. Ano 40 . Editora Abril, São Paulo. Dez. de 2007. REVISTA da PoloTICs. A Hierarquia das Redes de Internet e os Custos para o Usuário Final: rede de informações para o terceiro setor. Rio de Janeiro. NUPEF/RITS. Julho de 2008 (www.rits.org.br). 224 REVISTA PROQUALITI. Qualidade na Produção de Software. Núcleo de Estudos Avançados em Engenharia e Qualidade de Software (mimeo). Volume 1 – No.1 – Maio 2005. Lavras: Universidade Federal de Lavras,2005. http://www.proqualiti.org.br/revista/revista_ProQualiti_maio2005.pdf RUBIN, David M. O Músico Desktop. São Paulo: Makron Books, 1996. SHARP, Peter. Da Lâmina de Barbear ao Desktop: uma história de edição de vídeo http://www.netribution.co.uk/content/view/590/304/ www.netribution.co.uk/content/view/1236/277/ SIEGFRIED, Tom. O Bit e o Pêndulo. Rio de Janeiro: Editora Campus, 2000. SILVA, Rafael Peregrino. Opção do Governo pelo Software Livre Começa a Incomodar: Microsoft X Governo. Revista Linux Magazine. Edição n. 1. p. 8-9, agosto - 2004. SILVA, Denise Bandeira. GRANVILLE, Lisandro Z. IV Workshop sobre Software Livre – WSL2003. Porto Alegre, RS: Sociedade Brasileira de Computação, 2003. SILVA, Marcelo Rocha da. Apostila de Informática Básica. (mimeo s/d). Associação Educacional Sul-Rio-Grandense. Faculdade Porto-Alegrense – FAPA - Porto Alegre – RS. http://www.wisesolutions.com.br/notasdeaula/apostila%20-%20ib.pdf SILVEIRA, Sérgio Amadeu da. Introdução de Comunicação Digital e a Construção dos Commons: redes virais, espectro aberto e as novas possibilidades de regulação. São Paulo: Editora Fundação Perseu Abramo, 2007. _______________. A Mobilização Colaborativa e a Teoria da Propriedade do Bem Intangível. Tese de Doutorado - Universidade de São Paulo, USP. São Paulo: mimeo, 2005. ________________. Inclusão Digital, Software Livre e Globalização Contra-hegemônica. Seminários temáticos para a 3ª Conferência Nacional de C,T&I. Revista Parcerias Estratégicas. mimeo. Edição 20. Junho de 2005. http://www.cgee.org.br/parcerias/p20.php http://www.cidadefutura.org.br/meulugar/arquivos/inclusao_digital.pdf ________________. Software Livre: a luta pela liberdade do conhecimento. São Paulo:Editora: Fundação Perseu Abramo Páginas: 2004. _________________. Software Livre e Inclusão Digital. São Paulo: Conrad Editora. 2003. ________________. Exclusão Digital Miséria na Era da Informação. São Paulo: Editora: Fundação Perseu Abramo Páginas: 2001. ________________. Software Livre Representa Avanço na Sociedade Democrática. Revista Com Ciência - Revista Eletrônica de Jornalismo Científico. http://www.comciencia.br/200406/entrevistas/entrevista1.htm ______________. Commons: a revolução na produção simbólica (2007).Observatório da Imprensa.cultura.gov.br/foruns_de_cultura/cultura_digital/na_midia/index.php?p=26056&mo re=1&c=1&pb=1 STALLMAN Richard - Cultura Hacker. http://gustgr.freeshell.org/theGNUproject.pt.html STALLMAN, Richard. Free Software Free Society: selected essays. Edited by Joshua Gay. USA, Boston: GNU Press, 2002. STALLMAN Richard. Cultura Hacker- http://gustgr.freeshell.org/theGNUproject.pt.html 225 STRAUBHAAR, Joseph D. Comunicação, Mídia e Tecnologia. São Paulo: Pioneira Thomson Learning, 2004. SQUIRRA, Sebastião Carlos de Morais. A tecnologia, a sociedade do conhecimento e os comunicadores (mimeo). Intercom. SP. Santos 2007. ______________ Sociedade do Conhecimento. In: José Marques de Melo; Luciano Sathler. (Org.). Direitos à comunicação na Sociedade da Informação. mimeo, São Bernardo do Campo/SP: 2005. ______________ Jorn@lismo online. São Paulo: Editora Arte e Ciência. CJE/ECA/USP. 1998. _____________ Telejornalismo Memórias 1. São Paulo: Universidade Metodista de São Paulo. Escola de Comunicação e Artes. 1997. ______________ O Século Dourado: a comunicação eletrônica nos EUA. São Paulo: Summus, 1995. _____________O Telejornalismo Brasileiro num Cenário de Competitividade. São Paulo. ECA/USP: mimeo. 1994. _____________ Boris Casoy: O Âncora no Telejornalismo Brasileiro. Petrópolis. Vozes, 1993. _____________ Leitura de Imagens. (mimeo) Capítulo do livro Sociedade midiática – Significação, mediações e exclusão. Editora Universitária Leopoldianum, Santos, 2000, v.1, p.105-127.http://www.metodista.br/poscom/cientifico/publicacoes/ultimas-publicacoes/atct_ topic_view?b_start:int=30. TARNAS, Richard. A Epopéia do Pensamento Ocidental: para compreender as ideias que moldaram nossa visão de mundo. 8o. ed. - Rio de Janeiro: Bertrand Brasil, 2008. TAURION. Cezar. Software Embarcado: a nova onda da informática. Rio de Janeiro: Brasport, 2005. TAURION. Cezar. Software Livre: Potencialidades e Modelos de Negócios. Rio de Janeiro: Brasport, 2004. _______________. Etiqueta Eletrônica. 2004. Disponível em: Disponível em: http://www.ibm.com/br/services/articles/author/a05.shtml ______________. O Avanço da Mobilidade. 2003. Disponível em: Disponível em: http://www.ibm.com/br/services/articles/author/a05.shtml ______________. O que são Web Services? 2003. Disponível em: Disponível em http://www.ibm.com/br/services/articles/author/a05.shtml ______________. O Futuro Bate a sua Porta. 2003. Disponível em:Disponível em: http://www.ibm.com/br/services/articles/author/a05.shtml TOFFLER Alvin. A Terceira Onda: a morte do industrialismo e o nascimento de uma nova civilização. 26ª. Ed. Rio de Janeiro: Editora Record, 2001. TOFFER Alvin. Heidi THOFFLER. A Riqueza Revolucionaria. São Paulo: Futura, 2007. 226 TOMAS, Venetianer. Desmistificando o Desktop Publishing. São Paulo: McGraw-Hill, 1990. ________________ A Revolução Inacabada. São Paulo: Editoria Futura, 2002. TRIVIÑOS, Augusto Nibaldo Silva. Introdução à Pesquisa em Ciências Sociais: a pesquisa qualitativa em educação. São Paulo: Atlas, 1987. VALVERDE . Joaquim, M.M. Proposta de Modelo Transdisciplinar para Comunicação com Mídias Digitais, (mimeo). Tese de doutorado. São Bernardo do Campo. São Paulo. UMESP, 2008. _________________ Impacto das Mídias Impressa, Audiovisual e Hipermídia nos processos de Aprendizagem. Dissertação de Mestrado. (mimeo), São Bernardo do Campo. São Paulo.UMESP, 2003. WACHOWICZ Marcos. A Complexidade do Domínio Público Relativamente ao Software (mimeo). Universidade Federal de Santa Catarina. Santa Catarina, 2008. Disponível em: www.cultura.gov.br/site/wp-content/uploads/2008/12/texto_marcos_wachowicz_mesa7.pdf WEBER, Raul Fernando. Arquitetura de Computadores Pessoais. Porto Alegre: Bookman: UFRJS, 2008. WEN, Howard. Editando no Linux Professional Vídeo com Cinelerra. www.linuxdevcenter.com/pub/a/linux/2003/12/30/cinelerra.html - 41k WHITTAKER, Ron. Television Production do CyberCollege. http://www.cybercollege.com/tvp057.htm WURMAN, Richard Saul. Ansiedade de Informação: como transformar informação em compreensão. São Paulo: Cultura Editores Associados, 1991. SITES ACORDO TRIPS. Acordo Relativo aos Aspectos do Direito da Propriedade Intelectual (ADPIC). http://www.cultura.gov.br/site/wp-content/uploads/2008/02/ac_trips.pdf. ADOBE http://www.adobe.com/br/products/aftereffects ADOBE PHOTOSHOP: http://www.adobe.com ADOBE STORE: https://store1.adobe.com/cfusion/store/index.cfm ALAIC: Asociación Latinoamericana de Investigadores de la Comunicación http://sistemas.usp.br/atena/atnCurriculoLattesMostrar?codpes=51860 ALMANAQUE DA COMUNICAÇÃO http://www.almanaquedacomunicacao.com.br/blog/?p=514 AMPEX MARK IV http://www.vtoldboys.com APPLE http://www www.Apple.com/quicktime/ APPLE http://www www.Apple.com/br/imprensa. 227 APPLE http://www.Apple.com/finalcutstudio. ARDOUR http://Ardour.org/node/976 ASSOCIAÇÃO NACIONAL PARA O SOFTWARE LIVRE - PT - http://www.ansol.org/ APPLE INC. Disponível em: http://pt.Wikipedia.org/wiki/Apple. AUDACITY http://www Audacity.sourceforge.net AVID www.avid.com/ BBC RESEARCH www.bccresearch.com/ BBC VThttp://www.vtoldboys.com BBC – www.bbc.co.uk - http://broadcastengineering.com/hdtv/digital_file_formats_0203/ BBC VT http://www.vtoldboys.com BLENDER http://studioz.multiply.com/links/item/408 ou Blender.org CINEPAIN www.cinepaint.org. CINEPAINT. http://www www.cinepaint.org CINELERRA.http://www.cinelerra.org CINELERRA www.linuxdevcenter.com/pub/a/linux/2003/12/30/cinelerra.html - 41k __________ www.linuxdevcenter.com/pub/a/linux/2003/12/30/cinelerra.html COLOR http://en.Wikipedia.org/wiki/Color COLOR http://en.Wikipedia.org/wiki/C COLLADA. http://pt.Wikipedia.org/wiki/COLLADA. CORELDRAW www.corel.com.br/pt/ CULTURA COMUNITÁRIA VIRTUAL. https://gestao.idbrasil.gov.br/menu_interno/03projeto_comunitario. COMUNIDADE GNU/LINUX DO BRASIL. http://www.lsi.upc.es/~kyller/pt/links-2.html _________________www.comlinux.com.br/docs/comofazer/hsp56.shtml _________________www.comunidadelinux.com.br/ COMTEC. Disponível em: http://www.mundodosfilosofos.com.br/comte.htm COMUNICATION RIGHTS IN THE INFORMATION SOCIETY. www.crisinfo.org CREATIVE COMMONS. www.creativecommons.org.br CNPq. http://www.cnpq.br/servicos/propriedadeintelectual/oqueepatenteavel.htm DECLARAÇÃO DE BARCELONA PARA O AVANÇO DO SOFTWARE LIVRE http://www.softwarelivre.org/news/2297 DEMASY, Carole. www.artkm.be 228 DIGIDESIGN http://www www.digidesign.com DIGITAL CORPO.RATION. http://www.sssm.com/editing/museum/ampex/ampex.html DREAMWORKS. http://www.dreamworks.com DUARTE, Juca. Seções relacionadas 3ds max. http://imasters.uol.com.br/artigo/4200/3dsmax/mentalray_occlusion/ EECO – http://www.screeneditors.com/forums/archive/index.php/t-21.html: ELECTRONIC ENGINEERING COMPANY OF CALIFONIA. http://www.screeneditors.com/forums/archive/index.php/t-21.html ESCOLA SUPERIOR DE ESTUDOS EMPRESARIAIS E INFORMÁTICA – ESEEI. http://www.eseei.edu.br - www.eseei.edu.br EXECUTIVA NACIONAL DOS ESTUDANTES DE COMUNICAÇÃO SOCIAL http://www.enecos.org.br/ FACULDADES ESEEI www.spet.br – www.eseei.edu.br ___________________http://www.spet.br/institucional.html ___________________http://www.spet.br/tecnologia/agencias.html ___________________http://www.spet.br/pesquisa_e_extensao.html ___________________http://www.spet.br/responsabilidade_social.html FLOGAO http://www.flogao.com.br/linuxbh/foto/12/36782947 GIMP www.GIMP.org GIMP.br http://www.GIMP.hpg.ig.com.br/index.htm GOOGLE TRANSLATE http://translate.google.com/translate_t?hl=pt# GUIA DO HARDWARE http://www.guiadohardware.net/termos/s.html#super-vga-svga GRUPOLINUX (GIL). Disponível em: http://www.grupolinux.org/ GUL – UCDB. Disponível em: http://www.glug.ucdb.br/ GLOSSÁRIO HOSPEDENET. www.hospedenet.com.br/info/Dithering.html - 17k HYDROGEN http://hydrogen-music.org/ HEROINE http://heroinewarrior.com/cinelerra.php3 HISTORY OF TAPE RECORDING TECHNOLOGY http://www.tvhandbook.com/History/History_recording.htm IBM-Internacional Buziness Machines Corpotation.http://pt.Wikipedia.org/wiki/IBM http://www-306.ibm.com/software/br INKSCAPE http://www.inkscape.org INTERACTIVE UNIX System. http://en.Wikipedia.org/wiki/INTERACTIVE_UNIX JAHSHAKA http://superdownloads.uol.com.br/download/23/jahshaka http://jahshaka.org/ 229 KERNEL http://en.Wikipedia.org/wiki/Kernel_%28computer_science%29. LINUX DEVICES www.linuxdevices.com LINUX4.TV www.linux4.tv LINUX – UFSC. http://linux.lcmi.ufsc.br/ LISHA Laboratório de Integração Software e Hardware http://www.lisha.ufsc.br. MAYA http://usa.autodesk.com MICROSOFT CORPORATION. http://pt.Wikipedia.org/wiki/Microsoft. MUSEU VIRTUAL: MUSEU DE TÉCNICAS E EQUIPAMENTOS DE EDIÇÃO ANTIGOS. http://www.sssm.com.html http://www.sssm.com/editing/museum/ampex/ampex.html. OBSERVATÓRIO DA IMPRENSA http://www.observatoriodaimprensa.com.br/artigos. O GLOBO ON-LINE http://oglobo.globo.com/economia/mat/2008/09/18/Internet_chega_20_2_dos_lares_brasileiro s_segundo_pnad_2007-548274951.asp PODCASTING http://pt.Wikipedia.org/wiki/Podcasting PROJETO TWIKI http://twiki.org PRO TOOLS http://www.digidesign.com RED DIGITAL CINEMA CAMERA COMPANY: www.red.com ROSEGARDEN rose http:// www.gardenmusic.com SAINT-MOULIN Benoît www.bsm3d.com SAINT-MOULIN, Benoît www.tdt3d.com/articles_viewer.php?art_id=99-www.bsm3d.com SILICON GRAPHICS INC http:// www.usa.autodesk.com SOCIAL SCIENCES CITATION INDEX (SSCI).http://scientific.thomson.com/products/ssci/ SOCIEDADE PARANAENSE DE ENSINO TECNOLOGIA – SPET. http://www.spet.br SONY http://www.sonycreativesoftware.com/products/product.asp?pid=431| SONIC FOUNDRY/ http://www.Sonysonycreativesoftware.com/products/vegasfamily SOUND FORGE http://www.sonycreativesoftware.com/products/product.asp?pid=431| SONY VEGAS www.sonycreativesoftware.com SLACKWARE – ES.: http://www.eslack.org/ STL en.Wikipedia.org/wiki/STL TD T3D The Dream Team http://www.tdt3d.be TELEVISION PRODUCTION DO CYBERCOLLEGE www.cybercollege.com/tvp057.htm THE FREE DICTIONAR. http://encyclopedia2.thefreedictionary.com/workstation 230 TORVALDS, Linus. http://wikimediafoundation.org/wiki/Home- GNU Free Documentation License. TONBAND MUSEUM. http://www.useddlt.com/ampex-story-teil2.html THE FREE DICTIONARY http://encyclopedia2.thefreedictionary.com TV LINUX ALLIANCE www.tvlinuxalliance.org UNIVERSIDADE METODISTA DE SÃO PAULO. http://www.metodista.br _________________http://www.metodista.br/sobre-a-metodista/historia _________________http://www.metodista.br/comunidade/comunidade/agencias _________________http://www.metodista.br/bkp/rtv/agencia-de-comunicacaomultimidia/agencia-de-comunicacao-multimidia/?searchterm=agencia%20de%20RTV. _________________http://www.metodista.br/focat/cursos-da-facet/agenda/historico/ _________________www.metodista.br/poscom/informacoes-gerais/sobre-o-programa _________________http://www.metodista.br/consun/camaras-permanentes.pdf/sobre-oconsun _________________http://www2.metodista.br/unesco/catedra.htm _________________http://www.metodista.br/siga-2.0 _________________http://www.metodista.br/rtv/noticias/rtv/módulos _________________http://www.metodista.br/rtv/rtv/curso _________________http://www.metodista.br/radio UNIVERSIDADE DE NOVA GALES DO SUL. www.netribution.co.uk/content/view/590/304/ VÍDEO GRAPHICS Adapter.http://www.guiadohardware.net/termos/s.html#super-vga-svga V-RAY http://pt.Wikipedia.org/wiki/V-Ray WRAPPER http://broadcastengineering.com/hdtv/digital_file_formats_0203/ WRAPPER http:// www.broadcastengineering.com/hdtv/digital_file_formats_0203 WIKIPEDIA. http://pt.Wikipedia.org WORLD SUMMIT ON THE INFORMATION SOCIETY. ONU /ITU://www.esis.org in Josgrilberg. YAFRAY. http://pt.Wikipedia.org/wiki/V-Ray XEXIX http://pt.Wikipedia.org/wiki/Xenix 3M CORPORATION. Disponível em: http://www.bbc.co.uk site 2D e 3D http://www.tdt3d.be