LIGIA ELIANA SETENARESKI REPOSITÓRIOS DIGITAIS ABERTOS: UM MOVIMENTO DO LIVRE ACESSO ALTERNATIVO À ESTRUTURA OLIGOPOLIZADA DAS EDITORAS CIENTÍFICAS Dissertação apresentada ao Programa de Pós-Graduação em Políticas Públicas do Setor de Ciências Sociais Aplicadas da Universidade Federal do Paraná, como parte das exigências para obtenção do título de mestre. Orientador: Prof. Walter Tadahiro Shima Curitiba 2013 DADOS INTERNACIONAIS DE CATALOGAÇÃO NA PUBLICAÇÃO (CIP) BIBLIOTECA CENTRAL - UFPR Setenareski, Ligia Eliana Repositórios digitais abertos : um movimento do livre acesso alternativo à estrutura oligopolizada das editoras científicas / Ligia Eliana Setenareski. – Curitiba, 2013. 113f. : il., graf., tabs. Orientador: Walter Tadahiro Shima Dissertação (Mestrado) – Universidade Federal do Paraná, Setor de Ciências Sociais Aplicadas, Programa de Pós-Graduação em Políticas Públicas. Inclui Bibliografia. 1. Software livre. 2. Editoração eletrônica. 3. Oligopólios – Editoras. 4. Publicações científicas – Editoração. I. Shima, Walter Tadahiro. II. Título. III. Universidade Federal do Paraná. Setor de Ciências Sociais Aplicadas. Programa de Pós-Graduação em Políticas Públicas. CDD 025.04 DEDICATÓRIA Àqueles que perdi, in memoriam Aos meus pais Pedro Setenareski e Joana Karsperski Setenareski a quem devo o que sou. Por ensinarem a importância da integridade do ser. E à minha amada mãe, por ensinar o quanto é bom amar alguém. Ao meu irmão Júlio César Setenareski pela alegria de viver contagiante que deixou, e à minha irmã Jane Elisabeth Setenareski pelo apoio incondicional, sempre, à todos os meus projetos de vida. À todos a minha saudade. AGRADECIMENTO Agradeço ao Prof. Dr. Walter Tadahiro Shima pela confiança que depositou em mim e em meu trabalho. Por acreditar que eu poderia superar as dificuldades, que sem dúvida seriam encontradas na área econômica, uma área absolutamente nova para mim. Sua paciência, persistência, conhecimento e experiência foram imprescindíveis durante a orientação para que eu me mantivesse na rota e ultrapassasse a barreira da disciplinaridade. Agradeço ao Prof. Dr. Fabio Doria Scatolin pela atenção e conselhos que me deu, quando eu sonhei em entrar no Programa de Pós-Graduação em Políticas Públicas (4P), da UFPR. Agradeço ao Prof. Dr. Victor Manoel Pelaez Alvarez por todos os momentos de reflexão impostos durante a disciplina de Metodologia de Pesquisa, que foram fundamentais para o entendimento e aprofundamento da pesquisa. Agradeço aos meus colegas de trabalho no Sistema de Bibliotecas da UFPR: Helder Dantas de Santana; João Batista Masicz; Lucas Henrique Gonçalves; Maria Simone Utida dos Santos Amadeu; Maycon Johnes Cortez; Olívia Simões Pedrosa; Paula Carina de Araújo; e Tânia de Barros Baggio, pelos diferentes apoios técnicos que me ofereceram, exatamente quando eu mais precisava. Agradeço aos meus colegas do 4P pelo uso das palavras compartilhamento e solidariedade como motes para obter sucesso nessa díficil empreitada, em especial ao Wellington da Silva Pereira. Agradeço ao meu marido Marcos Sfair Sunyê, cujo amor e incentivo me fazem prosseguir, sempre. Agradeço aos meus irmãos: Glicínia Eliza Setenareski Piasecki; Pedro Setenareski Filho; Ana Maria Setenareski Ahrens; Lia Mara Setenareski Magrin; Ana Néri Setenareski Lopes, Lília Márcia Setenareski e Moisés Vinicius Setenareski, pelo amor e compreensão à minha ausência neste período de estudo. À Nossa Senhora, pela minha proteção. RESUMO Este trabalho mostra como funciona o oligopólio das publicações científicas e como, ao longo de um pouco mais de vinte anos, o movimento do software livre e de código fonte aberto se expandiu e gerou grandes desdobramentos em contraposição a este oligopólio. O movimento do software livre não se deu por acaso, e, tampouco seus desdobramentos. Os pesquisadores, cansados de contribuir com o oligopólio na produção de artigos científicos ou, ainda, atuando como revisores e participantes de conselhos editoriais, enquanto a indústria editorial obtinha altos lucros sobre os pacotes de periódicos vendidos às bibliotecas acadêmicas, lançaram no mercado editorial várias alternativas em contraposição ao oligopólio. Dentre elas estão: o copyleft e o Creative Commons em oposição ao copyright; o open access e os repositórios digitais abertos de instituições de ensino e pesquisa, disponibilizados gratuitamente na internet, em oposição aos repositórios fechados das editoras comerciais do oligopólio, que disponibilizam suas bases de dados nestes repositórios a altos preços; e a criação do h index, do g-index, do GSC, e de outros medidores de impacto, em contraposição ao fator de impacto controlado pelo oligopólio. No processo editorial, enquanto as instituições de ensino e pesquisa fornecem, por meio de seus pesquisadores, toda a mão de obra necessária à produção, arbitragem e conselho editorial, as editoras se encarregam de organizar os serviços, disponibilizar uma navegação confiável em suas bases de dados fechadas, com motores de busca precisos, e manter altos índices de impacto para as suas publicações. Atualmente o Google também dispõe de motores de busca confiáveis, que trazem resultados precisos, e fazem a navegação pelos repositórios digitais abertos. Além disso, o Google também dispõe de ferramentas para medir o impacto dos autores e das publicações. O Google e os repositórios digitais abertos, em simbiose, podem cuidar de todo o processo da publicação científica, desde a sua produção até a sua difusão e medição de impacto, como uma alternativa em contraposição ao oligopólio das editoras científicas. Palavras-chave: Oligopólio das Editoras Científicas. Padrões Tecnológicos. Externalidades de Rede. Movimento do Software Livre. Repositórios Digitais Abertos. Google. ABSTRACT This paper shows how it works the oligopoly in scientific publishing, and during a twenty-years or more how the Free Software Movement and Open sourcehas expanded creating such as great development in opposition to this oligopoly.The Free software is not by chance, neither its consequences.The researchers were tired to contribute with the oligopoly in scientific production,byacting as reviser or being part of editorial board, meanwhile the publishing industry earned high profits over on packaged periodicals sold to academic libraries. Those researchers had launched a large number of alternatives in opposition to the oligopoly.Among the alternatives are the copyleft and the Creative Commons in opposition to Copyright. The Open Accessand the open digital repositories from universities and research centers provided freely on the Internet instead those private digital repositories that provides their database at a high price. Moreover, the creation of h-index and gindex, from GSC, and other impact indexes, in contrast to the impact factor controlled by the oligopoly.In the editing process, while the universities and research centers provides, through their research workers and scholars, the whole workforce to the production, refereeing and the editorial board, the publication houses are charged to organize the services, and also make a safe navigation on their private databases with accurate search engines and high results in impact factor to their publishing.Currently, the Google makes available safe search engines, which gives resultsprecisely, and makes able to navigate on open digital repositories.In addition to, the Google also provides tools for measuring impact from authors and publications.The Googleand the Open Digital Repositories, in a symbiosis, are able to handle of the entire scientific publishing process, from the production to the dissemination and impact measurement as an alternative, in opposition to the oligopoly of scientific publishers. Keywords: Oligopoly in Scientific Publishers. Technology Standards.Network Externalities. Free Software Movement. Open Digital Repositories. Google. LISTA DE ILUSTRAÇÕES QUADRO 1 - ELEMENTOS ESTRUTURAIS DAS REDES DE EMPRESAS......................................................................... FIGURA 1 - 20 ESTRUTURA DOS REPOSITÓRIOS DIGITAIS FECHADOS NO MERCADO DAS PUBLICAÇÕES CIENTÍFICAS........................................................................ FIGURA 2 - PROCESSO TRADICIONAL DE PUBLICAÇÃO, VENDA E DIFUSÃO DE PERIÓDICOS CIENTÍFICOS......................... FIGURA 3 - 37 PRINCIPAIS INICIATIVAS EM PROL DO ACESSO ABERTO................................................................................ FIGURA 4 - 34 O MERCADO OLIGOPOLIZADO DOS ÍNDICES DE IMPACTO.............................................................................. QUADRO 2 - 30 57 PROCESSO DE PUBLICAÇÃO E DIFUSÃO DE PERIÓDICOS CIENTÍFICOS EM ACESSO ABERTO (OPEN ACCESS).................................................................. FIGURA 5 - OS REPOSITÓRIOS DIGITAIS ABERTOS E OS PADRÕES TECNOLÓGICOS............................................... QUADRO 3 - 59 62 PRINCIPAIS SOFTWARES LIVRES PARA GERENCIAMENTO DE REPOSITÓRIOS DIGITAIS............ 67 FIGURA 6 - O MERCADO ABERTO DOS ÍNDICES DE IMPACTO......... 73 FIGURA 7 - MERCADO DOS BUSCADORES EM NOVEMBRO DE 2000....................................................................................... FIGURA 8 - MERCADO DOS BUSCADORES EM NOVEMBRO DE 2011....................................................................................... FIGURA 9 - 78 AS EXTERNALIDADES DE REDE DOS REPOSITÓRIOS DIGITAIS ABERTOS............................................................. FIGURA 10 - 78 84 ÍNDICES DE IMPACTO DE CITAÇÃO DO ACESSO ABERTO VS O ACESSO FECHADO EM TODOS OS CAMPOS DA FÍSICA, NO PERÍODO COMPREENDIDO ENTRE OS ANOS DE 1992 E 2001...................................... FIGURA 11 - 89 AS AÇÕES DO OLIGOPÓLIO PARA IMPEDIR A PROLIFERAÇÃO DOS REPOSITÓRIOS ABERTOS VERSUS OS BOICOTES DOS PESQUISADORES AO OLIGOPÓLIO........................................................................ 96 SUMÁRIO 1 INTRODUÇÃO.............................................................................. 10 2 REFERENCIAL TEÓRICO............................................................ 14 2.1 ESTRUTURA DE MERCADO EM OLIGOPÓLIO......................... 14 2.2 ECONOMIA DE REDES................................................................ 19 2.3 EXTERNALIDADES DE REDES................................................... 21 2.4 PADRÕES TECNOLÓGICOS....................................................... 25 2.5 OS FUNDAMENTOS E FILOSOFIA DO SOFTWARE LIVRE E DOS REPOSITÓRIOS DIGITAIS.................................................. 3 A ESTRUTURA DE MERCADO DAS PUBLICAÇÕES CIENTÍFICAS................................................................................ 3.1 30 A ORGANIZACAO DA ESTRUTURA DE MERCADO DAS EDITORAS CIENTIFICAS NAS PUBLICAÇÕES.......................... 3.2 26 31 O OLIGOPÓLIO DAS EDITORAS CIENTIFICAS NO FATOR DE IMPACTO...................................................................................... 34 3.3 OS TIPOS DE BARREIRAS À ENTRADA.................................... 38 3.4 A DINÂMICA DOS PREÇOS DAS PUBLICAÇÕES EM OLIGOPÓLIO................................................................................ 39 3.5 COPYRIGHT E DIREITOS DO AUTOR........................................ 40 4 O MOVIMENTO DO SOFTWARE LIVRE E SEUS DESDOBRAMENTOS EM FUNÇÃO DA OPOSIÇÃO AO COPYRIGHT................................................................................. 4.1 ANTECEDENTES HISTÓRICOS DO MOVIMENTO DO SOFTWARE LIVRE....................................................................... 4.2 48 As licenças creative commons como uma doutrina de disseminação e compartilhamento do conhecimento.................... 5 46 O CONCEITO DE COPYLEFT EM OPOSIÇÃO AO CONCEITO DE COPYRIGHT .......................................................................... 4.3.1 44 PRINCIPAIS CARACTERÍSTICAS E BENEFÍCIOS DO SOFTWARE LIVRE COM CÓDIGO FONTE ABERTO................. 4.3 44 50 OS PADRÕES TECNOLÓGICOS NAS FERRAMENTAS DE ACESSO AOS CONTEÚDOS DIGITAIS E O MOVIMENTO DO OPEN ACCESS............................................................................ 53 5.1 O DESENVOLVIMENTO DOS PADRÕES ABERTOS DA INTERNET: AS BASES PARA UM LIVRE ACESSO................... 5.2 53 O MOVIMENTO DO OPEN ACCESS PARA PUBLICAÇÃO DE CONTEÚDO CIENTÍFICO, COMO CONTRAPOSIÇÃO À PUBLICAÇÃO TRADICIONAL...................................................... 5.3 56 OS PADRÕES TECNOLÓGICOS NECESSÁRIOS AO PLENO FUNCIONAMENTO DOS REPOSITÓRIOS DIGITAIS ABERTOS E O ACESSO AO SEU CONTEÚDO EM LONGO PRAZO.......................................................................................... 6 59 OS REPOSITÓRIOS DIGITAIS ABERTOS, SUA DIFUSÃO E OS INSTRUMENTOS QUE PERMITEM MEDIR O IMPACTO DAS SUAS PUBLICAÇÕES......................................................... 6.1 63 ANTECEDENTES HISTÓRICOS E CONTEXTUALIZAÇÃO DO DESENVOLVIMENTO DOS REPOSITÓRIOS DIGITAIS ABERTOS..................................................................................... 6.2 O ARXIV COMO PROPULSOR DE UMA NOVA FILOSOFIA DE PUBLICAÇÃO............................................................................... 6.3 63 65 SOFTWARE LIVRES PARA GERENCIAMENTO DE REPOSITÓRIOS DIGITAIS E O PAPEL DOS PROVEDORES DE BUSCA NA SUA DIFUSÃO..................................................... 6.4 H INDEX, G INDEX E OUTROS FATORES DE IMPACTO FORA DO OLIGOPÓLIO DAS EDITORAS................................... 7 85 ÍNDICE DE IMPACTO DAS PUBLICAÇÕES PRIVADAS VERSUS PUBLICAÇÕES ABERTAS........................................... 8.2 79 UMA ALTERNATIVA DE CONTRAPOSIÇÃO AO OLIGOPÓLIO DAS EDITORAS CIENTÍFICAS............................ 8.1 75 A REDE DOS REPOSITORIOS DIGITAIS ABERTOS (OPEN ACCESS) E SUAS EXTERNALIDADES....................................... 8 75 A DOMINÂNCIA DO GOOGLE NO MERCADO DE PROVEDORES DE BUSCA.......................................................... 7.2 68 A PROPAGAÇÃO E PROLIFERAÇÃO DOS REPOSITÓRIOS DIGITAIS ABERTOS.................................................................... 7.1 66 A SIMBIOSE ENTRE OS REPOSITORIOS DIGITAIS ABERTOS E O GOOGLE COMO UMA ALTERNATIVA DE CONTRAPOSIÇÃO AO OLIGOPÓLIO DAS EDITORAS 85 CIENTÍFICAS................................................................................ 91 CONCLUSÃO............................................................................... 98 REFERÊNCIAS........................................................................................... 104 9 10 1 INTRODUÇÃO No panorama mundial das publicações científicas, encontra-se na esfera privada uma estrutura de mercado oligopolizada, dominada por poucas e grandes editoras que mantêm as suas coleções de periódicos em repositórios digitais fechados. O acesso ao conteúdo pelos leitores se dá normalmente por meio das bibliotecas acadêmicas, a quem as editoras cobram o pagamento de assinaturas, geralmente em pacotes de títulos de periódicos e a altos preços. Outra forma de acesso é por meio da compra de artigos individuais, também normalmente a altos preços devido ao domínio de mercado constituído. Como é característico de mercados em oligopólio, nesta estrutura também existem muitas barreiras à entrada para autores, leitores e concorrentes. Sendo que a principal delas é o fator de impacto dos periódicos editados pelo grupo dominante, visto que esta é uma medida mundial para a avaliação da produção científica, e o processo de medição do fator de impacto também é controlado por este mesmo grupo editorial. Em traços largos, neste mercado oligopolizado, as editoras controlam todo o processo de publicação, distribuição e índice de impacto do seu produto. Os autores participam do processo editorial gratuitamente e repassam seus direitos autorais às editoras. No Brasil, mesmo que pesem algumas diferenças entre direito patrimonial e direito moral sobre a obra produzida, que é considerado inalienável e irrenunciável, o direito patrimonial é repassado às editoras, em similaridade ao processo que ocorre na Europa, EUA e outras partes do mundo. Na margem deste mercado encontram-se muitas pequenas editoras que, devido às barreiras encontradas, especializaram-se em áreas específicas do conhecimento na produção de seus periódicos, e visam atender também a um público específico de pesquisadores destas áreas para conseguir manter sua distribuição. O ambiente na qual se encontram os repositórios fechados do oligopólio é a internet, e a busca por artigos dentro destes repositórios se dá por meio de motores de busca próprios das editoras. No mesmo panorama encontram-se, na esfera pública, os repositórios digitais abertos, construídos e mantidos por instituições de ensino e pesquisa do mundo todo, como um instrumento para publicar, armazenar e recuperar os periódicos e artigos produzidos pelas suas comunidades acadêmicas. Estes 11 repositórios surgiram no mercado das publicações como um desdobramento do movimento do software livre, que foi protagonizado por cientistas que buscavam alternativas ao modelo de negócios das publicações imposto pelo oligopólio. Em contexto geral, pode-se dizer que enquanto o oligopólio existe há mais de uma centena de anos, foi somente a virada do século que assistiu a criação de uma miríade destes repositórios digitais abertos, destinados à difusão do conhecimento. Impulsionados pela expansão da internet, ambiente onde se encontram, tais repositórios converteram-se rapidamente no principal meio de transmissão de conhecimento científico e cultural fora do oligopólio das editoras. E os padrões tecnológicos abertos foram os responsáveis pelos efeitos positivos de rede na sua proliferação. As instituições de pesquisa e as universidades, produtoras de conteúdo científico, logo perceberam os benefícios da utilização dos repositórios digitais para alcançar a visibilidade mundial deste conteúdo. O aumento desta visibilidade se deu por intermédio do uso do Google pelos usuários, o buscador dominante no mercado dos provedores de busca. Assim, foi se formando uma rede de repositórios que tem como elo os protocolos utilizados e tem como benefícios a visibilidade e o compartilhamento do conteúdo disponibilizado. A partir do panorama exposto, a motivação para o desenvolvimento desta dissertação é procurar mostrar a existência de um movimento livre, do qual fazem parte universidades e instituições de todo o mundo, cujos pesquisadores encontram sérias dificuldades para publicar o resultado de seu trabalho em função das barreiras estabelecidas pelas editoras privadas. Por este motivo, sem invalidar a possibilidade de publicar por meio dessas editoras, este movimento de natureza econômica, política e tecnológica buscou alternativas que permitissem a difusão do conteúdo científico, com publicação e acesso livres e abertos, por meio dos repositórios digitais. Este trabalho tem como objetivo geral analisar a atuação do movimento do software livre na criação de alternativas para publicar conteúdo científico, fora do oligopólio das grandes editoras. No mesmo sentido, os objetivos específicos são: Levantar as características da estrutura de mercado das publicações científicas; 12 Avaliar o efeito da contraposição dos movimentos de conteúdo aberto ao oligopólio das publicações científicas; Comparar os índices de impacto das revistas científicas publicadas por editoras privadas e publicadas nos repositórios digitais abertos; Levantar a maneira pela qual os provedores de serviços e os provedores de busca ampliaram a visibilidade do conteúdo dos repositórios digitais; Analisar de que modo se formou a rede de repositórios digitais e levantar as suas externalidades; Buscar estabelecer um marco geral de relacionamento entre os repositórios digitais e o Google, como alternativa de contraposição ao oligopólio das editoras. A metodologia adotada neste trabalho, visto que o tema é de abrangência mundial, será a pesquisa na literatura disponível, nos temas específicos de análise e também nos temas correlatos. O período de tempo a ser delimitado na busca será compreendido entre a segunda metade dos anos 1980 até abril de 2013. Este trabalho foi estruturado da seguinte forma: a) o capítulo 2 traz o referencial teórico, que foca a estrutura de mercado em oligopólio, os padrões tecnológicos, as externalidades de redes, e também a filosofia e fundamentos do movimento do software livre e dos repositórios digitais abertos, a fim de embasar o entendimento da relação de contraposição existente entre os repositórios abertos e os repositórios fechados do oligopólio; b) o capítulo 3 mostra como a estrutura de mercado das publicações científicas é organizada em um oligopólio concentrado, quais são os tipos de barreiras à entrada existentes neste mercado, como funciona a dinâmica dos preços cobrados pelas editoras para acesso às suas publicações de periódicos e algumas diferenças entre os direitos de autor e o copyright, repassados pelos autores às editoras; c) o capítulo 4 trata do movimento do software livre e alguns de seus desdobramentos, como o copyleft e o creative commons, que surgiram como uma doutrina de publicação em oposição ao copyright, e aponta as principais características dos software livres com código fonte aberto e os benefícios em adotá-los; d) o capítulo 5 tem seu foco nos padrões tecnológicos, na maneira 13 como a internet foi construída e funciona por meio de padrões abertos, nos padrões necessários para que os repositórios abertos sejam inter-operáveis, e os objetos digitais que guardam possam ser acessados ao longo do tempo e, ainda, no movimento do open access como uma alternativa viável para a comunicação científica, em oposição ao modelo de negócios da publicação tradicional, controlada pelo oligopólio; e) o capítulo 6 aborda os principais software livres para gerenciamento de repositórios abertos, a começar pelo ArXiv, o primeiro, construído para abrigar os artigos científicos na área da física, a importância dos provedores de busca gratuitos, usados para varrer os repositórios abertos, trazer um resultado confiável e assim difundir seu conteúdo no mundo, e também os vários índices de impacto criados para se contraporem aos índices de impacto controlados pelas editoras do oligopólio; f) o capítulo 7 exibe as externalidades de rede dos repositórios abertos, mostrando de que forma os repositórios se propagaram até criarem efeitos de rede positivos e negativos, e assinala a dominância do Google no mercado dos buscadores; e g) o capítulo 8 registra finalmente como os repositórios abertos em simbiose com o Google, se constituíram em uma alternativa viável de publicação de periódicos científicos, disponíveis gratuitamente para os leitores, em contraposição às publicações tradicionais, cujo acesso é feito por meio de altos preços cobrados, e ainda, mostra que alguns milhares de artigos publicados em repositório aberto obtiveram maior índice de impacto do que os mesmos artigos publicados em repositório fechado. 14 2 REFERENCIAL TEÓRICO Para embasar a análise proposta, serão expostos a seguir algumas idéias e conceitos, sob o ponto de vista da Teoria Neo-Schumpeteriana, que abordarão a estrutura de mercado em oligopólio, a economia de redes, as externalidades de rede, os padrões tecnológicos e, ainda, serão abordados também os fundamentos e filosofia do software livre e dos repositórios digitais. 2.1 ESTRUTURA DE MERCADO EM OLIGOPÓLIO Um mercado oligopolizado é caracterizado por barreiras à entrada, como por exemplo, as patentes, os canais de distribuição e a diferenciação de produtos, como também é caracterizado pela existência de poucas firmas que o controlam. De acordo com Possas (1990), embora as barreiras à entrada estejam presentes na literatura há aproximadamente 80 anos, a natureza e o nível destas barreiras somente obtiveram sucesso na análise com o estudo de Bain1. Para Possas (1990) a teoria de Bain2 trouxe algumas contribuições relevantes como a introdução de uma perspectiva dinâmica na análise dos mercados; o reconhecimento de que as empresas em oligopólio levam em conta a concorrência externa ou potencial em sua estratégia; e a exigência de uma redefinição dos instrumentos de análise convencionais para adequá-los a uma perspectiva de longo prazo. E, ainda, especificamente quanto ao preço, como uma barreira à entrada, ele sugere a mensuração do nível desta barreira pela margem de lucro, ou seja, a verificação da relação entre o maior preço que impede a entrada, ou o mínimo que a induz, e o preço chamado competitivo. Esta mensuração permite avaliar em que grau as empresas estabelecidas podem elevar seus preços, acima do preço competitivo, sem com isto induzir novas empresas a entrarem no mercado. Por sua vez Possas (1990) diz que é possível estabelecer uma relação teórica entre preços e barreiras à entrada, de uma forma genérica, visto que o desejo de impedir a 1 BAIN, J. (1956), Barriers to New Competition, Harvard U. P., Cambridge, Mass. 2 Idem. 15 entrada é uma estratégia de preços das firmas existentes. Esta estratégia de preços tem dois objetivos: 1) fixar os preços e o volume de produção de maneira que impeça a entrada da concorrência de pequeno e médio porte, e/ou limitá-la, buscando aprimorar sua distribuição temporal; 2) desencorajar a entrada da concorrência de grande porte, que queira se instalar em escalas mais eficientes, com a ameaça de rompimento do equilíbrio oligopolístico e conseqüente guerra de preços das firmas estabelecidas, sendo que este efeito de desencorajar pode não estar vinculado ao preço que foi estipulado no mercado. Também para Possas (1990) as barreiras à entrada não se limitam aos preços, visto que existem outras formas de impedir a entrada de forma tão eficaz ou até superior aos preços, como as barreiras por diferenciação de produtos. A diferenciação por meio de marcas, por meio de características externas do produto, e por meio de maior variedade do produto, num mesmo mercado, ocupam o espaço econômico deste mercado, podendo aumentar a dificuldade de entrada de uma empresa rival, pelos custos que irão incorrer da diferenciação. Kupfer (2002) define as barreiras à entrada como "qualquer fator que impeça a livre mobilidade do capital para uma indústria no longo prazo e, conseqüentemente, torne possível a existência de lucros supranormais permanentes nessa indústria." O que significa dizer que barreira à entrada refere-se à qualquer tipo de restrição, a algo imposto pelas empresas estabelecidas que impeça que as empresas entrantes venham a obter o mesmo lucro que elas obtêm, e sendo que este lucro pode ser muito alto a longo prazo para estas empresas estabelecidas. Kupfer (2002, p. 117) diz que na prática existem alguns componentes da estrutura industrial considerados como barreiras à entrada. São eles: 1.Existência de vantagens absolutas de custos a favor das empresas estabelecidas.2.Existência de preferências dos consumidores pelos produtos das empresas estabelecidas. 3.Existência de estruturas de custos com significativas economias de escala.4.Existência de elevados requerimentos de capital inicial. Quanto aos tipos de oligopólio existentes e as características de estruturas de mercados, tomou-se como base o capítulo 4, do livro Estruturas de mercado em oligopólio, de Possas (1985), como segue. 16 Ao ganhar um novo sentido, o conceito de oligopólio deixa de ser definido por oposição ao atomismo, pelo pequeno número de concorrentes, e passa a ser encarado como uma classe de estruturas de mercado caracterizada pela existência de importantes barreiras à entrada, senão para todos os tipos (ou tamanhos) de empresas que o compõem, ao menos para as maiores e/ou progressivas. Desse ponto de vista, a formação dos preços de equilíbrio deixa de ser o objeto central da teoria, que se volta para as margens de lucro como variável mais geral, porém não mais satisfazendo postulados de equilíbrio estático ou dinâmico, e sim como expressão sintética das condições da concorrência e de seu potencial de transformação da estrutura do mercado, esta sim, preocupação teórica principal. As barreiras à entrada, por sua vez, entram não mais como um dos componentes da estrutura do mercado, ou ainda como uma das possíveis explicações da determinação de preços em oligopólio (na chamada teoria dos "preços-limite"), mas como a síntese da natureza e dos determinantes da concorrência num dado mercado oligopolístico, abrangendo tanto a concorrência potencial como a interna. A magnitude das barreiras à entrada é a principal responsável pela determinação das margens de lucro, como reflexo das condições de concorrência ao fixar-lhes um limite superior. Outros elementos co-determinantes destas margens são as restrições financeiras, que estabelecem um nível mínimo necessário para garantir uma expansão auto financiada dentro dos limites de segurança financeira (liquidez, endividamento e pagamento de dividendos) das empresas. A análise da concorrência deve então percorrer as mediações que permitam passar ao plano das estruturas de mercado, para aí captar suas especificidades; pois estas se definem exatamente a partir dos ramos de atividade capitalista que possuem uma determinada individualidade em termos das características distintivas, do processo competitivo. Os elementos do padrão de concorrência a serem usados para caracterizar as estruturas de mercado são: a) a inserção das empresas ou suas unidades de produção na estrutura produtiva, o que envolve desde os requerimentos tecnológicos à utilização dos produtos; e b) as estratégias de concorrência abarcando as políticas de expansão das empresas líderes, em todos os níveis (tecnológico, 17 financeiro e as políticas de adaptação aos mercados). Deve-se entender por mercado o locus da concorrência capitalista. A proposição de uma tipologia mínima de estruturas de mercado capaz de dar suporte à análise da dinâmica de uma economia capitalista moderna deve atender a dois princípios básicos: 1) os critérios de classificação das diferentes indústrias ou mercados devem dar prioridade àqueles elementos da estrutura técnico-produtiva e do processo competitivo que configurem um padrão de concorrência específico. Isto implica privilegiar as características produtivas e de mercado que dêem lugar a formas ou padrões razoavelmente demarcados quanto a dois aspectos: a apropriação de lucros e o investimento em expansão da capacidade produtiva; 2) a classificação deve ser suficientemente parcimoniosa para propiciar uma aplicação analiticamente proveitosa, sem perder os traços mais marcantes mas sem se diluir em pormenores que ponham em risco o potencial interpretativo; e convencional o bastante para se enriquecer com o abundante material de reflexão e pesquisa já existente sobre o tema. Reunindo estas duas classificações e acrescentando os mercados tipicamente competitivos, tem-se então as seguintes estruturas principais de mercado em oligopólio: oligopólio concentrado, oligopólio diferenciado, oligopólio diferenciado-concentrado ou misto, oligopólio competitivo e mercados competitivos. a) oligopólio concentrado, pode ser caracterizado, do ponto de vista das formas de competição, pela ausência de diferenciação dos produtos, dada a sua natureza essencialmente homogênea, pouco passível de diferenciação; b) oligopólio diferenciado é marcado pelo fato de que a natureza dos produtos fabricados faculta às empresas disputa pelo mercado mediante a diferenciação do produto, como forma predominante; c) oligopólio diferenciado-concentrado ou misto, caracterizado originalmente por Sylos-Labini3, tem como característica proeminente, como o nome indica, a de combinar elementos dos 3 SYLOS-LABINI, P. (1956). Oligopolio e progresso técnico. 2. ed. Einaudi, Turim, 1964: trad. esp. Oligopolio y progreso técnico. Oikos-tau, Barcelona, 1966. 18 dois tipos de oligopólio citados acima. Essa fusão resulta de diferenciação de produtos como forma de competição por excelência, ao lado dos requisitos de escala mínima eficiente associados, em maior ou menor grau, à produção dos bens duráveis de consumo que configuram este tipo de mercado. Como resultado, os índices de concentração destes mercados são em geral mais elevados que no oligopólio diferenciado, podendo atingir a mesma ordem de grandeza dos índices de oligopólio concentrado, embora os coeficientes de capital sejam em média inferiores aos deste último. Pela mesma razão, as barreiras à entrada se devem tanto a economias de escala técnicas como, de forma provavelmente mais importante, a economias de diferenciação; d) oligopólio-competitivo, caracterizado pela concentração relativamente alta da produção, isto é, pelo fato de que algumas empresas detêm participação considerável no mercado, o que autoriza tratá-lo como oligopólio; mas, ao mesmo tempo, pela possibilidade de recorrer à competição em preços para ampliar as fatias de mercado das unidades melhor situadas, em virtude da coexistência com empresas marginais, relativamente pouco resistentes à eliminação mas que ocupam um espaço não desprezível no mercado; e) os mercados competitivos, no sentido não-oligopolísticos têm como características principais, evidentemente, a desconcentração ligada à ausência de barreiras à entrada e a competição em preços. A possibilidade de certa margem de diferenciação, inclusive em qualidade, de produtos em alguns destes mercados, especialmente de bens de consumo, não está de todo afastada, configurando nestes casos uma estrutura morfologicamente (não analiticamente) semelhante à 4 concorrência monopolística de Chamberlin , com razoável grau de liberdade de entrada condicionado pela maior ou menor facilidade de diferenciar o produto. 4 CHAMBERLIN, E. (1933). The Theory of Monopolistic Competition. Harvard U. P., Cambridge, Mass. 19 2.2 ECONOMIA DE REDES A atuação das firmas ou empresas em forma de redes é um fenômeno estudado pela economia há um século. Ao longo deste tempo a economia tornou-se globalizada e ocorreu a padronização do consumo e das tecnologias. Com o advento da internet houve a globalização também da informação, e a internet passou a ser um mecanismo utilizado tanto na formação de redes, quanto na comunicação interna e externa a elas, como um facilitador à cooperação. Para Shima (2006, p.334) "A constituição de arranjos cooperativos entre firmas, que conformam as redes econômicas, tem como objetivo, mais geral, fortalecê-las em suas diversas competências." E para que as empresas participantes das redes alcancem maior eficiência em produção e organização, diante do aumento constante da complexidade do ambiente econômico, precisam interagir e se capacitar (SHIMA, 2006). A internet derrubou a barreira da distância na comunicação entre as firmas que compõem as redes, permitindo mais agilidade no intercâmbio de tecnologias e de aprendizado, e estas complementaridades adquiridas pelas firmas intra redes são necessárias para poderem fazer frente à concorrência que se mostra em intensa dinâmica. Ainda de acordo com Shima (2006, p. 335) essa nova dinâmica implica novas formas de barreiras à entrada, em intensa mobilidade dos capitais e numa maior complexidade dos arranjos inter firmas. Trata-se de uma mudança que não implica necessariamente maior proximidade geográfica entre os capitais, uma vez que, as novas tecnologias de informação e comunicação (TIC) atuam no sentido de permitir presenças virtuais dos capitais em qualquer parte do globo. As firmas passam assim a definir estratégias competitivas de natureza global, e não mais estratégias isoladas para mercados nacionais. Elas tornam-se global players. Em outros termos, as TIC atuam tanto no sentido de fortalecer a rede — dada a maior interação entre seus agentes — quanto no sentido de intensificar a concorrência, em função da maior disponibilidade de informações para todos. Para Britto (2002, p. 350) a formação de redes na economia corresponde a uma abordagem "do ponto de vista da constituição de um tipo particular de instituição, com a capacidade de coordenar a realização de atividades econômicas." Deste modo, o conceito de redes de firmas é baseado em uma perspectiva de análise que ressalta a dimensão social das relações entre empresas e seus possíveis desdobramentos sobre a conformação institucional do ambiente econômico e sobre o padrão de conduta dos agentes. 20 Britto (2002) esclarece que as redes de empresas possuem quatro elementos morfológicos genéricos em sua estrutura: "nós, posições, ligações e fluxos". A relação que faz entre estes elementos gerais das redes e os elementos que constituem especificamente as redes de empresas é mostrada no Quadro 1 e, em seguida ao quadro, é dada a conceituação dos quatro elementos morfológicos genéricos. QUADRO 1 - ELEMENTOS ESTRUTURAIS DAS REDES DE EMPRESAS Elementos Morfológicos Gerais das Elementos Constitutivos das Redes de Redes Empresas Nós Empresas ou Atividades Posições Estrutura de Divisão de Trabalho Ligações Relacionamentos entre Empresas (aspectos qualitativos Fluxos Fluxos de Bens (tangíveis) e de Infomações (intangíveis) Fonte: Britto (2002, p. 352) Os nós ou pontos são as unidades básicas das redes e identificam as empresas inseridas nelas como unidades básicas a serem pesquisadas, tanto no que se refere ao relacionamento entre elas quanto ao seu relacionamento externo. Os nós ou pontos podem se referir também a uma determinada atividade produtiva ou a uma determinada indústria. As posições definem de que forma os pontos estão localizados na rede. Estão relacionadas a determinada divisão de trabalho que liga os diferentes nós visando atingir os objetivos propostos. As ligações referem-se aos elos entre os nós constituintes da rede. Pelas ligações é possível distinguir estruturas saturadas, onde cada nó está ligado a praticamente todos os outros nós da rede, de estruturas dispersas, onde o número de ligações entre os pontos é bastante limitado. É possível observar também o grau de centralização da estrutura, ou seja, o número de nós que constituem passagem fundamental entre as ligações estabelecidas entre dois nós quaisquer da estrutura da rede. Os fluxos podem ser tangíveis e intangíveis. Os fluxos tangíveis 21 baseiam-se em transações recorrentes entre os agentes, por meio das quais os insumos e produtos são transferidos. Compreendem as operações de compra e venda entre os nós das redes. Os fluxos intangíveis são os fluxos de informação que ligam os diferentes nós integrados às redes. A circulação de informações pode ser considerada algo inerente aos membros das redes e, sob este aspecto, Britto (2002) ressalta que o aprendizado coletivo aumenta o potencial inovativo da rede. O processo envolve a troca de informações, de competências e de conhecimentos. Por meio da incorporação do aprendizado de cada um ao conjunto de conhecimentos de diversas naturezas (comercial, tecnológica, gerencial, mercadológica, ou outras), gerados a partir da rede, o aprendizado coletivo é consolidado, e com isto amplia-se o potencial de inovação da rede. Para Britto (2002, p. 363) um dos tipos de aprendizado intra-redes é de caráter informal e refere-se à circulação de informações tecnológicas, sendo que os mecanismos utilizados para a disseminação deste conhecimento relevante deve levar em conta os seguintes aspectos: (1) a descrição dos sistemas de informação tecnológica que se encontram disponíveis para os membros da rede; (2) a avaliação dos mecanismos através dos quais o conhecimento codificado circula no interior da rede; (3) a avaliação dos instrumentos mobilizados para viabilizar a circulação de conhecimentos tácitos entre os membros da rede. Um outro aspecto da economia de redes, que será abordado a seguir, está relacionado as externalidades de redes. Este fenômeno, apresentado em alguns mercados, trata dos efeitos das relações dos agentes das redes e das decisões tomadas por eles em relação a adoção de determinados produtos, tecnologias ou serviços. 2.3 EXTERNALIDADES DE REDES Os padrões e tecnologias podem ter como conseqüência para as empresas ou instituições que os adotam, os efeitos de externalidades de redes. Para abordar este assunto, tomou-se como base o capítulo 7, do livro A economia da informação, de Shapiro e Varian (1999) e o capítulo 18, do livro Microeconomia, de Pindyck e Rubinfeld (2002). 22 As redes, sejam reais ou virtuais, têm uma característica econômica fundamental, que é o valor dependente do número de pessoas já conectadas à elas. A proposição de valor de uma rede recebe muitos nomes: efeitos de rede, externalidades de rede e economias de escala do lado da demanda. As externalidades surgem quando um participante do mercado afeta outros sem o pagamento de compensação. As externalidades de rede situam-se na base da lei de Metcalfe5: "o valor da rede eleva-se como o quadrado do número de usuários." As externalidades têm dois matizes: negativo e positivo. As externalidades de rede positivas fazem surgir o retorno crescente. Para Arthur (1989) os retornos crescentes funcionam a partir da escolha feita por agentes, por uma tecnologia dentre diferentes tecnologias concorrentes para adoção. Tecnologias modernas e complexas muitas vezes exibem rendimentos crescentes de adoção, de forma que quanto mais são adotadas mais experiência se adquire com elas. E quanto mais se ganha com elas, mais elas são melhoradas. Quando duas ou mais tecnologias competem no mercado de potenciais adotantes, eventos insignificantes podem dar por acaso uma vantagem inicial em adoções a uma delas. Esta tecnologia pode então melhorar mais do que as outras, e isto pode atrair uma proporção maior de potenciais adotantes. Por isso, pode se tornar ainda mais adotada e melhorada. Assim, uma tecnologia que por acaso ganha uma vantagem inicial na adoção pode, eventualmente, controlar o mercado de potenciais adotantes, bloqueando as tecnologias concorrentes. As tecnologias da informação podem ser tratadas em termos de redes virtuais, que compartilham muitas propriedades com as redes reais, como as redes de comunicação. Nas redes reais, as ligações entre os nodos são conexões físicas, como os trilhos dos trens ou os fios dos telefones. Nas redes virtuais, as ligações entre os nodos são invisíveis, embora sejam não menos essenciais para a dinâmica do mercado e a estratégia competitiva. Sejam reais ou virtuais, as redes têm uma característica econômica fundamental: o valor de ligar-se a uma rede depende do número de outras pessoas já conectadas a ela. Essa proposição fundamental de valor recebe muitos nomes: efeitos de rede, exterioridades de rede, e economias de escala do lado da demanda. O aspecto 5 A Lei de Metcalfe é uma referência à Lei criada por Robert Metcalfe, co-inventor da Ethernet e fundador da 3Com. Trata-se de uma Lei conhecida na área de Tecnologia da Informação. 23 maior é melhor das redes, é o que gera o feedback positivo, comumente observado na economia. Entender o fundamento do feedback positivo é imprescíndivel para compreender os aspectos econômicos das tecnologias de informação. O feedback positivo fortalece o forte e enfraquece o fraco, levando a resultados extremos, como o domínio do mercado por uma única empresa ou tecnologia. Dito de outro modo, o sucesso gera mais sucesso, o que é a essência do feedback positivo, e o fracasso multiplica o fracasso, o que também é a essência do feedback positivo. O feedback positivo e as externalidades de rede não se contituem uma criação recente, elas têm sido reconhecidas há muito tempo como essenciais nos setores de comunicação e transporte, onde as empresas precisam competir para expandir suas redes e onde uma rede pode aumentar extraordinariamente seu valor de mercado ao se interligar com outras redes. O oposto do feedback positivo é o feedback negativo. Quando ocorre o processo de feedback negativo, nele o forte fica fraco e o fraco fica forte, ambos sendo empurrados para um meio termo. O feedback positivo não deve ser confundido com crescimento. Se uma tecnologia está em uso, como a internet por exemplo, o feedback positivo se traduz em crescimento acelerado, que é o círculo virtuoso. Quanto ao desempenho e compatibilidade, para que uma nova tecnologia entre num círculo virtuoso (o de retorno crescente), em vez de entrar em um círculo vicioso (o de aprisionamento), há duas abordagens básicas: a estratégia da evolução da tecnologia e a estratégia da revolução de um desempenho irresistível. Além da alternância entre o desempenho e a compatibilidade, ao tratar dos retornos crescentes de uma nova tecnologia há que se observar também a alternância entre a abordagem que pode ser aberta ou de controle proprietário. A abordagem de controle proprietário refere-se ao controle da tecnologia por meio da propriedade intelectual enquanto que a abordagem aberta torna possível para os outros as interfaces e especificações necessárias, e tem como objetivo maximizar o valor da tecnologia. A fronteira entre estas duas abordagens, a de abertura e a de controle, não é abrupta, e com freqüência são adotadas abordagens intermediárias onde, como exemplo, a estratégia é 24 de abertura da tecnologia, mas as alterações nesta tecnologia são de controle exclusivo. Outro ponto a ser considerado ao tratar das externalidades é a sua relação com os bens públicos. As extemalidades e os bens públicos constituem importantes causas de falhas de mercado e, portanto, dão origem a sérias questões de políticas públicas, tais como: Qual deveria ser o gasto do governo com a defesa do país, com educação, com pesquisa básica e com televisão estatal? Quando os governos devem substituir as empresas privadas na produção de bens e serviços, caso esta seja uma alternativa possível? Os bens públicos possuem duas características: são não exclusivos e não disputáveis. Um bem é considerado não exclusivo caso seja dispendioso ou impossível impedir que pessoas o consumam. Conseqüentemente, torna-se difícil ou impossível cobrar pela utilização de produtos com essa característica, porque eles podem ser obtidos sem a necessidade de pagamento direto. Um bem é não disputável quando, para qualquer nível de sua produção, o custo marginal de fornecê-lo para um consumidor adicional é zero. No caso da maioria dos produtos oferecidos por empresas privadas, o custo marginal do aumento de produção do bem é positivo. Os mercados privados apresentam probabilidades de não produzir de modo eficiente os bens não disputáveis e os bens não exclusivos. As extemalidades podem surgir entre produtores, entre consumidores ou entre consumidores e produtores. Uma externalidade ocorre quando um produtor ou consumidor influencia as atividades de produção ou de consumo de outros de uma maneira que não esteja diretamente refletida nos resultados de mercado. As externalidades podem ser positivas ou negativas. As extemalidades positivas são aquelas que surgem quando a ação de uma das partes beneficia a outra. E as extemalidades negativas são aquelas que ocorrem quando a ação de uma das partes impõe custos à outra. Devido ao fato de as extemalidades não estarem refletidas nos preços de mercado, elas podem se tomar uma causa de ineficiência econômica. As externalidades ocasionam ineficiências de mercado porque inibem a capacidade de os preços refletirem de modo exato as informações relativas à quantidade que deve ser produzida e consumida. Quando as extemalidades se encontram presentes, o preço de um bem não reflete necessariamente seu 25 valor social. Conseqüentemente, as empresas poderão vir a produzir quantidades excessivas ou insuficientes, de tal maneira que o resultado do mercado venha a ser ineficiente. Algumas soluções para as ineficiências envolvem regulamentações governamentais, enquanto outras dependem de negociações entre as partes ou, ainda, a parte prejudicada pode mover uma ação judicial contra os responsáveis pela extemalidade que a prejudicou. 2.4 PADRÕES TECNOLÓGICOS Os padrões tecnológicos fazem parte do dia-a-dia das pessoas nos equipamentos, nas redes de comunicação, e nos software utilizados. Um padrão pode ser definido como o consenso de diferentes agentes para fazer certas atividades-chave de acordo com as regras acordadas (NICKERSON; MUEHLEN, 2006). Um padrão tecnológico pode ser um conjunto de especificações para o qual todos os elementos de produtos, processos, formatos ou procedimentos sob sua jurisdição devem obedecer (TASSEY, 2000, p. 588). De acordo com Narayanan e Chent (2012, p. 1376) para entender os aspectos funcionais dos padrões de tecnologia, é útil considerar as diferenças entre o lado da oferta e o lado da procura. Do lado da oferta, um padrão de tecnologia representa a síntese de conceitos comprovados na lógica de design para organizar a hierarquia e os parâmetros funcionais para um tipo particular de produto (TASSEY, 2000), e no lado da demanda um padrão de tecnologia reflete o desejo dos consumidores por um acordo sobre um formato tecnológico uniforme que permita a integração e a intercambialidade de vários produtos (AXELROD et al., 1995). Essencialmente, um padrão de tecnologia representa a escolha coletiva resultante do equilíbrio entre as necessidades dos consumidores, possibilidades técnicas e da estrutura de custos dos fabricantes de um lado, e as limitações/restrições das instituições políticas, sociais e econômicas do outro (TASSEY, 2000). Hawkins (2008, p. 176) traz um conceito específico para padrões de tecnologia de comunicação e seus principais aspectos: padrões de tecnologia de comunicação são especificações técnicas que permitem componentes tecnológicos provenientes de diferentes fornecedores trabalharem juntos dentro 26 de um mesmo sistema de comunicação. Alguns padrões referem-se a interfaces físicas entre a rede e o terminal (computador). Outros referem-se a elementos lógicos expressos em algoritmos e incorporados ao software. Nos sistemas digitais, muitos padrões envolvem ambos, elementos físicos e lógicos de forma que a padronização da interface física é suportada por elementos padronizados de software. Por isto padrões são essenciais para a telecomunicação, transmissão e redes de computadores e têm se tornado elementos cruciais na integração de redes digitais e no ambiente de serviço. 2.5 OS FUNDAMENTOS E FILOSOFIA DO SOFTWARE LIVRE E DOS REPOSITÓRIOS DIGITAIS Para Richard Stallman, fundador do movimento do software livre, o software livre é uma questão de liberdade, não de preço. Para compreender este conceito é preciso pensar na acepção de livre como em "liberdade de expressão". O software livre refere-se a liberdade dos usuários para executar, copiar, distribuir, estudar, mudar e melhorar o software. Refere-se especialmente a quatro classes de liberdade para os usuários de software: a) liberdade 0 - a liberdade para executar o programa seja qual seja o propósito; b) liberdade 1 - a liberdade para estudar o funcionamento do programa e adaptá-lo as próprias necessidades, o acesso ao código fonte é condição indispensável para isto; c) liberdade 2 - a liberdade para redistribuir copias e ajudar assim a outros; d) liberdade 3 - a liberdade para melhorar o programa e logo publicá-lo para o bem de toda a comunidade, o acesso ao código fonte é condição indispensável para isto (STALLMAN, 2004). Também, segundo Stallman (2004), o código fonte de um software é o conjunto de instruções, primeiro escritas como palavras, que dirigem a funcionalidade das máquinas. Estas máquinas, computadores, definem e controlam cada vez mais nossas vidas, determinam como se conectam os 27 telefones e o que aparece na televisão, decidem se o vídeo pode ser enviado por banda larga até um computador, controlam a informação que um computador remete ao fabricante. Estas máquinas nos dirigem e o código dirige estas máquinas. De acordo com Laat (2005), no regime público os hackers compartilham livremente o código fonte. O propósito de avançar na obtenção de melhoria da qualidade do software de código fonte aberto se dá pelo controle do software pelo usuário, porque ele está livre para reparar, modificar, e atualizar o software quando necessário. Enquanto o software proprietário, na forma binária, mantém o produtor no controle completo, o software de código fonte aberto coloca o controle nas mãos dos usuários. Em particular, este controle alargado dá "vida eterna" ao software. Levy (2010) diz que entre os hackers há um elemento comum, uma filosofia comum, amarrada à lógica elegante do fluxo do próprio computador. Uma filosofia de compartilhamento, de abertura e descentralização, de reter nas mãos as máquinas a qualquer custo, para melhorar as máquinas e para melhorar o mundo. Esta ética hacker é um presente para todos: algo com valor, mesmo para aqueles que não têm nenhum interesse em computadores. Aqueles envolvidos na quebra de sistemas de segurança são chamados de crackers. Para Raymond (1997) o software livre e o software proprietário possuem dois estilos de desenvolvimento fundamentalmente opostos: o modelo catedral da maioria dos fabricantes de software comercial, contra o modelo bazar do mundo Linux. Estes modelos são baseados em visões opostas sobre a natureza da tarefa de depuração do software. Os grandes software comerciais têm que ser construídos como as catedrais, ou seja, devem ser cuidadosamente elaborados sem lançar versões beta antes do tempo. O estilo de desenvolvimento do software livre, ao contrário, se assemelha a um movimentado bazar de Babel, repleto de pessoas com objetivos e abordagens diferentes, e do qual emerge um sistema operacional a partir de uma série de dispositivos. Na abordagem catedral de programação, erros e problemas de desenvolvimentos são fenômenos difíceis, insidiosos e profundos. Normalmente leva meses para uma revisão exaustiva até alcançar a segurança que foi eliminada. Por isso existem longos intervalos entre cada versão que se 28 libera, e a inevitável desmoralização quando estas versões, muito aguardadas, não resultam perfeitas. Na abordagem de programação bazar, por outro lado, assume-se que os erros são fenômenos relativamente evidentes quando se mostram à milhares de desenvolvedores que colaboram em cada uma das versões. Consequentemente, se libera versões com frequência, a fim de obter uma maior quantidade de correções, conseguindo como efeito colateral benéfico, uma perda inferior quando um eventual obstáculo se atravessa. Para Dávila Quintero et al. (2006) a natureza multifuncional da educação superior constitui um dos pilares fundamentais para a gestão da informação e do conhecimento que ali se produz. Essa gestão tem a ver com os processos de geração, conservação, intercâmbio, transferência e, finalmente, sua aplicação na solução dos problemas associados ao desenvolvimento. Por estes motivos, as universidades têm um papel fundamental na preservação do patrimônio intelectual de nossos povos. Este patrimônio intelectual das instituições acadêmicas deve continuar difundindo-se e contrastando-se com os padrões de qualidade internacional, no âmbito da revisão pelos pares, mas, simultaneamente, deve permanecer na rede, em forma de publicações eletrônicas em repositórios, à disposição de toda essa sociedade que o financia. O mais importante num repositório institucional não é a ferramenta computacional associada ao seu manuseio, mas os conteúdos do repositório, sua qualidade, sua constante atualização, sua segurança, a facilidade de acesso e a amplitude de sua difusão. Para a comunidade acadêmica é vital conservar e difundir seu patrimônio intelectual. DiBona, Ockman e Stone (1999) comparam o processo de construção de um software open source à construção de um texto científico. Para eles o método científico baseia-se em um processo de descoberta, e também em um processo de justificação. Para justificar os resultados científicos, eles devem ser replicáveis. A replicação não é possível, a menos que a fonte seja compartilhada: a hipótese, as condições de teste, e os resultados. O processo de descoberta deve ocorrer por meio do compartilhamento de informação, ou seja, deve permitir que outros cientistas continuem o processo; e deve polinizar as ideias dos outros para que algo novo possa crescer. O compartilhamento aberto de resultados científicos facilita a descoberta. O método científico minimiza a duplicação de esforços, porque os pares saberão quando estão 29 trabalhando em projetos semelhantes. O progresso não para simplesmente porque um cientista para de trabalhar em um projeto. Da mesma forma,o modelo de desenvolvimento open source, de compartilhar o código fonte, facilita a criatividade. Síntese Conclusiva: O referencial teórico adotado vem embasar esta dissertação de maneira a permear todos os assuntos tratados. Um mercado em oligopólio é caracterizado fundamentalmente por barreiras à entrada, e o mercado das publicações periódicas aqui tratado, possui muitas delas, principalmente pelo controle dos canais de distribuição e do fator de impacto. Neste mercado são geradas muitas externalidades de redes, tanto para o oligopólio, quanto para os repositórios digitais abertos, sendo que estes repositórios, assim como a internet, ambiente digital no qual se encontram, foram construídos basicamente com softwares e padrões abertos. 30 3 A ESTRUTURA DE MERCADO DAS PUBLICAÇÕES CIENTÍFICAS Neste capítulo será mostrado que o mercado das publicações científicas, especialmente o de periódicos, é caracterizado por um tipo de oligopólio com muitas barreiras à entrada, elevada concentração, e composto por poucas e grandes editoras globalizadas, mas ao mesmo tempo existem muitas pequenas editoras especializadas em área ou disciplina do conhecimento, que atendem a um público específico especializado. A Figura 1 abaixo ilustra a estrutura dos repositórios digitais fechados no mercado das publicações científicas, conforme aqui descrito. FIGURA 1 - ESTRUTURA DOS REPOSITÓRIOS DIGITAIS FECHADOS NO MERCADO DAS PUBLICAÇÕES CIENTÍFICAS Fonte: O autor, 2013. A estrutura deste mercado é mundial, visto que as editoras colocam representantes para vender seus periódicos em todas as partes do mundo, incluindo o Brasil, e assim o dominam também pelo controle dos canais de distribuição. O mercado destas editoras globalizadas são as bibliotecas e os pesquisadores das comunidades acadêmicas de universidades e instituições de pesquisa. Os pesquisadores são também os maiores parceiros das editoras, 31 visto que a publicação dos periódicos científicos ocorre com a participação de pesquisadores como autores e revisores de artigos de outros pesquisadores, o que é chamado de revisão por pares (peer review ou refereeing), e ainda muitas vezes como participantes do conselho editorial. Normalmente este trabalho é gratuito para a editora, que depois vende os periódicos para as bibliotecas, e estas os disponibilizam aos mesmos pesquisadores. Tanto o oligopólio das publicações periódicas de conteúdo científico, quanto o oligopólio das publicações periódicas que trazem o fator de impacto serão abordados a seguir, assim como algumas diferenças entre os direitos do autor e o copyright, que é repassado às editoras. 3.1 A ORGANIZACAO DA ESTRUTURA DE MERCADO DAS EDITORAS CIENTIFICAS NAS PUBLICAÇÕES O mercado das publicações científicas é dividido em editoras com fins lucrativos e editoras sem fins lucrativos que referem-se àquelas de sociedades, associações e universidades, como o Institute of Electrical and Electronics Engineers (IEEE) e a Oxford. As editoras com fins lucrativos dominam este mercado. Para Morgan Stanley (2002) o negócio das revistas é caracterizado por uma demanda relativamente inelástica, com revistas individuais tendo geralmente um forte apoio dentro do seu nicho particular. O nicho natural do mercado e o rápido crescimento dos orçamentos das bibliotecas acadêmicas permitiram o crescimento do mercado das publicações científicas de tal forma que foi o que mais cresceu na indústria da mídia nos últimos quinze anos. As bibliotecas universitárias norte-americanas representam cerca de 60% do mercado global, para uma indústria de US$ 7 bilhões de dólares, na qual a Reed Elsevier (Elsevier Science) é a líder do mercado. Junto com ela, outras cinco editoras - Wolters Kluwer, Blackwell, Bertelsmann, Wiley e Taylor & Francis - respondem por 37% dos periódicos com melhor classificação, e por 44% dos artigos publicados. Outra característica apontada por Morgan Stanley (2002) são os benefícios de escala, cada vez maiores para os grandes players. As grandes editoras desfrutam de economias de escala em um mundo online 32 onde podem agrupar os títulos de periódicos que produzem e vendê-los em pacote, como um único produto. Por outro lado, de acordo com Mcguigan e Russell (2008), ao dos editores com fins lucrativos que detêm a nata das revistas acadêmicas, está um grande número de pequenos editores (mais de 2.000). Este grande número de pequenas editoras pode ser explicado pelo aumento da especialização dentro das disciplinas acadêmicas. Como fragmento de disciplinas, cada uma procura estabelecer a sua própria tradição em pesquisa e criar revistas que ofereçam mercados para as suas pesquisas. O resultado é um grande número de revistas especializadas, muitas vezes publicadas por sociedades acadêmicas, e cada uma com uma parte relativamente pequena de circulação. Esta dinâmica contribuiu para a crise dos periódicos menores que têm menos assinantes e, portanto, maiores custos por fascículo. Como os preços aumentam e os orçamentos das bibliotecas permanecem constantes, o resultado inevitável é o cancelamento de algumas revistas. Quando há restrições orçamentárias, a opção das bibliotecas é de manter as coleções de títulos de periódicos existentes, aqueles estabelecidos no mercado, conhecidos pelos pesquisadores e pertencentes ao oligopólio, em detrimento da entrada de novos títulos, o que gera externalidades de redes positivas para este mercado editorial oligopolizado e ao mesmo tempo é uma barreira à entrada para novos concorrentes. Neste modelo de negócios tradicional das publicações científicas ou acadêmicas, as universidades ajudam a produzir e consomem o produto, e as editoras organizam os serviços. Para Mcguigan e Russell (2008), a publicação acadêmica depende de um modelo econômico incomum. Existem três importantes participantes nesta indústria: a) acadêmicos da faculdade que escrevem os artigos de periódicos e fornecem serviços editoriais; b) os editores que agem como intermediários para a análise, publicação e distribuição do conteúdo acadêmico das revistas; e c) faculdades e universidades que compram as revistas, geralmente através de seus sistemas de bibliotecas. Também, de acordo com Mcguigan e Russell (2008), embora professores do corpo docente das universidades forneçam o conteúdo das revistas acadêmicas como autores, participem de conselhos editoriais, e façam muitas das tarefas editoriais para as editoras de periódicos, geralmente não são 33 remunerados, embora possam receber alguma pequena compensação pelas suas atividades. Membros do corpo docente e as instituições acadêmicas que os empregam, por sua vez, compram as revistas. Mcguigan e Russell (2008) salientam que esta é uma circunstância muito incomum na qual os insumos necessários (artigos e serviços editoriais) para os negócios das editoras são fornecidos sem custo. A situação é ainda mais invulgar dado que faculdades e universidades que compram as revistas subsidiam parcialmente a produção da revista, pagando os salários dos professores, autores e editores. As editoras têm um papel de mediador na indústria. Elas recolhem, empacotam e divulgam os artigos produzidos por autores da faculdade. O usuário principal das revistas é o mesmo grupo que produziu o conteúdo, ou seja, o corpo docente das faculdades e universidades. Assim, o conteúdo é consumido pelo corpo docente/pesquisadores, novos conhecimentos são produzidos e o ciclo continua. As bibliotecas acadêmicas adquirem e fornecem o acesso às revistas. Elas atuam como agentes para ambos, os membros do corpo docente que exigem certas revistas, e universitários administradores que fornecem o orçamento para a compra dos seriados. A figura 2 ilustra como ocorre o processo de publicação de periódicos científicos neste mercado mundial oligopolizado das publicações científicas, especialmente os periódicos, conforme descrito. 34 FIGURA 2 - PROCESSO TRADICIONAL DE PUBLICAÇÃO, VENDA E DIFUSÃO DE PERIÓDICOS CIENTÍFICOS Fonte: O autor, 2013. 3.2 O OLIGOPÓLIO DAS EDITORAS CIENTIFICAS NO FATOR DE IMPACTO O mercado de publicações de periódicos científicos é caracterizado também pelo fator de impacto, um indicador de avaliação de qualidade dos periódicos. Este fator de impacto, ou índice de impacto, ou índice de citações, como também é chamado, também é publicado como periódico, pelas grandes e poucas editoras do mesmo mercado oligopolizado. Exclusivamente, duas 35 grandes editoras concentram o mercado de publicações que trazem o fator de impacto6: a Thomson ISI, que publica o Journal Citation Reports (JCR), e a Elsevier, que publica o SCImago Journal Ranking Indicator (SJR). Em outros termos, dois editores dominantes que publicam globalmente publicam também o fator de impacto das publicações de todas demais grandes editoras e, ainda, começam a entrar no mercado das publicações de acesso aberto. Este é um modelo híbrido no qual as editoras do oligopólio aceitam publicações abertas em seus repositórios (bases de dados) fechados e efetuam o índice de impacto destas publicações. Um exemplo disso é a parceria formada em 2012, entre a Thomson e a Scientific Electronic Library Online (SciELO), o maior repositório digital aberto do Brasil, para hospedar a base de dados do SciELO no repositório Web of Knowledge da Thomson. Essa parceria entre a Thomson e a SciELO visa trazer maior visibilidade e melhor acesso à pesquisa para economias emergentes, especialmente da América Latina, Caribe, e África do Sul, e de línguas Latinas de áreas desenvolvidas, incluindo Espanha e Portugal. Atualmente, a SciELO publica cerca de 40 mil novos artigos a cada ano em mais de 900 periódicos de acesso aberto da Argentina, do Brasil, do Chile, da Colômbia, de Costa Rica, de Cuba, do México, de Portugal, da África do Sul, da Espanha e da Venezuela (THOMSON REUTERS, 2013). Com esta parceria a SciELO passa a usar em seu repositório o fator de impacto da Thomson, usada no JCR. Considerando que nesta métrica da Thomson, são necessários dois anos de publicação para estabelecer o fator de impacto, em 2014 a SciELO começará a obter resultados conclusivos quanto ao índice de citações de suas publicações. Considerando que no Brasil, a Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (Capes), agência de fomento à pesquisa, responsável pelo desenvolvimento da pós-graduação no país, utiliza a métrica da Thomson na avaliação da produção científica, a parceria virá contribuir favoravelmente à avaliação, pela CAPES, das publicações contidas na SciELO. O fator de impacto, por ter seu controle sob o domínio do oligopólio, e por ser o principal instrumento de avaliação das publicações, pode ser 6 Para Pritchard (1969), o fator de impacto é considerado uma ferramenta bibliométrica, visto que a bibliometria refere-se a todos os estudos que buscam quantificar os processos de comunicação escrita. 36 considerado a maior barreira à entrada para novos concorrentes, e também é o responsável por gerar externalidades positivas ao oligopólio da seguinte maneira: os pesquisadores das instituições de pesquisa e universidades de todo o mundo precisam publicar o resultado de seu trabalho, visto que publicar é um indicador de qualidade para suas avaliações profissionais. Quanto maior o índice de impacto das revistas onde publicarem seus artigos, maior a probabilidade de obterem uma avaliação favorável e, com isto, ascensão profissional. Este incentivo faz gerar as externalidades de redes positivas para publicar nos periódicos do oligopólio. E, ainda, a publicação de um artigo numa revista com alto índice de impacto poderá contribuir para que este artigo seja lido e citado, o que por fim, poderá contribuir para o aumento do indíce de impacto do autor e não só da publicação. Segundo Garfield (2006), o termo fator de impacto evoluiu gradualmente para descrever tanto o impacto da revista quanto o impacto do autor do artigo. O fator de impacto de uma revista é baseado em dois elementos: o numerador, que é o número de citações no corrente ano a itens publicados nos dois anos anteriores, e o denominador, que é o número de artigos substanciais e resenhas publicados nos mesmos dois anos (GARFIELD, 2006). O fator de impacto é um indicador de avaliação de publicações científicas e, para Mugnaini e Strehl (2008), os indicadores calculados a partir dos dados das citações indexadas na Web of Science (WoS), e agrupados por periódicos para análise no Journal Citation Reports (JCR), que traz o fator de impacto, têm sido o recurso mais freqüentemente utilizado por administradores da ciência no Brasil e no mundo, para fins de avaliação da produção. O JCR e o WoS são publicados pela Thomson Reuters (THOMSON REUTERS, 2013), uma das grandes editoras globais, participantes do oligopólio. Nota-se assim que o oligopólio das editoras científicas mantém o controle sobre os periódicos internacionais publicados e mantém o controle sobre os canais de distribuição, visto que garantem que as principais bibliotecas especializadas e acadêmicas do mundo inteiro mantenham em seus acervos as coleções destes periódicos. A manutenção destas coleções ocorre por meio de assinaturas institucionais individuais, ou por meio de consórcios e são adquiridas normalmente na forma de pacotes de vários títulos ofertados 37 pelas editoras ou seus representantes. Com isto estas editoras garantem também que os pesquisadores, usuários destas bibliotecas, tenham acesso aos periódicos que publicam, e possam citá-los, fechando assim o ciclo de controle com a garantia de elevado fator de impacto aos seus periódicos e aos autores que neles publicam. A Figura 3 ilustra o mercado dos índices de impacto, controlado pelo oligopólio dos repositórios fechados, e as relações entre os pesquisadores que necessitam publicar o resultado de suas pesquisas e estas métricas que são usadas para fazer a análise das citações, e os motores de busca próprios do oligopólio, responsáveis pela busca do conteúdo a ser analisado. FIGURA 3 - O MERCADO OLIGOPOLIZADO DOS ÍNDICES DE IMPACTO Fonte: O autor, 2013. 38 3.3 OS TIPOS DE BARREIRAS À ENTRADA As barreiras à entrada nessa estrutura de mercado se organizam da seguinte forma: a) aos autores - os autores são expropriados de sua producão a partir do copyright que repassam às editoras e precisam pagar para acessar o seu conteudo publicado, pelo alto preço cobrado pelo artigo que eles próprios produziram, pelo alto preço da assinatura anual do periódico, e pelo longo tempo utilizado na revisão dos pares e/ou na publicação; b) aos leitores - pela dificuldade de acesso ao conteúdo, considerando o alto preço cobrado pelo artigo avulso do periódico ou pela sua assinatura anual, conforme será visto no próximo item, caso este leitor não faça parte de nenhuma comunidade acadêmica e por isto não tenha acesso à nenhuma biblioteca; c) aos concorrentes - pelo controle dos canais de distribuição, e pelos efeitos positivos de rede gerados, visto que a indústria editorial acadêmica vende seus títulos de periódicos normalmente em pacotes às bibliotecas, e estas os repassam à comunidade acadêmica, e visto que esta indústria controla o índice de impacto das publicações. A comunidade acadêmica lê o conteúdo e o cita, garantindo assim o fator de impacto positivo para os periódicos do oligopólio, e ao mesmo tempo dificultando ou até impedindo a entrada de novos títulos nas bibliotecas. O relatório da Comissão Européia ressalta que a principal barreira continua sendo a capacidade das revistas em atrair um grupo de editores, revisores e autores. Mesmo quando uma nova revista pode atrair um selecionado grupo de acadêmicos ilustres, é preciso tempo para isto, visto que a reputação da revista ainda está para ser estabelecida. Em segundo lugar, mesmo que a entrada de novos periódicos seja facilitada, o acesso ao estoque de conhecimento é controlado historicamente pelos editores, em parte porque eles obtiveram o copyright ou os direitos exclusivos dos autores. Este retorno ao tamanho agrava os efeitos naturais de rede que empurram para a concentração e grandes carteiras, e que também fazem barreiras à entrada, uma quase inevitável característica da indústria. Também relevante é a mudança nas políticas de preços do editor, isto é, o advento do "Big Deal" onde os editores vendem todo o seu estoque a preços acordados para um período de tempo significativo, e onde a obtenção fora do contrato é cara. Esses efeitos são reforçados quando a transação ocorre entre intermediários como editoras e 39 bibliotecas e, quando bibliotecas tem um orçamento limitado (EUROPEAN COMMISSION, 2006). 3.4 A DINÂMICA DOS PREÇOS DAS PUBLICAÇÕES EM OLIGOPÓLIO O relatório da European Commission (2006), mostra que a publicação científica tornou-se uma atividade econômica mundial significativa e o núcleo do mercado editorial (ciência, tecnologia e medicina) é estimado entre US$ 7 e 11 bilhões. Nos últimos 30 anos, um tema constante em debate é o preço das revistas científicas, que tem aumentado. No período compreendido entre 1975 e 1995, chamado de crise dos periódicos, os preços das revistas aumentaram de 200% à 300% acima da inflação. Esta evolução dos preços foi acompanhada por uma queda nas assinaturas por pesquisadores individuais e bibliotecas. Os preços das revistas ultrapassaram de longe a evolução dos orçamentos das bibliotecas e a pressão sobre os orçamentos das bibliotecas resultou na redução das assinaturas de periódicos. A partir de 1995, tomando como base a evolução das Tecnologias da Informação e Comunicação (TIC), as editoras passaram a adotar a distribuição digital e proporcionar o acesso online às suas revistas através de plataformas de pesquisa de alto desempenho. Com isto, as novas tecnologias e a Internet melhoraram drasticamente a acessibilidade das publicações científicas para os pesquisadores, entretanto, o acesso real à literatura continuou dependendo da capacidade das bibliotecas em pagar as assinaturas. Os preços das revistas continuaram aumentando mais rápido do que a inflação, embora num ritmo mais lento que o dos 20 anos anteriores. A distribuição digital permitiu a introdução de novos modelos de negócios, trazendo mudanças significativas nas políticas de preços dos periódicos. Os preços individuais e as vendas de revistas mudaram para "Big Deals", ou seja, venda de pacotes de revistas, cujos preços variam de instituição para instituição, e podem ser desde assinaturas anuais até licenças que duram vários anos. Com isto as bibliotecas buscaram se reunir em consórcios para compartilhar os benefícios do acesso e melhorar as suas posições de negociação frente aos editores. Em geral, o empacotamento tem dois efeitos: a) em curto prazo pode restringir ou ampliar as escolhas dos 40 consumidores; e b) em longo prazo, pode restringir a entrada (EUROPEAN COMMISSION, 2006). Desse modo, considerando-se que as editoras são apenas intermediarias entre o processo de producão e difusão academica há uma cobrança abusiva dos artigos publicados. Segundo Monbiot (2011) enquanto o acesso aos jornais Times e Sunday Times é de £1 para o período de vinte e quatro horas, com direito a ler e baixar livremente artigos neste período de tempo, o custo de acesso para leitura de um único artigo científico das editoras é: Elsevier ($31,50), Springer (Eur 34,95) e Wiley-Blackwell ($42,00), ressaltando que as editoras retém os direitos autorais das publicações de maneira perpétua. O título de periódico com a assinatura mais cara encontrado pelo autor foi Biochimica et Biophysica Acta, da Elsevier ($20.930,00). Ademais, deve-se considerar que o material publicado foi encomendado e financiado pelos contribuintes, por meio de subsídios governamentais de pesquisa e bolsa acadêmicas. 3.5 COPYRIGHT E DIREITOS DO AUTOR Existem algumas diferenças entre copyright e direitos do autor, e as expressões usadas para referir-se à propriedade intelectual e a duração desta proteção não são iguais em todo o mundo. Para Stallman (2004) o termo propriedade intelectual é genérico, no qual se mesclam vários sistemas legais diferentes, incluindo copyrights, patentes, marcas registradas e outros, que têm muito pouco em comum. Estes sistemas legais que se originaram separadamente, regulam atividades distintas e operam de maneira distinta, e por isto devem ser referenciados especificamente. Segundo Licea Jiménez; Collazo Martínez; Cespedes Vidal (2002) países como França e Alemanha adotam a expressão direitos do autor, enquanto os Estados Unidos utiliza Copyright como a forma de proteção concedida aos trabalhos originais dos autores. O direito do autor remonta as antigas Grécia e Roma e foi fundamentado mais tarde com a invenção da imprensa. Entretanto, somente no período do progresso revolucionário das tecnologias da informação é que se suscita a necessidade de estabelecer novos acordos com o intuito de obter 41 uma proteção adequada, tanto das obras registradas nos novos suportes como nos tradicionais (LICEA JIMÉNEZ; COLLAZO MARTÍNEZ; CESPEDES VIDAL, 2002). O copyright, na forma como é adotado nos Estados Unidos (Copyright Act of 1976), possui algumas características particulares. Segundo Landes e Posner (1989) a primeira delas refere-se a natureza da proteção que um copyright garante ao seu possuidor. Em contraste com uma patente, um copyright apenas dá proteção contra cópia. A segunda característica é o âmbito da proteção: a) ideia versus expressão - o copyright protege a expressão, mas não as ideias; b) obras derivadas - a obra derivada é a tradução para uma língua ou meio (mídia) diferente; c) uso justo (fair use) - é uma doutrina que permite a cópia de um trabalho com direitos autorais sem julgamento do copiador como um infrator, mesmo que o titular do copyright não tenha autorizado a cópia. A terceira e última característica do copyright americano refere-se ao prazo ideal de um direito de autor. O comprimento atual de um direito de autor é a vida do autor mais 50 anos. Alperovitz e Daly (2010) observam que o conhecimento não é uma propriedade no mesmo sentido que a propriedade de um bem físico, visto que resulta de um esforço social amplo, obedece outra lógica e tem um tempo determinado de permanência, que no caso do copyright é de quase um século. No Brasil, a Lei nº 9.610, de 19 de fevereiro de 1998, que trata dos direitos autorais, em seu art. 1º "regula os direitos autorais, entendendo-se sob esta denominação os direitos de autor e os que lhes são conexos" (BRASIL, 1998), "por essa razão, a expressão direitos autorais é mais abrangente do que direito de autor, pois engloba o direito de autor e os direitos conexos" (CARBONI, 2009). A Lei brasileira faz a distinção entre direitos patrimoniais e morais, trazendo em seu art. 27 "Os direitos morais do autor são inalienáveis e irrenunciáveis", e quanto aos direitos patrimoniais, em seu art. 28 "Cabe ao autor o direito exclusivo de utilizar, fruir e dispor da obra literária, artística ou científica" (BRASIL, 1998). Na Europa, segundo Larsson (2011), houve algumas iniciativas regulatórias recentes da União Europeia que tiveram um foco explícito sobre os direitos de autor, ou um efeito indireto, mais importante sobre eles. Isso provavelmente envolve a expansão dos conceitos e metáforas, 42 que foram descritos só para a prática não-digital, e que agora formam maneiras padronizadas de criar uma nova lei. Stallman (2004) traz uma crítica ao uso do copyright e ao controle das editoras na difusão do conteúdo científico. Segundo ele deveria ser um axioma que a literatura científica exista para divulgar o conhecimento científico, e que as revistas científicas existam para facilitar este processo. Por conseguinte, as regras de uso da literatura científica deveriam desenhar-se para ajudar a conseguir este objetivo. As regras que temos agora, conhecidas como copyright, foram estabelecidas na era da imprensa, um método intrinsecamente centralizado para a produção massiva de cópias. No contexto da imprensa, o copyright sobre os artigos de publicações só restringiam aos editores, obrigando-os a obter uma permissão para publicar um artigo, e aos possíveis plagiários. Isto ajudou as revistas a organizarem e divulgarem o conhecimento sem interferir no trabalho dos pesquisadores ou estudantes, seja como escritores ou como leitores de artigos. Estas regras se adequavam bem a este sistema. Entretanto, a tecnologia moderna para as publicações científicas é a internet. Que regras assegurariam melhor a divulgação dos artigos científicos e do conhecimento na rede? Os artigos deveriam ser distribuídos em formatos não proprietários, de acesso aberto à todos. E todos deveriam ter o direito de reproduzir os artigos, isto é, de reeditá-los integralmente, com sua adequada atribuição. Estas regras deveriam aplicar-se tanto para os artigos passados quanto para os futuros, quando distribuídos em formato digital. Não há nenhuma necessidade crucial em mudar o sistema atual de copyright aplicado à edição impressa de revistas porque o problema não afeta este domínio. Muitas editoras de revistas parecem acreditar que o propósito da literatura científica é permitir-lhes editar revistas para cobrar assinaturas de pesquisadores e estudantes. Esta forma de pensar é conhecida como" confundir os meios com os fins". Este procedimento consiste em restringir o acesso à leitura de literatura científica inclusive para aqueles que podem pagar e pagam por ela, porque usam a legislação do copyright, todavia vigente, apesar de sua inadequação às redes informáticas. A constituição dos Estados Unidos diz que o copyright existe "para promover o progresso da ciência". 43 Quando o copyright impede o progresso da ciência, a ciência deve descartar o copyright (STALLMAN, 2004). Síntese Conclusiva: A estrutura de mercado das editoras científicas é organizada de maneira a fazer com que todo o processo de publicação se mantenha em poder do oligopólio. Este poder de mercado se estende também à avaliação das publicações, que é feito essencialmente sobre o fator de impacto, controlado pelo mesmo grupo editorial do oligopólio. O fator de impacto pode ser considerado como a maior barreira à entrada que as editoras colocam neste mercado que, junto com os canais de distribuição que também controlam, geram as externalidades de redes positivas ao grupo, mantendo-o assim no domínio do mercado, o que lhe permite praticar preços exorbitantes pelas assinaturas dos periódicos, que vendem por meio de pacotes, às bibliotecas acadêmicas. 44 4 O MOVIMENTO DO SOFTWARE LIVRE E SEUS DESDOBRAMENTOS EM FUNÇÃO DA OPOSIÇÃO AO COPYRIGHT A seguir serão abordadas as questões econômicas e institucionais que levaram alguns pesquisadores a lutar para que houvesse no mercado do software a introdução de software com código fonte aberto como uma alternativa ao modelo proprietário existente. 4.1 ANTECEDENTES HISTÓRICOS DO MOVIMENTO DO SOFTWARE LIVRE A origem do movimento do software livre remonta há mais de quarenta anos. Já no início dos anos 1970, o compartilhamento de software se torna comum dentro de uma comunidade constituída por universidades, instituições de pesquisa e empresas. Os membros desta comunidade eram chamados de hackers, que segundo Stallman (2004), são pessoas que amam programação e gostam de explorar novas possibilidades. Nesta época o software era considerado parte integrante do hardware. As empresas Digital e Sun, por exemplo, concebiam software como um componente destinado a valorizar o hardware, porque o lucro provinha da sua venda. De acordo com Porcel Iturralde e Rodríguez Mederos (2005), a indústria do licenciamento de software ainda não havia se desenvolvido. A idéia de software proprietário, com a venda de licenças, toma forma no início dos anos 1980, com a dissociação entre o software e o hardware e o fechamento dos códigos-fonte. De acordo com Stallman (2004), em 1981 a empresa Symbolics contratou quase todos os hackers do laboratório de inteligência artificial (AI Lab) do Massachusetts Institute of Technology (MIT) levando ao colapso da comunidade. Os computadores encontrados no mercado, como o VAX, ou o 68020, contavam com seu próprio sistema operacional e nenhum utilizava software livre. Era necessário firmar um acordo de confidencialidade com as empresas produtoras inclusive para obter uma cópia executável. Isto significava que antes de usar um computador deveria 45 haver o comprometimento de que nada seria repassado, e as comunidades cooperativas foram assim proibidas (STALLMAN, 2004). Como resposta ao movimento do software proprietário, Richard M. Stallman, que trabalhava no AI Lab do MIT, e era contrário a esta idéia de propriedade intelectual, decide abandonar o MIT e escrever vários programas que pudessem permitir ressuscitar a extinta comunidade. Para Stallman (2004) o copyright não é uma lei natural, mas um monopólio artificial imposto pelo Estado que limita o direito natural dos usuários de copiar. A idéia de que o sistema social em torno do software proprietário - um sistema que impede o compartilhamento ou a modificação do software - é antissocial, pouco ética e simplesmente equivocada, pode surpreender. Mas o que dizer sobre um sistema que semeia a divisão entre o público e abandona os usuários ao desamparo mais absoluto? (STALLMAN, 2004). Assim, em 1984 Stallman inicia o projeto do sistema operacional livre chamado GNU, cujo acrônimo significa GNU is not UNIX, por ser totalmente compatível ao sistema operacional proprietário chamado UNIX, e em 1985 cria a Free Software Foundation (FSF). A partir daí o movimento do software livre obtém um crescente desenvolvimento, contando dentre seus fatos mais marcantes, com a criação do software Linux, por Linus Torvalds, em 1991, e a fusão GNU/Linux em 1992. Para Engelhardt (2011), nos primórdios, o software não era um produto único, a receita era proveniente da venda de computadores, e os fornecedores de hardware entregavam o software gratuitamente. Embora algumas empresas estivessem vendendo o serviço de código escrito (código personalizado), não havia mercado para produtos de software prontos, os chamados pacotes de software. Esta imagem começou a mudar na década de 1960, quando os empresários perceberam a oportunidade de vender seu software para mais de um cliente e, portanto, tratá-lo como um produto de massa comum comercializável. Este novo conceito difundiu-se e, finalmente, na década de 1980, a publicação em massa de pacotes de software por fornecedores independentes de software estabeleceu-se. Os primeiros fornecedores de software independentes inventaram os modelos de negócios baseados em software com código fechado - closed source software (CSS), mas também foram a força motriz para o estabelecimento de proteção de direitos autorais 46 para o software. Assim, eles também induziram uma mudança no nível das instituições formais. A transição da indústria para CSS levou a algumas tentativas de preservar a livre cultura de programação baseada na chamada ética hacker. 4. 2 PRINCIPAIS CARACTERÍSTICAS E BENEFÍCIOS DO SOFTWARE LIVRE COM CÓDIGO FONTE ABERTO A oferta de software livres com código fonte aberto no mercado, trouxe inúmeros benefícios à comunidade acadêmica mundial. Seus padrões tecnológicos abertos permitem que instituições de ensino e pesquisa os customizem conforme suas necessidades e os utilizem para disponibilizar, por meio de repositórios digitais com acesso pela internet, o conteúdo científico que produzem. Quanto as características do software livre com código fonte aberto, o site do Open Source Initiative (2013) traz os critérios que devem ser seguidos para que um software possa ser licenciado como sendo de código fonte aberto, visto que Open source não significa apenas o acesso ao código-fonte como segue: a) Redistribuição livre - a licença não deve exigir um royalty ou outra taxa para venda; b) Código fonte - o programa deve incluir o código fonte e deve permitir a distribuição em código fonte, bem como em formato compilado; c) Obras derivadas - a licença deve permitir modificações e trabalhos derivados, e deve permitir serem distribuídas sob os mesmos termos da licença do software original; d) Integridade do código fonte do autor - a licença pode restringir o código fonte de ser distribuído em uma forma modificada apenas se a licença permitir a distribuição de patch files com o código fonte, com o propósito de modificar o programa em tempo de compilação; e) Sem discriminação contra pessoas ou grupos - a licença não deve discriminar qualquer pessoa ou grupo de pessoas; f) Sem discriminação contra campos de trabalho - a licença não deve restringir ninguém de fazer uso do programa em um campo específico de atuação; g) Distribuição da licença - os direitos associados ao programa devem se aplicar a todos a quem o programa é redistribuído, sem a necessidade de execução de uma licença adicional para 47 estas pessoas; h) A licença não deve ser específica para um produto - os direitos associados ao programa não devem depender de fazer parte do programa de distribuição do software em particular; i) A licença não deve restringir outro software - a licença não deve colocar restrições em outro software que é distribuído juntamente com o software licenciado; e j) A licença deve ser tecnologicamente neutra - nenhuma disposição da licença pode ser baseada em qualquer tecnologia individual ou de estilo de interface. Quanto aos benefícios, estes vão além da comunidade de software livre e atingem também empresas comerciais que usam modelos híbridos de negócios, mesclando software proprietário com software open source. Stallman (2004) diz que o software livre não significa que seja "não comercial". Qualquer programa livre estará disponível para seu uso, desenvolvimento e distribuição comercial. Atualmente calcula-se que existem dez milhões de usuários de sistemas GNU/Linux como Debian GNU/Linux e Red Hat Linux. E para Engelhardt (2011), as empresas que visam lucros tambem usam modelos de negócios baseados em software livre. Um exemplo é o Kindle da Amazon que tem o Linux embarcado e outro exemplo é o Android, um software baseado em Linux (sistema operacional, middleware e aplicações chave) para dispositivos de celulares. Linus Torvalds, criador do software livre Linux diz que o Linux hoje tem milhões de usuários, milhares de desenvolvedores e um mercado em crescimento. É utilizado em sistemas embarcados; é usado para controlar dispositivos robóticos; e já voou no ônibus espacial (TORVALDS, 1999). De acordo com Stallman (2004), as consequências positivas disto são evidentes: um maior interesse por desenvolver software livre, mais clientes para as empresas de software livre e uma maior capacidade para encorajar as empresas a desenvolver software livre comercial em lugar de produtos de software proprietário. Ghosh e Soete (2006) esclarecem que a premissa do novo modelo open source de desenvolvimento de tecnologia é que a redução de barreiras à entrada para a modificação da tecnologia reduza os custos de busca, permitindo aos participantes do mercado de produtores-consumidores uma forma mais eficiente de alocar habilidades e outros recursos para as necessidades de melhoria. Proporcionar o acesso à tecnologia não necessita ser visto como caridade ou ajuda aos países em desenvolvimento, mas como a 48 ampliação da base de recursos de inovadores potenciais. As conseqüências dessa mudança podem ser significativas, não só para o próprio desenvolvimento, mas também para o concernente debate sobre a migração afetando o mundo desenvolvido de hoje. Se esta mudança torna mais fácil para as pessoas dos países em desenvolvimento reproduzir, melhorar e construir sobre as inovações do mundo desenvolvido, ela pode amenizar a "fuga de cérebros" de pessoas cuja única chance de exercitar seu potencial como inovador é emigrar. 4.3 O CONCEITO DE COPYLEFT EM OPOSIÇÃO AO CONCEITO DE COPYRIGHT Quando o pesquisador Richard Stallman criou o software livre GNU, criou também o conceito de copyleft para a distribuição deste software, em forma da licença chamada General Public License (GPL). Este conceito se expandiu ao longo do tempo e atualmente é usado também para publicações. Segundo o site oficial da Free Software Foundation (2013) o copyleft é uma forma de usar os direitos autorais em um programa, o que não implica abandonar os direitos autorais, visto que se estes forem abandonados, o uso do copyleft será impossível. De acordo com Stallman (2004) o copyleft é um método para converter um programa em software livre e exigir que todas as versões do mesmo, modificadas ou ampliadas, também o sejam. A forma mais simples de fazer com que um programa seja livre é colocá-lo em domínio público, sem direitos reservados, o que permite o compartilhamento do programa e suas melhorias, se este for o intuito. O domínio público, entretanto, permite que um intermediário converta o programa em software proprietário com poucas ou muitas modificações em seu código. As pessoas que receberão o novo programa não gozarão da liberdade que lhes foi dada pelo autor original porque o intermediário os despojou dela. Por este motivo o software GNU não foi colocado em domínio público, e foi protegido com copyleft. No conceito de copyleft, qualquer um que distribua software, com ou sem modificações, deve repassar com ele a liberdade para 49 copiá-lo e modificá-lo. O copyleft garante que cada usuário goze desta liberdade. Heffan (1997) afirma que o copyleft é útil para outros trabalhos colaborativos distribuídos eletronicamente, como livros, revistas e panfletos, porque o copyleft garante a disponibilidade contínua dos trabalhos para o público. Desta forma, os membros do público com interesses não comerciais, podem colaborar de maneiras que antes eram impossíveis, criando obras em conjunto. Segundo Rodríguez Mederos (2007), um músico pode receber remuneração por seu trabalho, um concerto, e um cientista, com o financiamento de seus projetos. Os produtos disseminados para a comunidade com licenças copyleft geralmente não são tão lucrativos como aqueles puramente proprietários. Isto pode ser visto como negativo, mas também pode ser visto de outra maneira. Por exemplo, a Microsoft como uma empresa produtora de software proprietário e a Red Hat que distribui software open source. A primeira é muito mais lucrativa do que a segunda, no entanto, este modelo acentua a diferença entre os ricos e pobres de uma forma significativa e isso faz com que esta alternativa não seja viável para o desenvolvimento sustentável das nossas sociedades. Este aspecto, sozinho, reforça a necessidade de apoiar essas iniciativas na sociedade. As empresas que desejam lucrar com software licenciado com copyleft deverão fazê-lo principalmente por meio de treinamentos para os seus usuários, das certificações e dos serviços de suporte, mas, sem dúvida, terão menos possibilidades de lucrar diretamente com a venda do software. A partir da licença copyleft para software, foram surgindo algumas licenças copyleft para publicações, como por exemplo a licença GNU Free Documentation License (GFDF), criada para ser usada nos manuais do software, visto que um programa livre deve ser acompanhado de manuais que forneçam as mesmas liberdades que o software. Esta Licença não ficou restrita a manuais de software, e hoje pode ser usada para qualquer texto, independente do assunto, ou o meio no qual é publicado, impresso ou digital (FREE SOFTWARE FOUNDATION, 2013). Também podem ser citadas as licenças Open Publication License, de 1999, que asseguram que em ambas as versões, modificada e não modificada, os trabalhos disponibilizados em 50 publicação aberta possam ser reproduzidos e distribuídos, no todo ou em parte, em qualquer meio físico ou eletrônico, desde que os termos da licença sejam cumpridos, e que esta licença ou uma incorporação dela seja mostrada na reprodução (OPEN CONTENT, 1999); a licença para periódicos, criada por Pepe Cervera, que em junho de 2002 lançou o primeiro jornal diário gratuito sob licença copyleft, chamado 20 minutos (CERVERA, 2009); e, ainda, as licenças Creative Commons, que serão abordadas a seguir. 4.3.1 As licenças Creative Commons como uma doutrina de disseminação e compartilhamento do conhecimento O desdobramento mais significativo das licenças copyleft foi a criação das licenças Creative Commons. Estas licenças são distribuídas pela organização sem fins lucrativos, também chamada Creative Commons, podem ser atribuídas a qualquer tipo de obra criativa e foram inspiradas na licença GNU-GPL. A Creative Commons foi fundada em 2001 e lançada em 2002, tendo entre seus criadores e participantes do Conselho de diretores os pesquisadores Lawrence Lessig (presidente), James Boyle, Michael Carroll e Hal Abelson (VERCELLI, 2002). Segundo o site da Creative Commons (2013) as licenças permitem variações entre a abertura total, ou seja, a renúncia aos direitos autorais, disponibilizando a obra em domínio público, e a restrição, que não permite alterações na obra e nem sua utilização para fins comerciais, diferente do tradicional copyright que simplesmente garante todos os direitos reservados. Estas licenças públicas incorporam um design em três camadas, sendo que a primeira é o instrumento ou texto legal tradicional, a segunda é um resumo para leigos, e a terceira é a camada legível por máquinas, para que a internet identifique facilmente quando um trabalho está disponível e coberto por uma licença Creative Commons. Segundo Lessig (2001), o ciberespaço tem uma arquitetura diferente. A sua natureza é diferente. O ciberespaço em sua concepção teve como característica mais importante uma arquitetura que desativa o poder de qualquer um controlar a forma como os que estão nas extremidades interagem. Livros físicos são fontes de informação extremamente duráveis. Mas há coisas 51 que os livros em papel não podem fazer, e restrições nos livros em papel limitam até onde o conhecimento que eles carregam é carregado. Esses limites, portanto, deram lugar a um tipo diferente de livro - o "livro HTML", ou o livro produzido para a WWW. Um livro em HTML é um trabalho derivado sob a lei de direitos autorais. Se o texto original é protegido por direitos autorais, então, para publicar uma obra derivada, será preciso a permissão do detentor dos direitos autorais. Entretanto, há obras que caíram em domínio público sendo publicadas na Internet desde 1970. O meio físico e as camadas de código da Net permitiram esse tipo de inovação. A camada física era barata; a camada de código estava aberta. A única restrição poderia ocorrer na camada do conteúdo. Novos produtos geram novos mercados. E novos modos de distribuição, incluindo a remoção de barreiras para a distribuição, induzem a criação de novos mercados também para os produtos já existentes. A plataforma da Internet remove as barreiras do espaço real e remover essas barreiras permite aos indivíduos implementar novas idéias (LESSIG, 2001). De acordo com Boyle (2008), a Internet faz com que a cópia seja barata e o faz em uma escala global sem precedentes. Assim, sem um aumento dos direitos de propriedade privada, a cópia mais barata vai abalar as indústrias criativas e culturais. Isto chama-se a história da Internet Threat (ameaça da Internet). Este não é um mundo sem propriedade intelectual. É um mundo em que a criatividade e a inovação procedem com base em um "commons" (bem comum, comunitário) gigante, de um material sobre o qual nunca foi imaginado que os direitos de propriedade pudessem permear. O Creative Commons foi concebido como a segunda melhor solução criada por acordo privado, porque a melhor solução não poderia ser obtida através do direito público. A melhor solução seria um retorno da exigência de formalidade, um requisito para ao final do trabalho, por exemplo, escrever as palavras "James Boyle copyright 2008", a fim de obter mais de 100 anos de proteção legal apoiada por estrita responsabilidade e direito penal federal. Ainda para Boyle (2008), as licenças Creative Commons ou as ferramentas de software livre e open source, representam alguma coisa a mais do que simplesmente a segunda melhor solução para uma regra mal escolhida. Elas representam um exemplo visível de um tipo de criatividade, de inovação, 52 que alcançou nova proeminência na internet, a criatividade distribuída baseada em torno do compartilhamento comunitário de material. Quando o custo marginal de reprodução é zero, o custo marginal de transmissão e de armazenamento se aproxima de zero, o processo de criação é aditivo, e muito do trabalho não é cobrado, o mundo parece um pouco diferente. Este é, pelo menos, um futuro possível, ou parte de um futuro possível, e que não deve ser excluído facilmente. A comunidade de software livre produz produtos de alta qualidade, capazes de competir no mercado com alternativas proprietárias, e a adoção de licenças Creative Commons mostra que há milhões de criadores que querem compartilhar suas obras com os outros. Síntese Conclusiva: Em meio a situação de controle total das editoras científicas, há mais de vinte anos surgiu o movimento do software livre, que foi se desdobrando em outros movimentos e iniciativas, que proporcionaram aos pesquisadores novas formas de publicar e disponibilizar, de forma aberta e gratuita, os resultados de suas pesquisas. Assim, como uma decorrência do movimento, surgiu o copyleft, um conceito que embasou a criação das licenças creative commons, que visam disponibilizar a produção científica de maneira alternativa, na qual o controle do direito autoral permanece com o autor. 53 5 OS PADRÕES TECNOLÓGICOS NAS FERRAMENTAS DE ACESSO AOS CONTEÚDOS DIGITAIS E O MOVIMENTO DO OPEN ACCESS Conforme será exposto neste capítulo, a internet é o meio pelo qual o conhecimento é compartilhado no mundo digital, e o acesso a este conhecimento só é possível porque ela foi construída com padrões tecnológicos abertos, que permitem a comunicação entre os computadores. Neste sentido, serão abordados a seguir os seguintes assuntos: a) os padrões abertos responsáveis por garantir o acesso ao conteúdo digital, visto que são adotados em protocolos, softwares, e identificadores ou links persistentes; b) os padrões abertos adotados na construção e funcionamento da internet; e c) o movimento do Open Access que levou centenas de instituições no mundo a aderirem à causa da publicação de acesso livre e gratuito, disponível na internet. 5.1 O DESENVOLVIMENTO DOS PADRÕES ABERTOS DA INTERNET: AS BASES PARA UM LIVRE ACESSO Os padrões abertos representam um papel fundamental no desenvolvimento do movimento do software livre e nos desdobramentos que ocorreram a partir dele. Os padrões abertos são necessários para garantir a comunicação na rede internet, a comunicação entre computadores, a interoperabilidade infraestrutura dos repositórios necessária para o digitais e, ainda, armazenamento, garantir toda a processamento e recuperação dos objetos digitais. De acordo com a European Commission (2006), os padrões são um elemento chave para o sistema de publicação. Visto que diferentes aplicações, abertas e proprietárias, estão sendo desenvolvidas por diferentes agentes, a utilização de padrões é crucial para permitir e facilitar o intercâmbio de dados e a comunicação na rede e, assim, melhorar definitivamente a divulgação e o acesso às publicações acadêmicas. Seu uso em todas as fases da publicação: processo de criação, descrição, divulgação e preservação, asseguram que o utilizador possa pesquisar, visualizar e imprimir o artigo, seja qual for sua 54 plataforma de hospedagem, asseguram que as publicações científicas estejam amplamente disponíveis para pesquisa a partir de uma variedade de prestadores de serviços (sejam eles gratuitos ou cobrados), e asseguram que a literatura científica permaneça acessível para o futuro. A história da internet, desde o seu projeto original até a forma como a conhecemos hoje, passou por muitas transformações desde os anos 1960 até os anos 1990, para chegar a formação do world wide web (WWW). Segundo Castells (2004), as origens da internet remontam a setembro de 1969, ou ao ARPANET, uma rede de computadores da Advanced Research Projects Agency (ARPA), desenvolvida pelo Departamento de Defesa dos EUA. Depois, outras redes de comunicação foram surgindo e, para que pudessem se comunicar entre si, surgiu a necessidade de criar protocolos de comunicação padronizados. O fundamento da comunicabilidade é dado pelo fato que quando dois computadores concordam eles podem se comunicar, e para isto têm que encontrar uma maneira comum de representar os seus dados para que possam compartilhá-lhos. Se usam o mesmo software para documentos ou gráficos, podem compartilhá-lhos diretamente, e se não, podem traduzi-los para HTML. O princípio fundamental por trás da Web é: uma vez que alguém, em algum lugar, disponibilizou um documento, um banco de dados, um gráfico, um som, um vídeo ou uma tela, em algum momento de um diálogo interativo, isto deve ser acessível (sujeito a autorização, é claro) por qualquer pessoa, com qualquer tipo de computador, em qualquer país. E deve ser possível fazer uma referência - um link - para esta coisa, de modo que outros possam encontrá-la. Esta foi uma mudança filosófica a partir da abordagem de sistemas de computador anteriores (BERNERS-LEE; FISCHETTI, 2000). O elemento central da unificação e comunição interredes ocorrem em 1973 quando surge então o protocolo de transmissão Transmission Control Protocol (TCP), que em 1978 foi acrescentado pelo protocolo Internet work Protocol (IP), criando assim o protocolo TCP/IP, o padrão sobre o qual a internet opera até hoje. Em 1978 foi distribuído o programa UUCP (UNIX to UNIX Copy) que permitia copiar arquivos de um computador para outro. O UNIX é um sistema operacional, criado pelos laboratórios Bell, que à época da criação foi disponibilizado às universidades com o código fonte aberto e com 55 permissão para ser modificado - fato importante para a ligação dos computadores em rede. Isto permitiu que fosse desenhado um programa de comunicação entre computadores UNIX, fora do eixo ARPANET, a USENET News (CASTELLS, 2004). A partir disso a USENET foi ligada a ARPANET e gradualmente outras redes foram se unificando para se comunicarem entre si e compartilharem o mesmo eixo central de alguma universidade que o disponibilizasse. Estas redes, ao se unirem, formaram a internet. Somente em 1990 é que a www tornou-se possível. De acordo com Alvestrand e Lie (2009), na história da informática, o período em torno de 1990 deverá ser lembrado por três projetos influentes. Todos os três tinham a troca de informações abertas como objetivo: a) na Finlândia, Linus Torvalds lançou os sistemas operacionais Linux, que tiveram habilitados o código aberto do software para formar um sistema completo e estável de operação; b) em outras partes do mundo, especialistas em codificação de texto começaram a recolher e classificar conjuntos de caracteres de todas as línguas escritas para uma especificação chamada Unicode; e c) no laboratório CERN, em Genebra, Tim Berners-Lee desenvolveu o Projeto World Wide Web para o que hoje comumente se referem como simplesmente "Web". Os padrões e práticas, estabelecidos para o funcionamento da internet, são implantados e fiscalizados por instituições responsáveis pela sua governança. Uma destas instituições é a Internet Engineering Task Force (IETF). De acordo com Alvestrand e Lie (2009), a IETF é o órgão de normas com a maior influência sobre as tecnologias utilizadas para construir a internet, e é formalmente organizada como uma atividade da Internet Society (ISOC), sediada nos EUA e sem fins lucrativos. Todas as especificações da IETF são abertas e qualquer um que contribui com o material para a IETF deve concordar que esta contribuição pode ser distribuída para outros (ALVESTRAND; LIE, 2009). Outra instituição responsável pelo funcionamento da internet é o World Wide Web Consortium (conhecido como W3C) que, segundo Alvestrand e Lie (2009) é uma organização não-comercial formada para levar a WWW ao seu pleno potencial de desenvolvimento de protocolos e diretrizes que garantam o crescimento de longo prazo da Web. Este Consórcio 56 foi criado em 1994 e tem centenas de membros, a maioria empresas do setor de informática. Quanto ao conteúdo disponibilizado por meio da internet, e quanto ao acesso e tráfego deste conteúdo, são muitas as instituições e empresas envolvidas no seu funcionamento. Para Hahn e Wallsten (2006) é simplista, mas útil, pensar a internet em quatro partes: provedores de conteúdo como Google, Amazon, e eBay; a rede de backbone da internet gerenciada por uma série de empresas, incluindo Level3, AT & T, Sprint, Verizon, e Qwest; prestadores de serviços de banda larga como a AT & T, Verizon e Comcast; e os usuários finais, isto é, consumidores e empresas. Conforme será exposto no próximo item, a rápida expansão da internet, como um meio difusor de conteúdos informacionais, possibilitou que cientistas do mundo todo pudessem compartilhar os resultados de suas pesquisas. Esta iniciativa foi chamada de Open Access e foi adotada por instituições mantenedoras de repositórios digitais abertos, responsáveis pelo armazenamento e disponibilização de publicações científicas. 5.2 O MOVIMENTO DO OPEN ACCESS PARA PUBLICAÇÃO DE CONTEÚDO CIENTÍFICO, COMO CONTRAPOSIÇÃO À PUBLICAÇÃO TRADICIONAL Em meio ao movimento do software livre, da criação e disponibilização de padrões tecnológicos e software para repositórios abertos e interoperáveis, surgiu a iniciativa de compartilhar revistas acadêmicas de forma gratuita e aberta por meio dos repositórios. Esta iniciativa se deu a partir do final dos anos 1990 num movimento mundial, que contou com a participação de inúmeros países, instituições acadêmicas e de pesquisa, e agências de fomento. Este movimento foi chamado de acesso aberto (Open Access) no sentido de acesso livre e gratuito ao conteúdo científico dos repositórios abertos e também livre em relação às restrições impostas pelo copyright. Para Carvalho (2009) a questão dos repositórios institucionais e o acesso aberto à informação científica tem levado alguns países a discutir a regulamentação para implantação destes repositórios, os pesquisadores de todas as áreas do 57 conhecimento à enfrentar uma provável mudança de paradigmas, e os grandes editores à considerar mudanças irreversíveis nas suas políticas. O relatório da European Commission (2006) diz que as principais vantagens dos arquivos de acesso aberto são: a) a ausência de barreiras ao acesso que é livre e imediato; b) a interoperabilidade dos arquivos de acesso aberto, que melhora a visibilidade do seu conteúdo e a eficiência da busca; e c) o aumento do impacto derivado da maior visibilidade, e a acessibilidade. O Quadro 2 a seguir, foi elaborado a partir das informações constantes do relatório da European Commission (2006), e mostra, em ordem cronológica, as principais iniciativas que ocorreram no mundo em prol do acesso aberto. QUADRO 2 - PRINCIPAIS INICIATIVAS EM PROL DO ACESSO ABERTO Ano 1998 1998 1999 País/ Instituição Brasil/Scientific Electronic Library Online(SciELO) The Scholarly Publishing and Academic Resources Coalition (SPARC) Japão/ Agência de Ciência e Tecnologia - J-STAGE 2001 Public Library of Science (PLOS) 2002 Budapest Open Access Iniciative (BOAI) Bethesda Statement on Open Access Publishing 2003 2003 2003/ 2004 2003 2003 The Berlin Declaration on Open Access to Knowledge in the Sciences and Humanities Reino Unido/ Wellcome Trust Genebra - Declaração de Princípios da Cúpula Mundial sobre a Sociedade da Informação EUA - Lei de Acesso Público à Ciência 2004 OECD - Declaration on Access to Research Data from Public Funding 2004 Reino Unido/ Comitê de Ciência e Tecnologia da Câmara dos Comuns Finlândia/ Open Access Publishing Scientific Committee 2005 Iniciativa Acesso gratuito a mais de 200 revistas selecionadas em Espanhol e Português. Aliança de universidades para apoio à ações para melhorar o amplo acesso e o custo efetivo de bolsas peer-reviewed Plataforma para editoração de mais de 200 revistas abertas de sociedades acadêmicas patrocinadas pelo governo. Coalizão de 34.000 cientistas de 180 países para que todos os artigos estejam em open access após seis meses da publicação tradicional. Assinada por mais de 4000 pessoas e organizações de todo o mundo. Debate dentro da comunidade de pesquisa biomédica para oferecer acesso aberto à literatura científica primária. Assinada por mais de 60 organizações entre elas a CNRS da França, o Instituto Max-Planck da Alemanha, e o CERN da Suíça. Apoio definitivo à publicação dos resultados das pesquisas financiadas por ela em um formato de acesso aberto. Promoção do acesso universal à criação e difusão do conhecimento científico e informação técnica. Exige que a pesquisa substancialmente financiada pelo governo federal seja disponibilizada em domínio público. Declaração assinada por mais de 30 nações para o acesso aos dados da pesquisa proveniente de financiamento público. Recomendação às agências públicas de financiamento para exigirem acesso aberto à pesquisa com financiamento público. Recomendação às organizações de pesquisa a criarem repositórios de acesso aberto e os autores a depositarem neles suas publicações. 58 2005 UNESCO/Noruega/ Dinamarca/Holanda/Índia 2005 Brasil/ Instituto Brasileiro de Informação em Ciência e Tecnologia Fonte: European Commission, 2006. Recomendações para a prática do acesso aberto em repositórios. Rede de repositórios que fornece acesso a 41.000 publicações. Manifesto em prol do acesso aberto. Registradas 141 adesões. Além das ações mostradas no Quadro 2, que ocorreram na esfera pública, de acordo com a European Commission (2006), ocorreram ações também na esfera privada, com vários editores fornecendo acesso aberto à suas publicações, por meio de subsídios do governo e assinaturas de sua versão impressa para cobrir os custos de publicação, sem cobrar dos autores para a publicação de seus artigos. Também, algumas editoras adotaram um modelo híbrido, fornecendo acesso parcialmente livre aos seus periódicos, ou seja, após um determinado período de tempo da publicação, como por exemplo a HighWire Press, ou o livre acesso a apenas alguns artigos. E, ainda, estão permitindo que autores possam tornar seus artigos livremente disponíveis on line com o pagamento de uma taxa de publicação, como por exemplo a Springer Open Choice programme, e Blackwell online open service (EUROPEAN COMMISSION, 2006). No modelo Open Access o processo de publicação de material científico, especialmente dos periódicos, ocorre da seguinte maneira: a) as instituições se encarregam das condições necessárias para a pesquisa dos integrantes de seu quadro funcional pagando os salários e mantendo as instalações adequadas de espaço físico, mobiliário e equipamentos, como também as instalações de laboratórios, e do repositório digital; b) os pesquisadores autores, se ocupam das atividades de elaboração dos artigos, revisão por pares e processo editorial para publicação no repositório aberto; e c) as bibliotecas se ocupam das atividades de manutenção e recuperação do conteúdo do repositório, prestam suporte aos pesquisadores na difusão deste conteúdo e na melhor utilização por eles, deste recurso informacional disponível. Com isto os pesquisadores, que são também os principais leitores, lêem, citam, e elaboram novos textos, retroalimentando o processo. E, ainda, os artigos são disponibilizados em licenças copyleft ou creative commons em lugar do copyright, mantendo assim os direitos autorais com o autor, sem repasse. Dito de outra forma, as instituições, com suas bibliotecas e 59 comunidade acadêmica encarregam-se de todo o processo, sem a participação das editoras oligopolizadas como intermediárias na organização das atividades editoriais e difusão do conteúdo, conforme ilustrado na Figura 4 abaixo. FIGURA 4 - PROCESSO DE PUBLICAÇÃO E DIFUSÃO DE PERIÓDICOS CIENTÍFICOS EM ACESSO ABERTO (OPEN ACCESS) Fonte: O autor, 2013. 5.3 OS PADRÕES TECNOLÓGICOS NECESSÁRIOS AO PLENO FUNCIONAMENTO DOS REPOSITÓRIOS DIGITAIS ABERTOS E O ACESSO AO SEU CONTEÚDO EM LONGO PRAZO No movimento do acesso aberto às publicações científicas, as instituições de ensino e pesquisa necessitaram de um padrão tecnológico que 60 possibilitasse a interoperabilidade dos repositórios digitais, para que estes pudessem ter seu conteúdo acessível pelos provedores de serviços e de busca e, assim, serem acessados pelos usuários. Por meio da iniciativa denominada Open Archives Initiative (OAI), do Instituto de Informação Legal, da Universidade de Cornell, USA, foi criado então o protocolo padrão de interoperabilidade entre os repositórios digitais e os provedores de serviços e de busca, como OAISTER, Google, Yahoo e Alta Vista. Este protocolo chamase Open Archives Initiative Protocol for Metadata Harvesting (OAI-PMH). De acordo com seu site, a Open Archives Initiative (2013) desenvolve e promove padrões de interoperabilidade que visam facilitar a disseminação eficiente de conteúdo. A OAI tem suas raízes nos movimentos de acesso aberto e de repositórios institucionais, em um esforço para melhorar o acesso aos arquivos científicos (eprints) e aumentar a disponibilidade da comunicação acadêmica. De acordo com Lagoze e Van de Sompel (2001), pesquisadores da Cornell University e da Los Alamos National Laboratory respectivamente, e responsáveis pelo comitê executivo da OAI, o foco original em eprints foi ampliado para abranger os provedores de conteúdo de muitos domínios, com ênfase na publicação acadêmica. A OAI usa o termo "archive" (arquivamento) em um sentido mais amplo, como um repositório para armazenamento de informações. E o termo "open" (aberto) na OAI é usado a partir da perspectiva arquitetônica, ou seja, da definição e promoção de interfaces de computador que facilitem a disponibilidade de conteúdos a partir de uma variedade de fornecedores. A solução de interoperabilidade adotada pela OAI é conhecida como a coleta de metadados (descrição do objeto digital) onde o repositório digital expõe seus metadados através de uma interface aberta, com a intenção de que estes metadados sejam coletados e usados como a base para o desenvolvimento de serviços de busca. Além do padrão tecnológico desenvolvido para fornecer a interoperabilidade dos repositórios abertos, foi necessária também a criação de um padrão tecnológico que permitisse a identificação e localização persistente do objeto digital, neste caso um texto científico, armazenado nos repositórios abertos, para que este objeto se mantenha acessível na internet ao longo do tempo, mesmo que o software ou o hardware sejam substituídos. Este padrão foi chamado de identificador persistente. Os identificadores persistentes são 61 fundamentais para a manutenção da integridade e recuperação de objetos digitais em longo prazo. Dentre os identificadores persistentes mais conhecidos estão o Handle System, o Purl, e o DOI, sendo o DOI o mais usado atualmente. De acordo com seu site, Digital Object Identifier (2013), o DOI é um Identificador Digital de um Objeto (e não um "Identificador de Objeto Digital"). Atualmente é usado por mais de 5.000 autoridades de nomenclatura, como editoras, centros de dados científicos, estúdios de cinema, e outros, e tem mais de 84 milhões de nomes DOI atribuídos. O DOI garante conformidade com os padrões das comunidades da Internet IETF e W3C. De acordo com Brito, Guedes e Shintaku (2013, p. 7) "como exemplos de objetos que podem receber um nome DOI, pode-se citar um CD de música (estrutura física), seus arquivos (estrutura digital) de gravações com as performances de músicas (estrutura abstrata)." E Sayão (2007, p. 68) ressalta que a identificação permanente garante o acesso contínuo ao recurso informacional, assegurando que este seja localizado e se ―materialize‖ todas as vezes que o seu link referencial for clicado. Os links podem parar de funcionar. O uso de um identificador persistente garante que, mesmo que um documento seja movido, ou a sua propriedade seja transferida, os links para ele mantenham-se efetivamente acionáveis. A figura 5 ilustra o relacionamento dos repositórios digitais abertos com a internet, com o movimento do open access, e com os padrões necessários para a interoperabilidade dos repositórios e identificação persistente dos objetos digitais nos repositórios ao longo do tempo, conforme descritos neste capítulo. 62 FIGURA 5 - OS REPOSITÓRIOS DIGITAIS ABERTOS E OS PADRÕES TECNOLÓGICOS Fonte: O autor, 2013. Síntese Conclusiva: A adoção de padrões abertos e o movimento do open access foram determinantes no desenvolvimento dos software para repositórios digitais que surgiram após o ArXiV, o primeiro repositório aberto, que representa uma filosofia de publicação dentro do movimento do software livre. Ao permitirem que os provedores de serviços e de busca fizessem uma varredura em suas bases de dados, os repositórios abertos fomentaram o surgimento de instrumentos que permitem a medição do impacto das publicações que estão nestes repositórios e fora do oligopólio das publicações tradicionais, como será abordado a seguir. 63 6 OS REPOSITÓRIOS DIGITAIS ABERTOS, SUA DIFUSÃO E OS INSTRUMENTOS QUE PERMITEM MEDIR O IMPACTO DAS SUAS PUBLICAÇÕES Conforme será visto neste capítulo, os repositórios digitais abertos não surgiram ao acaso. Foram colocados no mercado, junto com ferramentas de acesso aberto, copyleft e creative commons, como uma alternativa sem barreiras à publicação científica, em oposição ao oligopólio das publicações e ao copyright. Se inserem no ambiente digital como uma alternativa viável de publicação aos pesquisadores, ao mesmo tempo em que garantem um tratamento adequado ao conteúdo para que seja preservado. Os provedores de busca são os responsáveis pela difusão dos repositórios, por fazer com que os textos que guardam sejam encontrados na Web e entregues ao leitor que faz a pesquisa. Este leitor, que é também pesquisador e autor, se encarrega de ler o texto e, se julgar o seu uso pertinente, irá citá-lo em novo texto. Este novo texto, caso seja também disponibilizado em um repositório aberto, acionará ferramentas que fazem a contagem de citações, como o GSC, do Google Scholar. Todos os instrumentos de padrões abertos disponíveis para a criação de repositórios digitais, e os instrumentos de difusão e de análise de citações, disponíveis em uma internet também de padrões abertos, se interligam e se somam para ampliar a visibilidade dos textos científicos produzidos por instituições de ensino e pesquisa e disponibilizados em seus repositórios digitais abertos. 6.1 ANTECEDENTES HISTÓRICOS E CONTEXTUALIZAÇÃO DO DESENVOLVIMENTO DOS REPOSITÓRIOS DIGITAIS ABERTOS Um desdobramento do movimento do software livre é representado pelos repositórios digitais. Estes foram concebidos em meio ao desenvolvimento dessas alternativas político-tecnológicas como mecanismo de desvio ao domínio corporativo. De acordo com Luce (2001) o primeiro deles foi o ArXiv, iniciado por Paul Ginsparg, físico da Los Alamos National Laboratory 64 que, frustado com o sistema lento de impressão dos artigos científicos, pretendia agilizar a disponibilização dos mesmos, fornecendo uma maneira conveniente de compartilhar os resultados de suas pesquisas com seus colegas cientistas. Isto viabilizou outros dois movimentos: E-print e Preprint. O termo preprint freqüentemente refere-se a um manuscrito que foi revisado por pares e está aguardando publicação em uma revista tradicional, e um e-print denota auto-arquivamento pelo autor (LUCE, 2001). Assim, Ginsparg desenvolveu o primeiro arquivo preprint e e-print, em agosto de 1991, e o disponibilizou no ArXiv. O ArXiv, além de corresponder a uma filosofia, ou movimento alternativo de publicação científica, é um software para gerenciamento de bibliotecas/repositórios digitais e, como outros software que vieram depois, tais como Eprints, Fedora, Dspace e OJS, têm por função armazenar, processar e recuperar conteúdos digitais. As instituições de pesquisa e as universidades viram nestes softwares uma oportunidade para disponibilizar, de forma ágil e em âmbito mundial, o conteúdo científico gerado dentro delas e, assim, passaram a utilizar estes instrumentos para formar seus repositórios digitais institucionais. Para Crow (2002) um Repositório Institucional (RI) é um conjunto de serviços de armazenamento, gestão e disseminação de materiais digitais disponíveis aos membros de uma determinada comunidade acadêmica. Os repositórios digitais se encontram num mercado paralelo ao mercado das editoras científicas, como Springer, Elsevier, Blackwell e Thomson Reuters. Embora ambos publiquem textos técnico-científicos, as grandes editoras funcionam como uma estrutura de mercado oligopolizada, numa esfera privada, com mecanismos de barreiras à entrada, enquanto os repositórios digitais funcionam num mercado livre e aberto na esfera pública. Desse modo, essas editoras, na medida do seu poder de monopólio, aumentam preços livremente ao mesmo tempo em que detêm o poder sobre o copyright e os direitos de autor. Nessa perspectiva oligopolizada de publicação por parte das editoras científicas, os pesquisadores de universidades e instituições de pesquisa encontram algumas barreiras. Dentre elas estão: o longo tempo para avaliação e publicação do artigo produzido; a propriedade intelectual repassada às editoras em forma de copyright, e ainda o preço a ser pago pelo acesso ao próprio artigo produzido. Ainda que o tempo para 65 publicação tenha sido reduzido com a conversão de livros e revistas para o meio eletrônico, resta a barreira de entrada relacionada ao tempo da avaliação do conteúdo. E resta ainda, a principal barreira que é o controle do fator de impacto das publicações científicas, exercido pelo mesmo grupo editorial. Este grupo é também responsável pela publicação dos periódicos cujo conteúdo é a análise do fator de impacto dos títulos de periódicos que contêm os artigos científicos. 6.2 O ARXIV COMO PROPULSOR DE UMA NOVA FILOSOFIA DE PUBLICAÇÃO O ArXiv, foi desenvolvido especificamente para os pesquisadores da área da física poderem disponibilizar seus artigos científicos na internet, de um modo rápido em relação ao longo período de tempo demandado na publicação de periódicos científicos do modo tradicional, considerando aquele despendido na revisão pelos pares, nos comitês editoriais, e na publicação propriamente dita. Para Ginsparg (2006) o ArXiv, iniciado em agosto de 1991, em 2006 já contava com 375.000 artigos, 40 milhões de downloads de texto completo por ano, e ainda 50.000 novos pedidos por ano. O ArXiv tornou-se um projeto internacional, com sites de espelhos dedicados em 17 países. O ArXiv é inteiramente orientado para os cientistas porque os artigos são depositados pelos pesquisadores e estão disponíveis imediatamente para os outros pesquisadores em todo o mundo. De acordo com o site oficial do ArXiv (2013) ele é mantido e operado pela Biblioteca da Universidade de Cornell, com a orientação do Conselho Científico e Consultivo do ArXiv e o Grupo Consultivo de Sustentabilidade do ArXiv e, ainda, com a ajuda de numerosos moderadores. As submissões são revisadas pelos moderadores peritos a fim de verificar se estão adequadas aos tópicos e seguem os padrões aceitos para comunicação acadêmica, como os artigos de revistas convencionais. O ArXiv fornece acesso persistente à todas as submissões em um único local, sem qualquer taxa, com suporte para usuários ao redor do mundo, e é mantido com um enfoque sobre a disponibilidade perpétua de submissões. 66 Com a criação do ArXiv foram também criados os termos preprint e eprint. Segundo Luce (2001) os e-prints podem ser trabalhos inéditos, preprints, ou trabalhos publicados. Ao contrário dos preprints, os e-prints podem ser, e frequentemente são, atualizados pelo autor a qualquer tempo, inclusive após o processo de peer-review. Os servidores de preprints fornecem uma forma conveniente para os cientistas compartilharem seus resultados com os seus colegas muito rapidamente, sob a forma de artigos individuais. O aplicativo ArXiv foi otimizado para permitir que praticamente qualquer pesquisador com conexões de rede possa acessar e baixar artigos de interesse, o que proporciona a igualdade de condições para os pesquisadores em diferentes níveis acadêmicos e em diferentes localizações geográficas. Se forem feitas alterações em uma nova versão, o arquivo fornece acesso público às versões anteriores dos artigos submetidos. Portanto, mesmo que a versão atual de um artigo tenha sido marcada como retirada, as versões anteriores podem ainda ser reativadas. Para Ginsparg (2000) cada artigo custa normalmente dezenas de milhares de dólares em salários para ser produzido, e muito mais em equipamentos e despesas gerais. Um ponto-chave do meio eletrônico de comunicação é que, para uma minúscula fração adicional desse montante, é possível arquivar o artigo e torná-lo disponível gratuitamente para o mundo inteiro em perpetuidade. 6.3 SOFTWARE LIVRES PARA GERENCIAMENTO DE REPOSITÓRIOS DIGITAIS E O PAPEL DOS PROVEDORES DE BUSCA NA SUA DIFUSÃO Atualmente, pela sua propagação, os repositórios digitais abertos são responsáveis por disseminar de forma global o conteúdo de milhares de instituições acadêmicas e de pesquisa, contribuindo assim para a diminuição das diferenças sociais, visto que este acesso ao conhecimento científico é livre e gratuito. Dentre vários softwares livres disponíveis no mercado para gerenciamento de repositórios, dois se destacam pela ampla aceitação que 67 obtiveram mundialmente, formando redes com inúmeras instituições que os adotaram. São eles Dspace e Open Journal System (OJS), cujas principais características aparecem descritas a seguir no Quadro 3. QUADRO 3 - PRINCIPAIS SOFTWARES LIVRES PARA GERENCIAMENTO DE REPOSITÓRIOS DIGITAIS Software Data/Local Custo/Tempo Função Principais características DSPACE - 2002 - US$1,8 -Gerenciamento - Código fonte aberto milhão da publicação - Traz o handle system como - Financia- de qualquer identificador digital mento das material persistente dos objetos bibliotecas do bibliográfico em digitais MIT meio digital - Disponível em mais de 20 - HewlettPackard (HP) - MIT - 18 meses idiomas - Mais de 1000 repositórios no mundo OJS - 2002 - University - US$45 mil -Gerenciamento - O OJS está sendo usado, (versão 1.0) - da publicação no todo ou em parte, na sua 2002 de revistas forma original ou modificada, online por mais de 250 revistas para of British Columbia - US$ 110 mil - site para as gerenciamento e publicação - John (versão 2.0) - revistas online. Willinsky 2005 - submissão do - Disponível em mais de 20 artigo pelo autor idiomas - peer review - Milhares de revistas e - gestão dos centenas de instituições arquivos; usuárias - indexação e - Origem no projeto Public de busca dos Knowledge Project artigos (PKP) - 18 meses Fontes: DSPACE, 2013; PUBLIC KNOWLEDGE PROJECT, 2013; WILLINSKY, 2005; SMITH et al., 2003. Os provedores de conteúdo são os fornecedores de informações na Web. Estes fornecedores podem ser pessoas físicas ou jurídicas, públicas ou privadas, como por exemplo pessoas que tenham sites, empresas, sociedades, 68 universidades ou bibliotecas. O conteúdo pode ser desde uma informação rápida, como um endereço, número de telefone, um dado estatístico, ou um gráfico, até volumosos relatórios ou resultados de pesquisas em texto completo de livros ou revistas. A forma pela qual estes conteúdos são disponibilizados pode ser um site, um blog, uma rede social ou um repositório aberto ou fechado. Os provedores de conteúdo tambem são os repositórios digitais abertos. Os provedores de serviço são as organizações e software responsáveis por agregar valor à busca na Web, por meio de protocolo que permite uma única consulta, de forma simultânea à vários repositórios abertos e dispersos, trazendo um resultado do coletivo destes repositórios. Os provedores de busca, ou simplesmente buscadores, são também provedores de serviço, responsáveis pelos motores de busca disponibilizados pelos sites que fazem as buscas em toda a Web. As editoras do oligopólio usam buscadores próprios para fazer a varredura no conteúdo de seus repositórios digitais fechados, enquanto os repositórios digitais abertos dependem dos buscadores disponíveis gratuitamente no mercado, para que seus usuários possam chegar ao conteúdo que guardam. Alguns destes buscadores gratuitos, como Google e Yahoo!, implementaram o protocolo OAIPMH para a coleta de metadados nos repositórios abertos, aumentando assim a precisão da busca, trazendo resultados mais próximos ao desejado pelo usuário. Com isto geraram externalidades de rede para os repositórios abertos, ampliando sua difusão e uso. 6.4 H INDEX, G INDEX E OUTROS FATORES DE IMPACTO FORA DO OLIGOPÓLIO DAS EDITORAS Desde que o termo Fator de Impacto (FI) foi criado por Eugene Garfield em 1955 (GARFIELD, 2006), com o passar dos anos, passou a ser usado de forma genérica para o índice de impacto das citações, referindo-se a qualquer fator de impacto, de um autor, ou de qualquer material bibliográfico. O impacto de citação (Citation Impact) é uma contagem do número de citações para um artigo. A média do impacto de citação por artigo pode também ser usada para coleções, autores, periódicos, instituições, etc. Até o início dos anos de 2000 só 69 haviam no mercado os índices de impacto controlados pelas editoras comerciais que detém o oligopólio das publicações científicas, mas a partir daí, vários outros instrumentos foram criados e disponibilizados no mercado, como alternativa para pesquisadores, editores e instituições que necessitam avaliar a qualidade das publicações. Para Mugnaini e Strehl (2008, p. 94) "outras bases de dados que indexam citações têm surgido e estão disputando o espaço do ISI no ramo de produção de informações para medida de impacto das publicações científicas". Dentre estes instrumentos de medição do impacto estão o Citebase, de 2001 (BRODY, 2003); h index de 2005 (HIRSCH, 2005); G-Index de 2006 (EGGHE, 2006), o GSC e o GSM do Google Scholar (Google Scholar, 2013). E foi desenvolvido e disponibilizado no mercado, de forma gratuita, o software Publish or Perish, que permite calcular e acompanhar o impacto usando todos estes instrumentos acima citados (PUBLISH OR PERISH, 2013). O projeto OpCit (The Open Citation Project - Reference Linking and Citation Analysis for Open Archives), de acordo com o site OpCit (2013), é um projeto de P&D que durou três anos, de outubro de 1999 até o final de 2002 e foi financiado pela NSF-JISC International Digital Libraries Research Programme. O OpCit teve como centros de P&D as Universidades de Southampton (Reino Unido), e de Cornell (EUA), e teve dentre os seus parceiros e colaboradores as seguintes instituições: Los Alamos National Laboratory, Research Library; Highwire Press (USA); American Physical Society; International DOI Foundation; Dublin Core Working Group on Bibliographic Citations; CrossRef, Publishers International Linking Association, Inc. (PILA); e BioMed Central (UK). Um dos produtos deste projeto foi o desenvolvimento da ferramenta Citebase para a análise de impacto de citação e referência vinculando arquivos de acesso aberto OAI em grande escala. O Citebase foi criado por Tim Brody, da Universidade de Southampton, Reino Unido. De acordo com Brody (2003) o Citebase Search é uma base de dados de citações autônoma para arquivos e-print. É um serviço Web que colhe artigos on-line de pesquisa, artigos pré e pós peer-reviewed. O Citebase analisa as referências a partir do texto completo e estabelece uma ligação entre as citações e os artigos citados. O Citebase foi anunciado pela primeira vez em dezembro de 2001 e foi integrado ao arXiv.org em agosto de 2002, 70 recebendo um número considerável de usuários que começaram a usá-lo. O Citebase é derivado do Projeto Opcit e do Open Archives Initiative. A interoperabilidade do OAI permitiu desenvolver um motor de busca de arquivos cruzados com a capacidade de coleta e análise de links de pesquisa dos artigos. Esses links de citação criam um banco de dados de citação clássica, que é usado para gerar a análise de citações e de navegação sobre a literatura ePrint. Para Ruiz, Greco e Braile (2009, p. 275) "o índice h é outro índice bibliométrico que tem o objetivo de quantificar a produtividade e o impacto de cientistas baseado nos seus artigos mais citados. O objetivo do índice é estimar a produtividade e o impacto de um ou mesmo de um grupo de cientistas." Em 2005 Jorge E. Hirsch, professor argentino de física na Universidade da Califórnia, propôs um novo índice de citações para mensurar o impacto da produção do autor. De acordo com Hirsch (2005), a proposta foi de haver um único número, o h index, como uma forma particularmente simples e útil para caracterizar a produção científica de um pesquisador. Hirsch está entre os 250 pesquisadores mais citados de acordo com a lista dos pesquisadores altamente citados identificados pela Thomson Reuters entre os anos de 2000 e de 2008 (THOMSON REUTERS, 2013). Para Costas e Bordons (2007) a ampla difusão do indíce h na comunidade científica foi propiciada por duas de suas principais vantagens: o fato de combinar uma medida de quantidade e impacto num só indicador superando as contagens brutas de documentos e citações e, sobretudo, sua simplicidade de cálculo. Para Bornmann e Marx (2011) o índice h foi proposto como uma alternativa a outros indicadores bibliométricos como citações por artigo, visto que medir a qualidade da pesquisa científica torna-se ainda mais importante em um tempo no qual os cientistas competem cada vez mais por recursos limitados. Atualmente, o índice h é usado para medir a produção de pesquisa não só dos cientistas, mas também de grupos de pesquisa, de instalações científicas, e países. Até o final de 2010, o artigo de Hirsch sobre o h index foi citado aproximadamente 660 vezes, o que reflete a sua popularidade. Para Ayçaguer (2012) as alternativas baseadas no h index abriram caminho para o g-index de Leo Egghe, o GSC do Google Scholar, e o Google Scholar Metrics (GSM), também do Google Scholar. 71 Em 2006, Leo Egghe, professor da Universidade de Hasselt, Bélgica, propôs o índice de citações chamado g-index. De acordo com Egghe (2006), o g-index foi introduzido como uma melhoria do índice h de Hirsch para medir o desempenho da citação global de um conjunto de artigos. Segundo ele, o gindex herda todas as boas propriedades do h-index e, além disso, leva em conta as notas de citação dos artigos de topo. Isso gera uma melhor distinção entre a ordem dos cientistas, do ponto de vista da visibilidade. Rousseau (2006) propõe alguns modelos de relação entre o índice de Hirsch e o índice de Egghe; e Schreiber (2008) enfatiza que a influência das auto-citações parece ser mais significativa para o g-index do que para o h-index, e diz que as autocitações podem ser muito significativas e devem ser excluídas. No Brasil surgiu o Shine (Simple HINdex Estimation), que de acordo com seu site SHINE (2013) é um projeto e parte da iniciativa chamada Perfil-CC SBC (Sociedade Brasileira de Computação), que avalia as principais conferências internacionais da área de computação, usando como índices de impacto o h-index e o GSC numa fórmula própria. O fator de impacto GSC, criado pelo Google, pode ser considerado como uma alternativa ao fator de impacto que é definido pelas editoras oligopolizadas. O Google traz nos seus resultados os metadados do objeto digital e o link para acessar este objeto. Quando o link é permanente, e quando o objeto digital, neste caso, um texto técnico-científico, está disponibilizado como Copyleft ou como licença Creative Commons, o leitor poderá acessar este texto, baixá-lo, lê-lo, e poderá citá-lo, o que será computado no fator de impacto do Google. Segundo o site do Google Scholar (2013) o índice de citações do Google Acadêmico oferece aos autores uma forma simples de acompanhar as citações de seus artigos. O autor pode verificar quem cita suas publicações, visualizar gráficos de citações ao longo do tempo e avaliar diversas métricas de citação. Para Mugnaini e Strehl (2008, p. 99-100) um diferencial do GA (Google Acadêmico) está na indexação das referências bibliográficas feitas nos trabalhos. Funcionando como um índice de citações, o GA interliga os diversos documentos a partir de suas referências, revelando uma rede de conexões entre publicações afins. E, ainda, 72 mesmo estando longe de ser pioneiro na indexação das citações, o GA tem revelado uma faceta até então desconhecida do impacto das publicações, considerando que indexa documentos não contemplados por outras bases de dados. Dessa maneira, alguns indicadores, tradicionalmente obtidos para os principais periódicos internacionais, agora podem ser gerados para tipos de materiais pouco indexados, como livros e anais de congressos, e para os periódicos dos países em desenvolvimento, que sempre estiveram à margem do esquema das grandes editoras comerciais. De acordo com o site do Google Scholar (2013) o Google Scholar Metrics fornece uma maneira fácil para os autores avaliarem rapidamente a visibilidade e influência de artigos recentes em publicações acadêmicas. O GSM traz citações recentes para muitas publicações, a fim de ajudar os autores a considerar onde publicar sua nova pesquisa. Traz as 100 melhores publicações por área, em vários idiomas, ordenadas por seus cinco anos de hindex e métricas h-medianas. De acordo com o seu site, o Publish or Perish (2013) é um software que recupera e analisa citações acadêmicas. Ele usa o Google Scholar para obter as citações primas, que são analisadas e depois apresenta um conjunto de métricas. Ele roda em Microsoft Windows, Apple Mac OSX e sistemas GNU/Linux. O Publish or Perish é gratuito e disponibilizado pela Harzing.com, o site de Anne-Wil Harzing, professora de gestão Internacional da Universidade de Melbourne, na Austrália. Este site fornece informações, documentos e recursos on-line sobre as áreas de pesquisa. Ele também apresenta recursos para ajudar na avaliação da qualidade da pesquisa e do periódico, bem como o software para realizar a análise de citação. Para Mugnaini e Strehl (2008, p. 101) "as estatísticas do ―Publish or Perish‖ são tão acessíveis e simples que podem constituir uma ameaça para os sistemas de avaliação da produção científica." De acordo com Garfield (2006) atualmente existem novas métricas chamadas de Webometrics se interpondo no jogo das medidas de citação e, embora haja pouca evidência de que esta abordagem é melhor do que a análise de citações tradicional, alguns estudos limitados indicam que esta Web citation é um prenúncio do futuro da citação. Um exemplo é o Webometrics Ranking of World Universities (2013), uma iniciativa do Cybermetrics Lab, um grupo de pesquisa pertencente ao Consejo Superior de Investigaciones Científicas (CSIC), o maior orgão público de investigação da Espanha. Dentre as áreas de atuação do Webometrics pode-se citar o desenvolvimento de 73 indicadores da Web para serem aplicados nas áreas da Espanha, Europa, America Latina, e de P&D mundial; estudos quantitativos sobre a comunicação científica por meio de revistas eletrônicas e repositórios, o impacto das iniciativas de acesso aberto; e o desenvolvimento de técnicas aplicadas à cibermetria baseadas no posicionamento dos motores de busca nos domínios Web. A Figura 6 ilustra o mercado aberto dos índices de impacto, criados em alternativa ao fator de impacto controlado pelo oligopólio, a sua relação com os pesquisadores que necessitam publicar o resultado de suas pesquisas, e a sua relação com os repositórios onde estas métricas são usadas para fazer a análise das citações, e também com o Google, responsável pela busca do conteúdo a ser analisado. FIGURA 6 - O MERCADO ABERTO DOS ÍNDICES DE IMPACTO Fonte: O autor, 2013. Síntese Conclusiva: 74 O ArXiv, assim como os outros repositórios digitais abertos, que surgiram depois dele, são as ferramentas usadas para publicação da produção científica das universidades e instituições de pesquisa do mundo de forma alternativa. Estas ferramentas foram as responsáveis por fazer com que milhares de pesquisadores no mundo tivessem uma forma livre e gratuita para comunicar o resultado de seus trabalhos. Da mesma forma, a difusão do conteúdo dos repositórios foi impulsionada pelos provedores de serviço e de busca, e o aumento da visibilidade do conteúdo dos repositórios levou alguns pesquisadores a desenvolverem ferramentas para medir o impacto deste conteúdo no meio acadêmico. Todos estas métricas de impacto apontadas, mostram a preocupação e o esforço de muitos cientistas em criar e colocar no mercado, de forma gratuita, alternativas à medição do impacto tradicional, controlado pelas editoras científicas. Assim, os repositórios abertos auxiliados por buscadores gratuitos, e somados a índices de impacto também gratuitos, usados para a avaliação de seu conteúdo, se propagaram globalmente gerando as externalidades de redes. A seguir será mostrado como o Google evoluiu para se tornar o buscador mais utilizado no mundo, e como foram geradas as externalidades de rede positivas e negativas. 75 7 A PROPAGAÇÃO E PROLIFERAÇÃO DOS REPOSITÓRIOS DIGITAIS ABERTOS O Google tornou-se um instrumento fundamental para o acesso ao conteúdo dos repositórios digitais abertos, visto que implementou o padrão OAI em sua busca e, por meio do Google Scholar, traz resultados condizentes à busca por material científico feita pelo leitor. O uso de software e padrões abertos fez com que os repositórios digitais abertos gerassem externalidades de rede positivas. Assim, mais instituições criaram seus repositórios próprios, mais benefícios foram gerados às instituições participantes da rede, e hoje são milhares de instituições acadêmicas e de pesquisa a difundirem o conteúdo científico que produzem. Entretanto, como será visto neste capítulo, as externalidades geradas não foram somente positivas. Algumas editoras e periódicos avulsos se camuflaram com o rótulo de repositórios abertos, open access, mas em realidade se constituem em elementos predatórios no mercado das publicações abertas e no conceito de open access. 7.1 A DOMINÂNCIA DO GOOGLE NO MERCADO DE PROVEDORES DE BUSCA Em aproximadamente dez anos o Google obteve a dominância do mercado de provedores de busca. A rápida expansão do Google se deu por meio de vários desdobramentos em seu serviço de busca, como a criação do Google Scholar, e o lançamento de novas ferramentas e serviços a partir do Google Scholar, como o GSC e o GSM. Assim, tornou-se indispensável aos pesquisadores do mundo todo usar a internet como o meio digital onde se localiza o conteúdo, e o Google como a ferramenta mais capaz de encontrar e recuperar o texto desejado, em meio à bilhões de textos que formam o conteúdo global da rede. Os fundadores do Google, Brin e Page (1998), lançaram o protótipo do Google em 1998 como um motor de busca em larga escala, capaz de fazer uso pesado da estrutura presente em hipertexto. Segundo eles, o Google foi projetado para rastrear e indexar a Web de forma eficiente e produzir 76 resultados de busca muito mais satisfatórios do que os sistemas existentes à época. Com um banco de dados de hyperlink com texto completo em 24 milhões de páginas, o protótipo foi disponibilizado no domínio da Universidade de Stanford, no endereço http://google.stanford.edu/7, visto que os dois autores eram doutorandos de informática nesta universidade. Com o tempo, o que começou como um projeto universitário tornou-se uma grande empresa com um crescimento impressionante. Isto chamou a atenção de empresas como a AOL/Netscape, que selecionou o Google como seu mecanismo de pesquisa, e o fez ultrapassar os 3 milhões de buscas por dia. Em 1999, recebeu US$ 25 milhões de dois importantes investidores: Sequoia Capital e Kleiner Perkins Caufield & Buyers. De acordo com Keese (2011) as editoras de jornais e revistas estão particularmente preocupadas com a concorrência desleal de sites de busca online e por este motivo algumas associações européias de editoras, apresentaram uma queixa formal à União Europeia contra o Google, por abuso de posição dominante no mercado em relação a busca, da qual destacam-se a seguir as principais argumentações feitas. O movimento reflete uma profunda preocupação sobre a prática continuada do Google de favorecer seus próprios produtos de outros mercados, tais como mapas, listas de filmes, de comparação de preços ou de informação de viagens, ao dar a si mesmo posições elevadas indevidas e injustificadas no ranking dos resultados das buscas. O motor de busca Google, não só domina o mercado de buscas, mas também é um serviço essencial para a participação em mercados on line e não pode ser duplicado. O Google opera este serviço essencial (bottleneck facility) e, ao mesmo tempo, oferece serviços que dependem dele (mercados adjacentes). Esta expansão vertical cria para o Google um incentivo econômico para classificar seus produtos em uma posição mais elevada do que os produtos dos seus concorrentes. Também, de acordo com Keese (2011), as editoras solicitaram particularmente que o Google forneça seu serviço de indexação para todos os 7 O nome Google, dado ao buscador, deveu-se a sua grafia, semelhante a da palavra googol, que em inglês significa 10100, ou 10 elevado à 100, que se encaixava no objetivo de construir um motor de busca de larga escala. Para os autores do Google, a tecnologia do motor de busca teve que escalar dramaticamente para acompanhar o crescimento da Web. 77 operadores dos sites Web em condições idênticas às dos seus próprios serviços, considerando que: o Google não pode exibir o seu próprio conteúdo em uma posição melhor do que o dos provedores de conteúdo equivalentes; o Google deve assegurar uma pesquisa objetiva, transparente e livre de arbitrariedade em todos os aspectos; o google ganha mais de cinco vezes o que todas as editoras ganham juntas com publicidade online; a base para o modelo de negócios do Google e os lucros gerados por este modelo são a exibição de conteúdo que foi produzido por outras empresas. E, ainda, devido ao poder de mercado que detém, os provedores de conteúdo não podem evitar os obstáculos e a exploração, por parte do Google. Isto de maneira alguma se aplica exclusivamente às editoras, se aplica também a toda a produção de conteúdos da indústria da mídia. A maioria das empresas não acredita ser capaz de evitar sozinha o dano causado pelo sistema Google. Como conseqüência da extrema importância da busca Google, como um filtro padrão na internet, elas são dependentes da inclusão e reprodução justas de seus endereços na Web, no índice do Google e, portanto, dependentes do Google. O modelo de negócios do Google, portanto, não é baseado em filantropia ou benefício social. Ele oferece serviço de busca gratuita para o usuário final, ao mesmo tempo em que gera lucros por meio da publicidade online. A empresa de otimização de sites e marketing na internet Bruce Clay, Inc. disponibilizou em seu site o histograma dos relacionamentos dos motores de busca desde o ano de 2000 até o ano de 2011 (BRUCE CLAY, INC 2013). Os relacionamentos de dados entre os motores de busca existentes no mercado, no ano de 2000 e no ano de 2011, são mostrados nas Figuras 7 e 8, e apontam particularmente, para efeitos deste trabalho, para o volume de buscadores disponíveis no mercado. A diferença da quantidade de buscadores caiu drasticamente neste período de pouco mais de uma década, com o gráfico de 2011 revelando a existência de uma enorme concentração de mercado nesta área, com a clara dominância do Google. 78 FIGURA 7 - MERCADO DOS BUSCADORES EM NOVEMBRO DE 2000 Fonte: Bruce Clay, INC 2013. FIGURA 8 - MERCADO DOS BUSCADORES EM NOVEMBRO DE 2011 Fonte: Bruce Clay, INC 2013. 79 7.2 A REDE DOS REPOSITORIOS DIGITAIS ABERTOS (OPEN ACCESS) E SUAS EXTERNALIDADES Com a oferta de software livres com código fonte aberto para a criação de repositórios e a difusão do movimento do Open Access, muitas centenas de instituições de ensino e pesquisa no mundo foram criando repositórios institucionais para garantir a difusão dos conteúdos científicos gerados dentro delas. E, em decorrência, foram surgindo externalidades positivas pelo uso comum dos padrões tecnológicos como o OAI, ou pela colaboração no desenvolvimento de práticas comuns às instituições participantes das redes de repositórios, que foram se formando. Um exemplo é a Federação de Bibliotecas Digitais. De acordo com seu site, a Digital Library Federation (2013) - DLF serve como um recurso e um catalisador para a colaboração entre os desenvolvedores de biblioteca digital, gerentes de projeto e todos os que investem em questões de bibliotecas digitais. A DLF promove os seguintes trabalhos: normas para a Biblioteca Digital, melhores práticas de gerenciamento de dados de pesquisa, de serviços de conservação de acervos digitais, e a agregação dos serviços da biblioteca digital que ampliam o acesso aos recursos digitais para a pesquisa, para o ensino e para a aprendizagem. A DLF conta com dezenas de instituições participantes de renome, dentre as quais pode-se citar: Cornell University; Columbia University; Harvard University; Library of Congress; Los Alamos National Laboratory Research Library; Stanford University; The University of British Columbia e Virginia Tech. De acordo com o relatório da European Commission (2006), protocolos padrões de interoperabilidade, tais como o OAI-PMH, devem ser promovidos para permitir a procura em todas as plataformas e permitir novos serviços orientados para o usuário, visto serem construídos e fornecidos pela comunidade de pesquisa. Como muitas normas e novas tecnologias foram desenvolvidas, a colaboração e a normalização são essenciais para aumentar a interoperabilidade entre sistemas e plataformas, a fim de: facilitar a eficiente disseminação de conteúdo acadêmico, melhorar a sua visibilidade, abrir o acesso a uma ampla gama de conteúdos digitais e garantir a sua preservação a longo prazo. As redes de repositórios foram criadas para promover o 80 intercâmbio de conhecimento e promover a utilização das TIC no âmbito da investigação e ensino superior. Apoiar a colaboração, promover as boa práticas e a utilização de padrões e protocolos de interoperacionalidade, no processo de publicação, pode caber em sua missão. As novas tecnologias possibilitam o desenvolvimento de formas alternativas de divulgação e intercâmbio de informações científicas livremente e de forma eficiente, bem como a criação de novos modelos de negócios para oferecer acesso aberto a revistas, por exemplo, com a cobrança de uma taxa de publicação (o modelo autor paga). A partir de iniciativas isoladas, o movimento em favor do acesso aberto à informação científica ganhou escala através da mobilização de grupos de pesquisadores e bibliotecas, do desenvolvimento dos repositórios com arquivos de acesso aberto, e as recentes políticas de órgãos de financiamento de pesquisa sobre o acesso aos resultados das pesquisas. Algumas instituições recomendam ao seus pesquisadores que publiquem em periódicos de acesso aberto e depositem os artigos resultantes da pesquisa financiada, em um repositório de acesso aberto. Espera-se que essas políticas contribuam para uma forma mais equilibrada de contratos de direitos autorais e, indiretamente, contribuam para introduzir a concorrência entre os editores sobre o valor social que proporcionam à comunidade de pesquisa. Como a avaliação do impacto dos pesquisadores é também sobre os meios de divulgação desses pesquisadores, as agências de fomento de pesquisa têm um papel central na determinação da prática de publicação dos pesquisadores, e atitudes para formas alternativas de publicação (EUROPEAN COMMISSION, 2006). Para Suber (2005) a grande divisão na publicação científica atual é entre o acesso aberto aos artigos, isto é, aqueles disponíveis gratuitamente na internet, e os de acesso não aberto, aqueles para os quais o leitor tem que pagar a fim de obter o acesso aos mesmos. Uma lição é que o acesso aberto existente é dirigido pela demanda em algum grau. Mas isso não significa que há pouca ou nenhuma demanda insatisfeita. Autores com artigos em revistas de alto impacto já têm relativamente grandes audiências, mas podem estar buscando um público maior, visto que artigos de acesso aberto chegam a um conjunto muito maior de leitores do que qualquer revista paga. Ou podem estar praticando o que os estudiosos chamam de mídia "push", trazendo seu trabalho para a atenção de quem talvez não soubesse nada sobre o assunto 81 tratado, mesmo que já tivessem livre acesso on-line a ele. Também, é possível que muitas dessas cópias on-line gratuitas tenham sido publicadas pelos leitores, e não pelos autores, e, ainda, que algumas revistas depositem seus próprios artigos em repositórios de acesso aberto para assegurar a sua preservação e acessibilidade em longo prazo. Segundo o relatório da Comissão Européia existem dados recentes que sugerem que os artigos publicados em revistas de acesso aberto são mais citados do que artigos em outras revistas. Este resultado é consistente tendo em vista que o custo de acesso zero para os leitores devem aumentar a difusão. Isto é verdade para o atual sistema de leitor-pay pelo qual os autores não pagam pelo serviço de certificação fornecido pelos editores, no entanto, neste caso, os efeitos de rede beneficiam os editores que podem atrair um grande número de autores, isto é, que têm uma grande carteira de revistas. No sistema author-pay, todos os pesquisadores são potenciais leitores, e esse efeito de rede beneficia todos os periódicos e todas as editoras, às vezes independentemente da sua carteira. Isto sugere que o sistema author-pay pode facilitar a entrada no mercado, limitando a vantagem competitiva dada pelos editores com grandes carteiras (EUROPEAN COMMISSION, 2006). Segundo o site da P2P Foundation (2013), organização que acata os princípios desenvolvidos pelo movimento de software livre, ao discutir o modelo de publicação pago pelo autor (Author Pay Model), ressalta que este é um dos modelos para a publicação de acesso aberto através do qual o autor, ou o instituto no qual um autor está incorporado, paga o custo de publicação de um artigo científico. Às vezes é mostrado como a única alternativa aos modelos de publicação comerciais. Devido a questão da equidade do autor, que não pode se dar ao luxo de pagar essas taxas, este conceito é, portanto, considerado enganoso por especialistas em acesso aberto, como Peter Suber, que comenta no site da P2P Foundation (2013) que isto seria assumir que existe apenas um modelo de negócio para revistas open access (OA), quando há muitos. Menos da metade das revistas OA de hoje (47%) cobram taxas do lado do autor. Equando revistas OA cobram taxas, as taxas são normalmente pagas pelos patrocinadores do autor (empregadores ou financiadores), ou renunciadas, e não pagas por autores do próprio bolso. 82 Quando revistas OA cobram essas taxas, são taxas "do lado do autor" e não "taxas de autor", uma vez que devem ser pagas por alguém do lado da transação do autor, como um financiador ou empregador, ao contrário de alguém do lado do leitor na transação, como uma biblioteca. Os principais pontos são os seguintes: a maioria das revistas OA não cobra nenhuma taxa do lado do autor, e para a minoria que não, os honorários são geralmente pagos por patrocinadores, ou são exonerados. Assim, os autores raramente pagam do próprio bolso. Em longo prazo, como o OA prevalecerá, as revistas OA poderão ser pagas com as economias do cancelamento, conversão ou morte dos periódicos baseados em assinaturas não-OA. Então, a situação de hoje, na qual os autores raramente pagam do próprio bolso, passará para uma situação em que eles nunca o fazem. Revistas não-OA cobram taxas do lado do autor mais do que revistas OA. Portanto, se há um efeito de excluir os mais pobres, as revistas não-OA são mais frequentemente culpadas do que as revistas OA (P2P FOUNDATION, 2013). Os repositórios digitais abertos e o movimento do open access também geraram no mercado externalidades negativas, que deturpam o modelo OA quando o acesso ao conteúdo não é livre e gratuito, e são cobradas altas taxas dos autores no modelo autor-paga e, ainda, quando este pagamento por si só é a garantia da publicação, sem revisão por pares ou outros mecanismos que garantam a qualidade e a ausência de plágio do conteúdo. Um exemplo disto é a proliferação de falsas editoras de acesso aberto, ou as chamadas editoras e revistas predatórias, termo empregado por Jeffrey Beall, bibliotecário da Biblioteca Auraria, da Universidade do Colorado, Denver, que monitora o comportamento destas editoras e periódicos existentes, e a criação de novos. Para Beall (2012b) quando o e-mail se tornou disponível, foi uma grande inovação feita por uma comunicação rápida e barata. Então vieram os spams e, de repente, a inovação não foi considerada tão grande. Isso significava ter que filtrar mensagens irrelevantes, enganosas e por vezes ofensivas. A mesma corrupção em uma grande ideia está ocorrendo com a publicação acadêmica de acesso aberto. Esta criação de mais de uma década atrás, ajudou a inspirar um movimento social que mudou publicações acadêmicas para os melhores custos reduzidos, e o acesso às últimas pesquisas, expandido-o em todo o mundo. Então vieram as editoras 83 predatórias, que publicam revistas falsificadas para explorar o modelo de acesso aberto, no qual o autor paga. Estas editoras predatórias visam enganar os pesquisadores, especialmente aqueles sem experiência em comunicação científica, montaram sites que se assemelham aos das legítimas editoras on line, mas publicam revistas de questionável ou franca baixa qualidade. Estas editoras, segundo Beall (2012b), estão localizadas no Paquistão, na Índia e na Nigéria. Algumas delas solicitam os manuscritos mas não mencionam a taxa de autor exigida. Mais tarde, após o trabalho ser aceito e publicado, os autores são faturados com as taxas, normalmente no valor de US$ 1.800. Os cientistas freqüentemente repassam seus direitos autorais, como parte do processo de submissão (contra o espírito do livre acesso) e, por isto, sentem-se incapazes de retirar o artigo e enviá-lo à outro lugar. Há periódicos dispostos a aceitar quase todos os artigos, desde que o autor esteja disposto a pagar a taxa. Na Índia, novos editores ou revistas predatórias surgem a cada semana, e estão aparecendo devido a necessidade de publicar de centenas de milhares de cientistas. Portanto, o problema, segundo Beall (2012b), não é apenas com as editoras, os próprios cientistas também são culpados. Muitos estão tomando atalhos antiéticos e pagando para a publicação de trabalhos plagiados ou autoplágio. Para competir no mercado, legítimos editores de acesso aberto estão sendo forçados a prometer tempos mais curtos de submissão para a publicação, o que enfraquece o processo de revisão por pares, que leva tempo para ser feito de forma adequada. Para resolver o problema, os cientistas devem resistir à tentação de publicar rapidamente e facilmente. Algumas destas editoras predatórias podem ser descobertas sem muito esforço porque seus sites estão cheios de erros gramaticais e listam contatos falsos. Beall (2012a) diz que em 2012 haviam 23 editoras, e em 2013 o numero ultrapassou 225. A lista é atualizada no blog Scholarly Open Access (http://scholarlyoa.com). A inserção dos repositórios abertos no movimento do software livre e o relacionamento destes repositórios com o Google e com os padrões tecnológicos, ambos responsáveis pela geração das externalidades de redes dos repositórios, é ilustrado na Figura 9 abaixo, conforme descrito neste capítulo. 84 FIGURA 9 - AS EXTERNALIDADES DE REDE DOS REPOSITÓRIOS DIGITAIS ABERTOS Fonte: O autor, 2013. Síntese conclusiva: Embora os repositórios abertos tenham apresentado esta externalidade de rede negativa, com a proliferação crescente de editoras e periódicos que deturpam o conceito do open access no mercado das publicações, procurou-se mostrar que no cômputo geral, as externalidades positivas são predominantes, visto que existem centenas de repositórios de instituições conhecidas e respeitadas no mundo todo. Os repositórios abertos continuam sendo o meio pelo qual os pesquisadores podem publicar de forma alternativa e adequada para o meio acadêmico e científico, dentro da filosofia do open access. Cabe aos pesquisadores verificar a procedência de uma editora ou periódico antes de decidir submeter seu artigo. No próximo capítulo serão abordadas as ações por parte das editoras do oligopólio, contrárias as publicações de acesso aberto e ao Google, e também as ações de pesquisadores em todo o mundo, contra o controle que as editoras do oligopólio detêm sobre as publicações científicas e sobre o fator de impacto destas publicações. 85 8 UMA ALTERNATIVA DE CONTRAPOSIÇÃO AO OLIGOPÓLIO DAS EDITORAS CIENTÍFICAS Até há alguns anos atrás só existiam no mercado das publicações os instrumentos de medição do impacto pertencentes ao oligopólio das editoras. Entretanto, como contraposição a esta situação, foram surgindo no mercado novas ferramentas com disponibilização livre e gratuita na internet, para a medição do impacto das publicações abertas e que permitem questionar se o maior índice de impacto permanece nas publicações sob o domínio do oligopólio, ou se atualmente as publicações abertas alcançaram visibilidade e impacto suficientes para fazerem frente a este oligopólio. Da mesma forma, os repositórios digitais abertos, ao contarem com o Google Scholar para trazer a tona para os leitores o seu conteúdo, começam a preocupar as editoras científicas que mantêm o oligopólio das publicações. Esta preocupação se materializou especialmente nas ações tomadas contra o movimento do open access e contra o Google, conforme será visto neste capítulo. 8.1 ÍNDICE DE IMPACTO DAS PUBLICAÇÕES PRIVADAS VERSUS PUBLICAÇÕES ABERTAS A literatura sobre o indíce de impacto das publicações abertas, e com comparações entre o impacto das publicações abertas e fechadas, e sobre as métricas usadas para esta comparação, ainda é incipiente. Os estudos encontrados, que serão abordados a seguir, referem-se à análises pontuais, como a comparação do impacto das publicações existentes, tanto no repositório da Thomson quanto no ArXiv, o boicote dos pesquisadores ao fator de impacto da Thomson, e o ranking de publicações abertas medido pelo Google. Para Ruiz, Greco e Braile (2009, p. 275) o FI como uma simples medida de qualidade das revistas, ao longo do tempo passou a ser utilizado como uma ferramenta acadêmica de avaliação de produtividade e também para obtenção de fundos. Assim, governos e agências de fomento de diversos países passaram a utilizar o FI como instrumento de decisão para alocação de recursos aos pesquisadores. Em suma, tornou-se um guia de política científica. 86 De acordo com Butler (2008) a internet, como uma base de dados aberta, está permitindo aos usuários gerar estatísticas de citação de trabalhos de pesquisa publicados gratuitamente. O acesso aberto está cooperando com gigantes como a Elsevier, colocando dados de suas publicações na base do Scopus, um banco de dados de resumos criado pela Elsevier em 2004. A Elsevier também detém o banco de dados The SCImago Journal & Country Rank, que faz a análise dos dados contidos no Scopus, relativa a mineração dos dados das universidades de Granada, Extremadura, Carlos III e Alcalá de Henares, todas na Espanha. Este banco de dados classifica periódicos e países que utilizam métricas de citação como o H Index, e também inclui uma nova métrica: o SCImago Journal Rank (SJR). É difícil comparar os resultados das análises do SJR com outros fatores de impacto, porque os bancos de dados sobre os quais cada um se baseia são diferentes. A Web of Science da Thomson, base de dados de resumos, abrange cerca de 9.000 revistas e a Scopus mais de 15.000. A Thomson tem desfrutado de um monopólio sobre os números de citações por ano, e seus produtos de assinatura incluem o Web of Science, o Journal Citation Report e o Essential Science Indicators. Entretanto, encontram-se em debate com a Thomson pesquisadores que querem uma maior transparência sobre a forma como as suas métricas de citação são calculadas e sobre os conjuntos de dados utilizados (BUTLER, 2008). Em um editorial publicado no Journal of Cell Biology, em dezembro, Mike Rossner8, chefe da Rockefeller University Press, e colegas, disseram que suas análises dos bancos de dados fornecidos pela Thomson apresentaram valores diferentes para as métricas daqueles publicados pela empresa. E a Thomson lançou um fórum Web para responder formalmente a este editorial9. Segundo Butler (2011) a Google e a Microsoft estão lançando as ferramentas gratuitas, Google Scholar Citations e Microsoft Academic Search, que permitem aos pesquisadores analisar estatísticas de citações, visualizar redes de pesquisa e acompanhar os campos de pesquisa mais produtivos. Os sistemas podem ser atraentes para cientistas e instituições que não conseguem pagar plataformas de métricas existentes, tais como a Web of 8 M. Rossner et al. J. Cell Biol., v. 179, 1091-1092, 2007. 9 Ver http://scientific.thomson.com/citationimpactforum 87 Knowledge da Thomson Reuters e o banco de dados Scopus da Elsevier. Segundo ele, o Google Scholar já indexou muito mais da literatura do que a Microsoft, ou a Web of Knowledge ou o Scopus. Entrevistado por Butler (2011) Anurag Acharya, engenheiro do Google por trás do Google Scholar e de seu novo sistema de métricas, diz que considera satisfatório que os logs do servidor do Google Acadêmico revelem o uso difundido por pesquisadores nos países mais pobres, onde os serviços comerciais são muitas vezes indisponíveis. Ayçaguer (2012) ressalta que o Google Scholar Metrics (GSM) inclui artigos de periódicos dos sites indexados pelo Google Scholar, qualquer que seja a língua em que foram escritos, bem como documentos apresentados em encontros e preprints, e exclui patentes, livros e dissertações. A lista GSM abrange revistas científicas geradas em qualquer área do conhecimento. Em agosto de 2012, duas revistas cubanas apareceram na lista das 100 mais destacadas do mundo publicadas em castelhano, e ambas sendo do campo da saúde: a Revista Cubana de Salud Pública (30º lugar) e a Revista Cubana de Información en Ciencias de la Salud, ACIMED (47º lugar). Isto mostra não haver dúvida de que o mundo está constantemente em movimento cienciométrico. Os recursos convencionais vertebrados em torno do que foi o ISI, e agora entrincheirados nas regras impostas pela Thomson Reuters são insuficientes para facilitar o intercâmbio entre cientistas de língua estrangeira e medir o seu impacto com transparência. Nem o Google Scholar e o h index, ou a combinação de ambos os recursos, fazem uma solução ótima para o desafio complexo de medir o impacto de uma revista. Mas eles proporcionam um mecanismo mais útil no processo de descolonização técnico-científica do que qualquer outro recurso disponível. Em 2004, James Pringle, vice-presidente de desenvolvimento, mercados acadêmicos e governo, da Thomson ISI, USA, fez um estudo sobre o fator de impacto de todo o conteúdo do Web of Science, de acesso fechado e de acesso aberto. À época, a base continha 8.509 revistas de acesso fechado e 191 revistas de acesso aberto (HARNAD; BRODY, 2004). Segundo Pringle (2004), foi feita uma seleção rigorosa e somente as revistas diretamente acessíveis na internet, sem nenhum custo, se enquadraram no conceito de acesso aberto, e destaca entre elas os diferentes tipos de revista como a BMJ, 88 com uma longa história e prestígio, que migrou para este novo modelo de publicação aberta, e o Brazilian Journal of Microbiology, revista de importância regional que usa o acesso aberto como uma forma de expandir a consciência global, porque existem vários caminhos para tornar o acesso aberto, e os objetivos de cada editor podem ser diferentes. Como resultados do estudo, aponta que o acesso aberto não significa necessariamente mais citações nessas revistas, nem equivalem a menos. Isso porque o aumento do número de leitores potenciais da revista não altera o valor fundamental e a relevância de um artigo numa revista, para o trabalho de um pesquisador em particular. Se qualquer modelo de acesso escolhido permite que a revista possa ser lida por todos ou pela maioria de seu públicoalvo, a audiência julgará a sua relevância. Revistas de acesso aberto podem ter impacto semelhante a outras revistas e potenciais autores não devem temer a publicação nessas revistas apenas por causa de seu modelo de acesso. Além disso, não parece que a expansão do número de leitores em potencial, por si só, necessariamente transformam o impacto de uma revista. Entretanto, Harnad e Brody (2004) mostram um posicionamento contrário ao de Pringle. Para eles, o resultado apresentado por Pringle, que revistas de acesso aberto (OA) e de acesso não aberto tem igual impacto, não é realista, visto que a comparação foi feita entre apenas 2% de revistas OA indexadas pelo ISI (191), contra 98% de revistas ISI não OA (8.509). Brody et al. (2004) usaram o banco de dados de citação ISI, em CD-ROM, com referências de 7.000 revistas de 1991 à 2001, e o conteúdo do arXiv.org. O CD-ROM ISI continha os metadados e as referências de 14 milhões de artigos, e o banco do arXiv.org, em janeiro de 2004, continha 260.000 textos completos de e-prints. Deste total, 95.012 artigos foram encontrados tanto na base de dados ISI quanto na base de dados ArXiv, e com eles foi efetuada a comparação do impacto, conforme aparece na Figura 10. 89 FIGURA 10 - ÍNDICES DE IMPACTO DE CITAÇÃO DO ACESSO ABERTO VS O ACESSO FECHADO EM TODOS OS CAMPOS DA FÍSICA, NO PERÍODO COMPREENDIDO ENTRE OS ANOS DE 1992 E 2001 Fonte: BRODY et al. 2004. A Figura 10 mostra o número total de artigos em periódicos indexados em Física pelo ISI, atualmente Thomson ISI, pelo período de 1992 à 2001, em cinza; o percentual destes artigos que foram disponibilizados em OA pelo próprio autor, em verde, e a relação entre o número de citações para os artigos OA sobre o número de citações para os artigos não-OA, em vermelho. Para Harnad e Brody (2004) o número de citações dos artigos OA vêm crescendo e tudo indica que os dados de 2002 e 2003 irão aumentar ainda mais essa relação, considerando que os maiores efeitos ocorrem dentro dos três primeiros anos de publicação em disciplinas científicas, e tanto a conscientização quanto a visibilidade de artigos OA também estão aumentando ano a ano. O acesso não é uma condição suficiente para citação, mas é uma condição necessária. O OA aumenta drasticamente o número de potenciais usuários de um determinado artigo adicionando os usuários que de outra forma não seriam capazes de acessá-lo porque sua instituição não poderia arcar com 90 o pagamento da revista no qual ele apareceu e, portanto, o OA só faz aumentar tanto o uso quanto o impacto. Em 16 de dezembro de 2012, durante a reunião anual da American Society for Cell Biology (ASCB), foi lançada a Declaração de San Francisco sobre a Avaliação da Pesquisa (San Francisco Declaration on Research Assessment), conhecida como DORA, e assinada por mais de 150 pesquisadores e 75 instituições acadêmicas como a American Association for the Advancement of Science. De acordo com o site da Declaration on Research Assessment (2013), esta declaração foi uma resposta à necessidade urgente de melhorar as maneiras pelas quais a produção da pesquisa científica é avaliada por agências de fomento, instituições acadêmicas e outras partes. Teve como recomendação geral o não uso de métricas baseadas em revista, tais como o Journal Impact Factors (Thomson Reuters), como medida substituta da qualidade dos artigos de pesquisa individuais, para avaliar contribuições do cientista individual, ou na contratação, promoção ou nas decisões de financiamento, e, no mesmo sentido, teve recomendações específicas destinadas à agências de fomento, instituições acadêmicas, editores, organizações que fornecem métricas, e pesquisadores individuais. Existem também modelos híbridos no que se refere à análise do índice de impacto. Isto ocorre quando um repositório aberto tem seu fator de impacto controlado por uma editora privada. Um exemplo disso é o Journal of Artificial Intelligence Research (JAIR). De acordo com seu site, o Journal of Artificial Intelligence Research (2013) foi fundado em 1993 como um dos primeiros periódicos científicos eletrônicos e é indexado pelas bases de dados INSPEC, Science Citation Index e MathSciNet. A revista abrange todas as áreas da inteligência artificial e é de distribuição gratuita na internet. Existem vários outros exemplos de modelos híbridos, visto que a base de dados Web of Science (WOS) da Thomson Reuters, sobre a qual é feito o fator de impacto do JCR, atualmente contém 12.000 revistas, incluindo revistas de acesso aberto como a PLos One (WEB OF SCIENCE, 2013); e a SciELO, que colocou na base Web of Knowledge da Thomson Reuters 650 títulos, e mais de 4 milhões de referências citadas, criando o SciELO Citation Index, que usará o fator de impacto da Thomson para análise do impacto das citações do seu repositório aberto (THOMSON REUTERS, 2013). 91 8.2 A SIMBIOSE ENTRE OS REPOSITORIOS DIGITAIS ABERTOS E O GOOGLE COMO UMA ALTERNATIVA DE CONTRAPOSIÇÃO AO OLIGOPÓLIO DAS EDITORAS CIENTÍFICAS O oligopólio das publicações científicas criou um Projeto de Lei Americano contra o acesso aberto The Library of Congress (2013), entraram com uma queixa formal junto à União Européia contra o Google pela sua dominância como buscador (KEESE, 2011), e moveram uma ação judicial contra a implementação do Google Books (SENEFF, 2012). Do outro lado, pesquisadores fazem boicote à editora Elsevier (GOWERS'S, 2013), e ao fator de impacto da editora Thomson Reuters (DECLARATION ON RESEARCH ASSESSMENT, 2013). Isto mostra que existem novos modelos de negócios no mercado, implementados pelo movimento do acesso aberto e pelo Google, que constituem uma alternativa para a publicação científica, e que começa a preocupar os detentores do oligopólio, pela ameaça que representam. Segundo o relatório da European Commission (2006), o mercado está numa fase de transição, em que o modelo tradicional de assinatura ainda é dominante, e onde a viabilidade e a sustentabilidade do novos modelos de negócios ainda é incerto. Em um momento em que a experimentação deve ser incentivada, é crucial avaliar o risco de que a vantagem natural de posse, e a dependência da cadeia tradicional (autor - editor - biblioteca - leitor) podem permitir que os operadores históricos alavanquem sua posição atual de uma forma que pode ser prejudicial à concorrência. Avalia-se que estas questões devam concentrar-se primeiro em políticas de preços e, em seguida, sobre as várias dimensões do acesso aos resultados das pesquisas. Os financiadores podem contribuir, exigindo de seus pesquisadores financiados, que eles depositem seus artigos publicados em arquivos abertos, ou seja, em autoarquivamento em todos os domínios, e não apenas nos domínios em que os autores têm longa tradição de troca de e-prints ou são sensíveis a uma ampla divulgação e visibilidade dos artigos. A fim de maximizar a difusão e o acesso, o auto-arquivo pode ser feito logo após a publicação. Quanto ao futuro em longo prazo do modelo tradicional, onde editores cumprem ambas as funções de certificação e de difusão, os repositórios vem mudar este panorama quando a certificação nos periódicos produzidos pelas 92 instituições que os mantém é feita por meio do trabalho editorial e da revisão por pares, da própria comunidade acadêmica destas instituições, e quando o Google cumpre o papel da difusão. Neste sentido, o relatório da European Commission (2006) aponta que existem pelo menos duas maneiras pelas quais a certificação e a difusão podem ser desagregadas: repositórios e serviços de navegação. Os repositórios podem ser usados para depositar artigos eprints publicados, como é o caso, por exemplo, do PubMed Central, onde papers tendo sido beneficiados por financiamento do National Institutes of Health (NIH) são depositados um ano após a publicação. Neste caso, a certificação é fornecida pela editora antes do artigo ser depositado. Os repositórios também são usados para arquivar preprints ou manuscritos, e não há certificação explícita, exceto através da medição do número de dowloads de um determinado artigo. Em paralelo, a disponibilidade de eprints permite que outros empresários possam oferecer um serviço de navegação e o candidato mais conhecido é o Google Scholar. A qualidade deste serviço prestado aos usuários depende se o usuário chegará ao artigo completo. Isto por sua vez, depende se os organismos de financiamento de pesquisa forçam que a pesquisa, financiada com recurso público, seja livremente acessível após um curto período, e se o autor repassou o seu direito autoral ao editor. Serviços de navegação podem, portanto, fornecer uma outra maneira de distribuir artigos avulsos certificados ou não e, como tal, aumentar o bem-estar total. Para cada uma destas estratégias a sua viabilidade requer que o certificador no caso dos repositórios, ou o distribuidor no caso dos serviços de navegação, possa obter um resultado positivo de retorno sobre o investimento. Entretanto, não está claro se os modelos de negócios que poderiam gerar tais retornos positivos, como por exemplo a publicidade paga para os serviços de navegação, não iriam criar suas próprias distorções. A troca de dados e sua integração nos grandes repositórios apresentam hoje grandes desafios em TIC (EUROPEAN COMMISSION, 2006). William Timothy Gowers, matemático britânico professor da Universidade de Cambridge, e ganhador da medalha Fields da American Mathematical Society, postou em seu blog, em 21 de janeiro de 2012, uma crítica em protesto às práticas comerciais da editora Elsevier. Em seu blog, 93 Gowers’s (2013) diz que não participará mais das publicações da editora, e lista as práticas de negócios da Elsevier que condena: a) cobrança de preços muito elevados, muito acima da média; b) o uso do método conhecido como agrupamento (pacotes), onde em vez de dar as bibliotecas a escolha de quais revistas deseja assinar, oferece a elas a escolha entre uma grande coleção de revistas (que a Elsevier escolhe) ou nada. Tendo em conta que as bibliotecas têm orçamentos limitados e não podem assinar tudo, não são as únicas prejudicadas por este método, mas outros editores, o que é, naturalmente, parte da motivação para o esquema; c) se as bibliotecas tentam negociar melhores ofertas, a Elsevier é implacável sobre cortar o acesso a todos os seus periódicos; e d) a Elsevier dá suporte à medidas como a Research Works Act, projeto de lei americano que tenta parar o movimento do Open Access para pesquisas financiadas pelo governo federal. Ainda, a Elsevier apoia a Stop Online Piracy Act (SOPA) e a Protect IP Act (PIPA), tendo pressionado fortemente para a existência deles. Este boicote de Gowers’s à Elsevier tornou-se um viral no meio acadêmico e em 04 de fevereiro de 2012, o The Economist chamou este movimento de Primavera Acadêmica (Academic Spring) (THE ECONOMIST, 2012). O site The Cost of Knowledge (2013) é onde os pesquisadores entram para assinar o boicote assinalando o que pretendem se abster de contribuir com a Elsevier: publicação, arbitragem ou trabalho editorial. Atualmente 13.832 pesquisadores de todas as áreas do conhecimento e de várias partes do mundo já assinaram o boicote. Erik Engstrom, presidente-executivo da Reed Elsevier, disse à Dennis Johnson, co-fundador e co-editor da Melville House Books, que a reação do núcleo acadêmico, contra a divisão de publicações científicas do grupo, foi baseada em distorções e mal-entendidos porque a empresa alcançou resultados anuais ligeiramente acima das expectativas (JOHNSON, 2012). De acordo com o site da Biblioteca do Congresso Americano, The Library of Congress (2013) o Projeto de Lei denominado H.R.3699 - Research Works Act, de 16 de dezembro de 2011, contra o acesso aberto, diz que nenhuma agência federal poderá adotar, implementar, manter, continuar, ou se dedicar a qualquer política, programa ou outra atividade que: a) cause, licencie ou autorize a divulgação em rede de qualquer trabalho de pesquisa do setor 94 privado sem o consentimento prévio do editor desse trabalho; ou b) exige de qualquer autor real ou potencial, ou o empregador de um autor real ou potencial, o parecer favorável à disseminação em rede de um trabalho de pesquisa do setor privado. Outro fator de tensão entre as editoras do oligopólio e pesquisadores é relativa à mineração de dados por programas de computador, chamada de data-mining. Segundo Van Noorden (2013), em 22 de maio de 2013, pesquisadores e bibliotecários se retiraram das negociações da Comissão Européia sobre este assunto porque as editoras, baseadas no argumento do copyright, não permitem a mineração em suas bases de dados fechadas. Enquanto pesquisadores e bibliotecários esperam usar o data-mining para rastrear os milhares ou milhões de artigos e outros conteúdos de pesquisa online, tanto em acesso fechado quanto em acesso aberto, fazer a extração dos dados e com eles construir uma base única de dados de pesquisa, ou poder estabelecer padrões de associações, como por exemplo entre genes e doenças, as editoras temem que o seu conteúdo possa ser redistribuído gratuitamente, o que faz com que bloqueiem os programas de mineração de dados, mesmo para instituições que pagaram pelo acesso às suas bases de dados. Para Crow (2002) o modelo dos repositórios institucionais de acesso aberto ameaça os modelos de negócios baseados em assinatura existentes e a receita de muitas editoras acadêmicas. A cadeia do modelo de publicação tradicional, de valor integrado, permite aos editores manter níveis de preços que seriam impossíveis de sustentar em um ambiente desagregado, menos monopolista. A natureza do conteúdo acadêmico torna cada artigo e cada revista um monopólio virtual, garantindo ainda mais a posição de preço do editor. Abrir o acesso ao conteúdo em si, e traduzir o conteúdo em uma mercadoria livre através de uma rede de repositórios digitais inter-operáveis, interrompe radicalmente este modelo de negócio. O futuro da indústria comercial de revistas acadêmicas vai depender de como os editores irão responderão à perda de conteúdo e do canal exclusivo, forçada por repositórios de acesso aberto e por um ambiente de mercado que pesa todos os componentes da cadeia de valor editorial contra serviços gratuitos análogos. 95 Quanto as editoras de sociedades, no entanto, segundo Crow (2002), os repositórios institucionais e outros mecanismos de acesso aberto somente irão ameaçar a sobrevivência dos periódicos acadêmicos se derrotarem as posições de marca das revistas de sociedades estabelecidas, e se as métricas de impacto do artigo individual substituírem fatores de impacto de periódicos nas decisões de progressão acadêmica. Enquanto uma editora comercial teria dificuldade de cobrar uma taxa de inscrição para um periódico disponível gratuitamente on-line, os editores de sociedades reposicionando os benefícios da adesão dos membros podem mostrar-se capazes de permitir a disponibilidade do artigo da revista via repositórios de acesso aberto, sem experimentar cancelamentos substanciais de adesão ou atrito de receitas. Talvez o neo exemplo contemporâneo desse tipo de processo, o que até agora não foi alcançado em um negócio, é o projeto Google Book Search. Desde 2004, o Google começou um ambicioso programa de digitalização de livros, obtendo um litígio com organizações de direitos de autores e editoras em 2005. No entanto, em 2006, o Google assinou um acordo com cinco bibliotecas de pesquisa (Stanford, Harvard, Chicago, Michigan e Oxford Bodelian) para digitalizar suas coleções. Portanto, ainda há possibilidades de organização dentro da esfera pública de garantir que as TIC permitam melhorar o acesso aberto aos resultados dos milênios de criatividade humana gravada em textos (SENEFF, 2012). A Figura 11 abaixo, procura sintetizar as ações que as editoras moveram contra o acesso aberto dos repositórios e contra o Google, e os boicotes ao oligopólio que os pesquisadores assinaram, cansados de contribuir gratuitamente com as editoras ao mesmo tempo em que assistem o aumento abusivo do preço das assinaturas e dos artigos que eles mesmos produziram. 96 FIGURA 11 - AS AÇÕES DO OLIGOPÓLIO PARA IMPEDIR A PROLIFERAÇÃO DOS REPOSITÓRIOS ABERTOS VERSUS OS BOICOTES DOS PESQUISADORES AO OLIGOPÓLIO Fonte: O autor, 2013. Síntese conclusiva: Atualmente, a grande diferença no mercado das publicações científicas para os leitores, é se as revistas estão disponíveis em acesso fechado e pago, ou em acesso aberto e gratuito. Ou seja, se ele deve pagar ou não pelo texto que deseja ou precisa ler. As editoras comerciais ainda detém o oligopólio das revistas científicas porque detém os canais de distribuição, as assinaturas dos pacotes feitos pelas bibliotecas acadêmicas e, principalmente, porque mantém mecanismos de buscas em seus repositórios fechados que garantem alta precisão nos resultados e, ainda, porque mantém os altos índices de citação de suas revistas por controlarem todo o ciclo da publicação. Entretanto, os 97 repositórios digitais abertos, aqueles que são mantidos pelas instituições de ensino e pesquisa, em simbiose com o Google, podem quebrar o oligopólio. Porque as instituições que mantêm estes repositórios são as que detêm em seus quadros funcionais os pesquisadores/autores e que, portanto, podem cuidar de todo processo editorial, desde a produção do texto até a publicação no repositório aberto, e assim disponibilizar todo o conteúdo científico produzido, com controle de qualidade inquestionável, e de forma gratuita, enquanto as editoras do oligopólio cobram preços exorbitantes pelo mesmo produto. Estes repositórios abertos contam com o serviço gratuito do Google, tanto em relação aos mecanismos de busca, que hoje implementam o protocolo OAI de busca, quanto em relação ao índice de impacto. Portanto, se as políticas governamentais que instituem que os resultados das pesquisas desenvolvidas com recursos públicos devem ser disponibilizadas em acesso aberto, atualmente vigentes em vários países, se tornarem efetivas no meio acadêmico, e se expandirem, as editoras científicas do oligopólio serão obrigadas a rever seu modelo de negócios para sobreviverem em longo prazo neste mercado que encontra-se em mutação. 98 9 CONCLUSÃO Este trabalho analisa o funcionamento da estrutura de mercado das publicações científicas, e como os repositórios digitais abertos se tornaram uma alternativa viável para o reequilíbrio deste domínio. De fato, a simbiose entre os serviços prestados pelos grandes motores de busca e os ideais defendidos pelos movimentos de software livre e de acesso aberto criaram um ambiente tão favorável, que o panorama do mercado científico se alterou completamente em menos de 15 anos. Esses movimentos deram-se em primeiro lugar pela fixação dos grandes buscadores como elemento centralizador da recuperação dos trabalhos científicos, garantindo a possibilidade de se recuperar informação de qualidade através de uma varredura exaustiva da Web. Ao mesmo tempo surgiram, à partir dos movimentos de software livre, os movimentos de acesso aberto que ofereceram à comunidade científica software de boa qualidade para o arquivamento de conteúdo. As instituições acadêmicas passaram a criar rapidamente grandes repositórios de conteúdo científico de qualidade. Em um segundo momento os software de arquivamento aberto fixaram padrões de interoperabilidade de arquivos científicos que foram rapidamente assimilados pelos grandes buscadores. Com esses novos padrões os grandes buscadores, além de acrescentar visibilidade ao conteúdo científico aberto, passaram a reconhecer e destacar este conteúdo, obtido através dos padrões abertos dos grandes repositórios, administrados pela comunidade acadêmica. O terceiro e ultimo movimento fixa novos índices de impacto calculado à partir de todo o conteúdo científico disponível na internet, em oposição aos tradicionais índices de impacto controlados pelo oligopólio e restritos às grandes editoras. O ciclo formado pela geração, recuperação e qualificação da informação científica que durante mais de um século foi privilégio das editoras passou a ser reproduzido na internet aberta, fazendo uso de uma imensa quantidade de informação científica disponibilizada gratuitamente pelas grandes instituições acadêmicas. O mercado das editoras científicas é caracterizado por editoras com fins lucrativos e editoras sem fins lucrativos, aquelas de instituições acadêmicas ou sociedades. As editoras com fins lucrativos dominam este 99 mercado de forma altamente concentrada, onde poucas delas dividem bilhões de dólares ao ano. Os pesquisadores participam de praticamente todo processo de produção das revistas científicas, sem entretanto receber por isto. Suas instituições são responsáveis pela manutenção dos seus salários e pelos recursos destinados às bibliotecas para manutenção das assinaturas das revistas produzidas pelas editoras, ao mesmo tempo em que as editoras apenas organizam os serviços e recebem o lucro. Existem muitas barreiras à entrada, não só para a concorrência, como também para os autores e para os leitores. Por deter o poder de mercado, as editoras fornecem um grande número de títulos de revistas, na forma de um pacote de alguns títulos de alto impacto junto com vários títulos menos relevantes, cuja aquisição os usuários das bibliotecas não solicitaram. Essa prática obriga as bibliotecas a pagarem por uma coleção cujo uso pode não justificar o alto preço pago. Essas revistas obtém um alto impacto porque as mesmas editoras que publicam os periódicos científicos, medem os índices de impacto de suas próprias publicações, num círculo vicioso. Assim, as editoras do oligopólio, detém o poder completo do mercado das publicações científicas da seguinte maneira: a) detém o direito autoral ou copyright dos autores - embora existam algumas diferenças de conceito, legislação e tratamento de um país para outro, no caso dos periódicos do oligopólio, o direito autoral ou copyright é repassado do autor para a editora quando o artigo é aceito para publicação; b) controlam os canais de distribuição - colocam representantes em todo o mundo e chegam às bibliotecas acadêmicas, seu maior cliente, para vender seu pacote de periódicos; c) as bibliotecas repassam os periódicos comprados aos pesquisadores, promovendo seu uso; d) os pesquisadores lêem o conteúdo dos periódicos e o citam; e) as editoras obtém um alto índice de citações para seus periódicos. Desta forma é fechado o ciclo do controle da publicação dos periódicos, e do impacto de citação dos mesmos. 100 O lançamento do Google Scholar e do índice de impacto do Google vieram impulsionar ainda mais a visibilidade do conteúdo dos repositórios abertos. Sendo o Google o buscador mais usado do mundo, pelas ferramentas que disponibiliza de forma gratuita na internet, e sendo os repositórios digitais, abertos para a busca e o acesso, a simbiose entre os dois só trouxe benefícios ao conteúdo científico mundial, aquele que é produzido nas instituições de ensino e pesquisa e disponibilizado pelos repositórios. O crescimento dos repositórios provocou vários movimentos. Por um lado as editoras, preocupadas com este crescimento, formalizaram ações como o Research Works Act contra o acesso aberto, ao mesmo tempo em que buscaram formas de inserir o conteúdo dos repositórios abertos nas suas bases de dados ou repositório fechado, para usar seus motores de busca a fim de recuperar o conteúdo dos repositórios abertos, e usar suas métricas para medir o impacto do conteúdo destes repositórios. E, ainda, as editoras, preocupadas com a dominância do Google como buscador, formalizaram junto à União Européia queixa formal contra ele por manipular o resultado das buscas, colocando seus produtos na prioridade dos resultados e assim prejudicando-as. Do outro lado, os pesquisadores de várias partes do mundo, cansados de colaborar com as editoras no processo de publicação, como produtores de conteúdo, revisores ou participantes de conselhos editoriais, ao mesmo tempo em que assistem o aumento desenfreado dos preços cobrados por elas e os seus altos lucros, fazem boicote às publicações do oligopólio, como é o caso da primavera acadêmica, e fazem boicote ao fator de impacto do oligopólio, como é o caso da declaração DORA. Isto mostra que os pesquisadores/autores estão cansados de servir ao oligopólio, e vislumbram a possibilidade de liberdade de expressão científica, por meio dos repositórios digitais abertos, que trazem consigo uma forma alternativa e transparente de editoração e difusão. As editoras começam perceber que o mercado está mudando, e que a alternativa do acesso aberto está quebrando as barreiras à entrada quanto a publicação de revistas científicas, quanto a distribuição ou difusão destas revistas, quanto ao índice de impacto destas revistas e, ainda, quanto ao acesso à estas revistas pelos leitores. Visto que a história das publicações científicas pelas grandes editoras tem no mínimo um século, e que os 101 repositórios abertos datam de 1991, é bem provável, diante da rápida evolução que tiveram no mercado das publicações, que se hoje ainda não se constituem como uma grande ameaça ao oligopólio, porque este ainda detém a maior coleção científica sob seu poder, num futuro não muito distante poderão vir a ser. E o maior incentivo poderá vir das agências de fomento à pesquisa. A Contraposição ao oligopólio das publicações científicas será mais efetiva se estas agências não só exigirem, por meio de política pública, que os pesquisadores disponibilizem o resultado de seu trabalho, financiado com recurso público, em repositórios abertos que sigam o modelo open access de publicação, mas que também levem em conta na avaliação da produção científica os índices de impacto efetuados sobre as publicações abertas, e não somente o fator de impacto controlado pelo oligopólio. No Brasil, por exemplo, a CAPES, órgão que controla a pós-graduação no país, ao mesmo tempo em que lança editais de apoio e incentivo à publicação de periódicos digitais em acesso aberto, mantém em sua base Qualis, de avaliação da produção científica, o fator de impacto da Thomson Reuters como um dos quesitos, desconsiderando os índices de impacto disponíveis livremente e que efetuam análise de citações nas bases de periódicos, ou repositórios abertos, o que demonstra incongruências entre os incentivos e a avaliação. Outro fator controverso nas avaliações acadêmicas é o índice de impacto baseado nas publicações, visto que estas também são controladas pelo oligopólio que mantém publicações há muitas dezenas de anos e, por este motivo, detém um volume maior de fascículos de coleções de títulos que conseguiram se estabelecer no mercado ao longo do tempo, enquanto os repositórios ainda estão galgando esta posição devido ao seu curto tempo de existência. Portanto, um quesito de avaliação mais justo poderia ser o índice de impacto dos artigos e dos autores, de forma independente ou com peso diferente ao índice de impacto da publicação, ou seja, do título do periódico. Embora estudos comparativos dos índices de impacto de publicações fechadas e publicações abertas ainda sejam incipientes, os poucos estudos encontrados mostram um crescimento contínuo de visibilidade e de número de citações às publicações abertas em detrimento das publicações não abertas, o que mostra que é apenas uma questão de tempo, talvez de apenas poucos anos, para que 102 as revistas abertas se tornem mais influentes, e até mesmo dominantes no mercado das publicações acadêmico-científicas. Como complemento a este estudo, sugere-se que sejam efetuadas algumas outras abordagens relativas aos repositórios digitais abertos, que poderiam vir a contribuir para seu crescimento, tais como: a) avaliação sobre o potencial de Lock in (aprisionamento), nas tecnologias de repositórios digitais abertos, ou seja, uma análise para verificar se as tecnologias adotadas para construção e difusão de repositórios digitais abertos podem levar a algum tipo de Lock in, por aspectos técnicos, econômicos ou institucionais, e assim influenciar de maneira negativa a conservação e a disponibilidade do conteúdo digital; b) levantamento e discussão sobre as possíveis políticas públicas existentes para a preservação e acesso, em longo prazo, do conteúdo científico digital, armazenado em repositórios digitais abertos, com foco nos elementos envolvidos em termos dos interesses técnicos, políticos e econômicos, relacionados aos padrões tecnológicos e às trajetórias das tecnologias de armazenamento e de difusão de conteúdo digital; c) avaliação sobre o impacto social dos repositórios digitais abertos, quanto ao fomento à pesquisa e ao número de artigos neles publicados, provenientes de pesquisadores de países subdesenvolvidos ou em desenvolvimento; d) levantamento dos aspectos relativos ao incentivo à inovação promovida pelo livre acesso à literatura científica dos repositórios digitais abertos, e a avaliação deste incentivo; e e) considerando que a difusão e recuperação do conteúdo dos repositórios abertos estão pautados no uso do Google pela comunidade mundial de pesquisadores internautas, considerando que o Google se constitui em empresa privada que detém o monopólio atual dos buscadores, considerando que o modelo atual de negócios do Google é disponibilizar sua ferramenta de busca de forma gratuita para o usuário final e, finalmente, considerando que a internet precisa manter seus padrões abertos e precisa manter seu modelo de negócios atual que implica na cobrança ao usuário final uma única vez pelos provedores de banda larga, e que estes provedores não podem cobrar dos provedores de conteúdo pelo trânsito de seus pacotes de dados pelas rede, modelo chamado de neutralidade da rede (Net Neutrality), se torna fundamental que haja uma discussão sobre os possíveis impactos mundiais 103 que poderão ocorrer sobre os repositórios digitais abertos, caso a neutralidade da rede internet venha a ser quebrada. 104 REFERÊNCIAS ALPEROVITZ, G.; DALY, L. Apropriação indébita: como os ricos estão tomando a nossa herança comum. São Paulo: Senac, 2010. ALVESTRAND, H.; LIE, H. W. Development of core internet standards: the work of IEFT and W3C. In: BYGRAVE, L. A.; BING, J. (Ed.). Internet governance: infrastructure and institutions. New York: Oxford University, 2009. p. 126-146. ArKiv. Disponível em: <http://arxiv.org/>. Acesso em 27/09/2013. ARTHUR, W. B. Competing technologies, increasing returns and lock-in by historical events. The Economic Journal, Oxford, v. 99, n. 394, p. 116-131, Mar. 1989. AXELROD, R.; MITCHELL, W.; THOMAS, R. E.; BENNETT, D. S.; BRUDERER, E. Coalition formation in standard-setting alliances. Management Science, Hanover, v. 41, n. 9, p. 1493-1508, Sept. 1995. AYÇAGUER, L. C. S. El índice-H y google acadêmico: uma simbiosis cienciométrica inclusiva. Acimed, Ciudade de la Habana, v. 23, n. 2, p. 308322, 2012. BEALL, J. Beall’s list of predatory publishers 2013. Dec. 2012a. Disponível em: <http://www.sci.rmutt.ac.th/wpcontent/uploads/filebase/Research/Beall%27s%20List%20of%20Predatory%20 Publishers%202013.pdf>. Acesso em: 07/09/2013. BEALL, J. Predatory publishers are corrupting open access. Nature, London, v. 489, p. 179, Sept. 2012b. BERNERS-LEE, T.; FISCHETTI, M. Weaving the web: the original design of the World Wide Web by its inventor. New York: HarperCollins, 2000. BORNMANN, L.; MARX, W. The h index as a research performance indicator. European Science Editing, Reading, v. 37, n. 3, p. 77-80, 2011. 105 BOYLE, J. The public domain: enclosing the commons of the mind. New Haven: Yale University, 2008. BRASIL. Lei n. 9.610, de 19 de fevereiro de 1998. Altera, atualiza e consolida a legislação sobre direitos autorais e da outras providências. Disponível em: <http://www.planalto.gov.br/ccivil_03/Leis/L9610.htm>. Acesso em: 05/07/2013. BRIN, S.; PAGE, L. The anatomy of a large-scale hypertextual web search engine. 1998. Disponível em: <http://infolab.stanford.edu/~backrub/google.html>. Acesso em: 07/09/2013. BRITO, R. F. de; GUEDES, M. G.; SHINTAKU, M. Atribuição de identificadores digitais para publicações científicas: DOI para o SEER/OJS. Brasília: IBICT, 2013. BRITTO, J. Cooperação interindustrial e redes de empresas. In: KUPFER, D.; HASENCLEVER, L. (Org.). Economia industrial: fundamentos teóricos e práticas no Brasil. 2. ed. Rio de Janeiro: Campus, 2002. p. 345-387. BRODY, T. Citebase search: autonomous citation dabase for e-print archives. 2003. Disponível em: <http://eprints.soton.ac.uk/260677/1/brody_sinn03_paper.pdf>. Acesso em: 07/09/2013. BRODY, T.; STAMERJOHANNS, H.; VALLIÈRES, F.; HARNAD, S.; GINGRAS, Y.; OPPENHEIM, C. The effect of open access on citation impact. 2004. Disponível em: <http://eprints.soton.ac.uk/259941/1/OATAnew.pdf>. Acesso em: 02/09/2013. BRUCE CLAY, INC. The histogram of the search engine relationship chart. Disponível em: <http://www.bruceclay.com/serc_histogram/histogram.htm>. Acesso em: 28/08/2013. BUTLER, D. Free journal-ranking tool enters citation market data base offers on-the-fly results. Nature, London, v. 451, 2008. Disponível em: <http://www.nature.com/news/2008/080102/full/451006a.html>. Acesso em: 07/09/2013. BUTLER, D. Computing giants launch free science metrics. Nature, London, v. 476, p. 18, Aug. 2011. 106 CARBONI, G. C. Direito autoral e acesso ao conhecimento: em busca de um equilíbrio. Revista Júris da Faculdade de Direito, São Paulo, v. 1, p. 21-46, 2009. CARVALHO, M. M. G. do R. O repositorio aberto: recuperar, preservar e difundir o conhecimento ―em qualquer lugar do mundo‖. 277 f. Dissertação (Mestrado em Ciências Documentais) – Departamento de Ciências Documentais, Universidade Autônoma de Lisboa, Lisboa, 2009. CASTELLS, M. A galáxia internet: reflexões sobre internet, negócios e sociedade. Lisboa: Fundação Calouste Gulbenkian, 2004. CERVERA, P. 20 minutos. In: JORNADAS ESPAÑOLAS DE DOCUMENTACIÓN: interinformación, 11., Zaragoza, 2009. Actas. Disponível em: <http://www.fesabid.org/zaragoza2009/?page_id=1562>. Acesso em: 30/08/2013. COSTAS, R.; BORDONS, M. Una visión crítica del índice h: algunas consideraciones derivadas de su aplicación práctica. El Profesional de la Información, Barcelona, v. 16, n. 5, p. 427-432, 2007. CREATIVE COMMONS (CC). Disponível em: <http://creativecommons.org/licenses/?lang=pt>. Acesso em: 30/05/2013. CROW, R. The case for institutional repositories: A SPARC position paper. Washington, DC: SPARC, 2002. Disponível em: <http://scholarship.utm.edu/20/1/SPARC_102.pdf>. Acesso em: 01/06/2013. DÁVILA QUINTERO, J. A.; NUÑEZ, L. A.; SANDIA SALDIVIA, B. E.; TORRÉNS HEEREN, R. Los repositórios institucionales y la preservación del patrimonio intelectual académico. Interciencia, Caracas, v. 31, n. 1. Ene. 2006. Disponível em: <www.scielo.org.ve/scielo.php?script=sci_arttext&pid=S037818442006000100006&lang=pt>. Acesso em: 30/05/2013. DECLARATION ON RESEARCH ASSESSMENT (DORA). Disponível em: <http://am.ascb.org/dora/>. Acesso em: 08/09/2013. DIBONA, C.; OCKMAN, S.; STONE, M. (Ed.).Open sources: voices from the open source revolution. Cambridge: O’Reilly Media, 1999. DIGITAL LIBRARY FEDERATION. Disponível em:<http://www.diglib.org/>. Acesso em: 07/09/2013. 107 DIGITAL OBJECT IDENTIFIER (DOI). Disponível em: <http://www.doi.org/>. Acesso em: 12/08/2013. DsPACE. Disponível em: <http://www.dspace.org/>. Acesso em: 16/08/2013. EGGHE, l. Theory and practice of the g-index. Scientometrics, Budapest, v. 69, n. 1, p. 131-152, 2006. ENGELHARDT, S. V. What economists know about open source software: its basic principles and research results. Jena Economic Papers, Jena, n. 5, p. 148, 2011. EUROPEAN COMMISSION. Study on the economic and technical evolution of the scientific publication markets in Europe: final report. Bruxelles: European Commission, 2006. FREE SOFTWARE FOUNDATION. Disponível em: <http://www.gnu.org/>. Acesso em: 30/05/2013. GARFIELD, E. The history and meaning of the Journal Impact Factor. JAMA: The Journal of the American Medical Association, Chicago, v. 295, n. 1, p. 90-93, Jan. 2006. Disponível em: <http://jama.jamanetwork.com/Issue.aspx?journalid=67&issueID=5006&directio n=P>. Acesso em: 06/01/2013. GHOSH, R.; SOETE, L. Information and intellectual property: the global challenges. Industrial and Corporate Change, Oxford, v. 15, n. 6, p. 919-935, 2006. GINSPARG, P. As we may read. The Journal of Neuroscience, Washington, DC, v. 26, n. 38, p. 9606-9608, 2006. GINSPARG, P. Creating a global knowledge network. MBC News and Views, n. 1, 2000. Disponível em: <http://www.biomedcentral.com/content/pdf/1471-8219-1-9.pdf>. Acesso em: 07/07/2013. GOOGLE SCHOLAR. Disponível em: <http://scholar.google.com.br/>. Acesso em: 08/09/2013. 108 GOWERS’S WEBLOG. Disponível em: <http://gowers.wordpress.com/2012/01/21/elsevier-my-part-in-its-downfall/>. Acesso em: 02/09/2013. HAHN, R.; WALLSTEN, S. The economics of Net Neutrality. Economists’ Voice, Boston, p. 1-7, Jun. 2006. Disponível em: <www.bepress.com/ev>. Acesso em: 23/03/2013. HARNAD, S.; BRODY, T. Comparing the impact of open access (OA) vs. NonOA articles in the same journals. D-Lib Magazine, Reston, v. 10, n. 6, p. 1-3, Jun. 2004. HAWKINS, R. Communication technology standards. In: DONSBACH, W. Sample of the print version of the International Encyclopedia of Communication in PDF Format. Washington: International Communication Association, 2008. p. 176-180. DOI: 10.1111/b.9781405131995.2008.x. Disponível em: <http://www.communicationencyclopediass.com/docs/printsample.pdf>. Acesso em: 14/10/2011. HEFFAN, I. V. Copyleft: licensing collaborative works in the digital age. Stanford Law Review, Stanford, v. 49, n. 6, p. 1487-1522, 1997. HIRSCH, J. E. An index to quantify an individual’s scientific research ouput. Proceedings of the National Academy of Science, Washington, DC, v. 102, n. 46, p. 16569-16572, 2005. Disponível em: <www.pnas.org/cgi/doi/10.1073/pnas.0507655102>. Acesso em: 30/05/2013. JOHNSON, D. Head of reed Elsevier hits back at academic uprising. Melville House, Feb. 2012. Disponível em: <http://www.mhpbooks.com/head-ofreed-elsevier-hits-back-at-academic-uprising/>. Acesso em: 07/09/2013. JOURNAL OF ARTIFICIAL INTELLIGENCE RESEARCH (JAIR). Disponível em: <http://www.jair.org/>. Acesso em: 10/08/2013. KEESE, C. Desafios regulatorios em tiempos de transformación digital: una mirada sobre publicaciones y editoras europeas. 2011. (Working paper, n. 27). Disponível em: <www.plataformademocratica.org/Publicacoes/17800.pdf>. Acesso em: 02/05/2013. 109 KUPFER, D. Barreiras estruturais à entrada. In: KUPFER, D.; HASENCLEVER, L. (Org.). Economia industrial: fundamentos teóricos e práticas no Brasil. 2. ed. Rio de Janeiro: Campus, 2002. p. 109-128. LAAT, P. B. de. Copyright or copyleft?: an analysis of property regimes for software development. Research Policy, Amsterdam, v. 34, p. 1511-1532, 2005. LAGOZE, C.; VAN de SOMPEL, H. The Open Archives Initiative: building a low-barrier interoperability framework. 2001. Disponível em: <http://www.openarchives.org/documents/jcdl2001-oai.pdf >. Acesso em: 30/05/2013. LANDES, W. M.; POSNER, R. A. An economic analysis of copyright. The journal of Legal Studies, Chicago, v. 18, n. 2, p. 325-363, 1989. LARSSON, S. The path dependence of european copyright. Script-ed, Edinburgh, v. 8, n. 1, p. 8-31, 2011. LESSIG, L. The future of ideas: the fate of the commons in a connected world. New York: Random House, 2001. LEVY, S. Hackers. Beijing: O’Reilly, 2010. LICEA JIMENEZ, I.; COLLAZO MARTÍNEZ, Y.; CESPEDES VIDAL, A. Algunas consideraciones em torno al derecho de autor. Acimed, Ciudad de la Habana, v. 10, n. 5, p. 5-6, 2002. LUCE, R. E. E-prints intersect the digital library: inside the los Alamos arXiv. Issues inScience and technology Librarianship, Chicago, n. 29, winter 2001. Disponível em: <http://webdoc.sub.gwdg.de/edoc/aw/ucsb/ist1/01winter/article3.html>. Acesso em: 31/05/2013. McGUIGAN, G. S.; RUSSELL, R. D. The business of academic publishing: a strategic analysis of the academic journal publishing industry and its impact on the future of scholarly publishing. E-JASL: Eletronic Journal of Academic and Special Librarianship, Athabasca, v. 9, n. 3, 2008. Disponível em: <http://southernlibrarianship.icaap.org/content/v09n03/mcguigan_g01.htm l>. Acesso em: 02/05/2013. 110 MONBIOT, G. How did academic publishers acquire these feudal powers? The Guardian, New York, 2011. MORGAN STANLEY. Scientific publishing: knowledge is power. 2002. Disponivel em: <http://www.econ.ucsb.edu/~tedb/Journals/morganstanley.pdf>. Acesso em: 06/07/2013. MUGNAINI, R.; STREHL, L. Recuperação e impacto da produção científica na era Google: uma análise comparativa entre o Google Acadêmico e a Web of Science. Encontros Bibli: Revista Eletrônica de Biblioteconomia e Ciência da Informação, Florianópolis, n. esp., p. 92-105, 1. Sem. 2008. Disponível em: <http://www.periodicos.ufsc.br/index.php/eb/article/view/15182924.2008v13nesp1p92>. Acesso em: 30/05/2013. NARAYANAN, V. K.; CHENT, T. Research on technology standards: accomplishment and challenges. Research Policy, Amsterdan, v. 41, p. 13751406, 2012. NICKERSON, J. V.; MUEHLEN, M. The ecology of standards processes: insights from internet standard making. Mis Quarterly, Minneapolis, v. 30, p. 467-488, 2006. Special Issue. OpCit THE OPEN CITATION PROJECT. Reference linking and citation analysis for open archives. [2013]. Disponível em: <http://opcit.eprints.org/>. Acesso em: 05/09/2013. OPEN ARCHIVES INITIATIVE (OAI). Disponível em: <http://www.openarchives.org/>. Acesso em: 30/06/2013. OPEN CONTENT. Open publication license. v.1.0, 8 June 1999. Disponível em: <http://opencontent.org/openpub/>. Acesso em: 01/08/2013. OPEN SOURCE INITIATIVE. The open source definition. v. 1.9. (Annotated). Disponível em: <http://opensource.org/docs/definition.php>. Acesso em: 30/05/2013. P2P FOUNDATION. Author pay model in open access publishing. Disponível em: <http://p2pfoundation.net/Author_Pay_Model_in_Open_Access_Publishing>. Acesso em: 04/09/2013. 111 PINDYCK, R. S.; RUBINFELD, D. L. Microeconomia. 5. ed. São Paulo: Prentice Hall, 2002. p. 631-664. PORCEL ITURRALDE, M. L.; RODRÍGUEZ MEDEROS, M. Software libre: una alternativa para las bibliotecas. Acimed, Ciudad de La Habana, v. 13, n. 6, 2005. Disponível em: <http://biblioweb.sindominio.net/pensamiento/softlibre/softlibre.pdf>. Acesso em: 30/05/2013. POSSAS, M. L. As estruturas de mercado: primeira aproximação. In: ______. Estruturas de mercado em oligopólio. 2. ed. São Paulo: Hucitec, 1990. p. 87191. POSSAS, M. Padrões de concorrência, dinâmica das estruturas de mercado e inovação tecnológica. In: ______. Estrutura de mercado em oligopólio. São Paulo: Hucitec, 1985. p. 151-194. PRINGLE, J. Do open access journals have impact? Nature Publishing Group, 2004. Disponível em: <http://www.nature.com/nature/focus/accessdebate/19.html>. Acesso em: 05/09/2013. PUBLIC KNOWLEDGE PROJECT (PKP). Disponível em: <http://pkp.sfu.ca/>. Acesso em: 02/06/2013. PUBLISH or perish. Sept. 2013. Disponível em: <http://www.harzing.com/pop.htm>. Acesso em: 07/09/2013. RAYMOND, E. S. La catedral y el bazar. 1997. Disponível em: <http://coleccion.educ.ar/coleccion/CD7/img/docs/acerca_soft/mod01/mod01_c atedralybazar.pdf>. Acesso em: 02/08/2013. RODRIGUEZ MEDEROS, M. La difusión de las creaciones en la era digital: el copyleft para distribuir creaciones en la era digital. Acimed, Ciudad de la Habana,v. 15, n. 1, 2007. Disponível em: <http://bvs.sld.cu/revistas/aci/vol15_1_07/aci08107.htm>. Acesso em: 31/07/2013. ROUSSEAU, R. Simple models and the corresponding h- and g-index. 2006. Disponível em: <http://eprints.rclis.org/7501/1/Rousseau_Dalian.pdf>. Acesso em: 07/09/2013. 112 RUIZ, M. A.; GRECO, O. T.; BRAILE, D. M. Fator de impacto: importância e influência no meio editorial, acadêmico, e científico. Revista Brasileira de Cirurgia Cardiovascular, São Paulo, v. 24, n. 3, p. 273-278, 2009. SAYÃO, L. F. Interoperabilidade das bibliotecas digitais: o papel dos sistemas de identificadores persistentes – URN, PURL, DOI, Handle System, CrossRef e OpenURL. Transformação, Campinas, v. 19, n. 1, p. 65-82, 2007. SCHREIBER, M. The influence of self-citation corrections on Egghe’s g index. Scientometrics, Budapest, v. 76, n. 1, p. 187-200, 2008. SENEFF, A. R. Google, acceso abierto y tecnologías de información y comunicación (TIC) en la economía política contemporánea. Relaciones, Zamora, n. 130, p. 157-176, primavera 2012. SHAPIRO, C.; VARIAN, H. R. A economia da informação: como os princípios econômicos se aplicam à era da internet. Rio de Janeiro: Elsevier, 1999. SHIMA, W. T. Economia de redes e inovação. In: PELAEZ, V.; SZMRECSÁNYI, T. (Org.). Economia da inovação tecnológica. São Paulo: Hucitec: Ordem dos Economistas do Brasil, 2006. p. 333-362. SHINE. Disponível em: <http://shine.icomp.ufam.edu.br/>. Acesso em: 07/09/2013. SMITH, M.; BARTON, M.; BASS, M.; BRANSCHOFSKY, M.; McCLELLAN, G.; STUVE, D.; TANSLEY, R.; WALKER, J. H. Dspace: an open source dynamic digital repository. D-Lib Magazine, Reston, v. 9, n. 1, Jan. 2003. STALLMAN, R. M. Software libre para una sociedad libre. Versíon 1.0. Dic. 2004. Disponível em: <http://biblioweb.sindominio.net/pensamiento/softlibre/softlibre.pdf>. Acesso em: 30/05/2013. SUBER, P. Open access, impact, and demand. BMJ: British Medical Journal, London, v. 330, p. 1097-1098, May 2005. TASSEY, G. Standardization in technology-based markets. Research Policy, Amsterdam, v. 29, n. 4-5, p. 587-602, Apr. 2000. 113 THE COST OF KNOWLEDGE. Disponível em: <http://thecostofknowledge.com/>. Acesso em: 07/09/2013. THE ECONOMIST. The prince of information: academics are starting to boycott a big publisher of journals. Feb. 2012. Disponível em: <http://www.economist.com/node/21545974>. Acesso em: 07/09/2013. THE LIBRARY OF CONGRESS. H.R. 3699.IH. (Bill text, 112th Congress, 20112012). Disponível em: < http://thomas.loc.gov/cgi-bin/query/z?c112:H.R.3699>. Acesso em: 08/09/2013. THOMSON REUTERS. Disponível em: <http://thomsonreuters.com/>. Acesso em: 06/07/2013. TORVALDS, L. The Linus edge. In: DIBONA, C.; OCKM, S.; STONE, M. (Ed.). Open sources: voices from the open source revolution. Cambridge: O’Reilly Media, 1999. p. 51-55. VAN NOORDEN, R. Tensions grow as data-mining discussions fall apart. Nature: International Weekly Journal of Science, London, v. 498, n. 7452, 2013. Disponível em: <http://www.nature.com/news/tensions-grow-as-datamining-discussions-fall-apart-1.13130>. Acesso em: 22/09/2013. VERCELLI, A. Creative commons y la profundidad del copyright. 2002. Disponível em: <http://eprints.rclis.org/9970/1/profcopy.pdf>. Acesso em: 30/05/2013. WEB OF SCIENCE. Disponível em: <http://thomsonreuters.com/web-ofscience/>. Acesso em: 08/09/2013. WEBOMETRICS RANKING OF WORLD UNIVERSITIES.Disponível em: < http://www.webometrics.info/>. Acesso em: 08/09/2013. WILLINSKY, J. Open journal systems: an example of open source software for journal management and publishing. Library Hi Tec, Bingley, v. 23, n. 4, p. 504-519, 2005.