LIGIA ELIANA SETENARESKI
REPOSITÓRIOS DIGITAIS ABERTOS: UM MOVIMENTO DO LIVRE ACESSO
ALTERNATIVO À ESTRUTURA OLIGOPOLIZADA DAS EDITORAS
CIENTÍFICAS
Dissertação apresentada ao Programa
de Pós-Graduação em Políticas Públicas
do Setor de Ciências Sociais Aplicadas
da Universidade Federal do Paraná,
como parte das exigências para
obtenção do título de mestre.
Orientador: Prof. Walter Tadahiro Shima
Curitiba
2013
DADOS INTERNACIONAIS DE CATALOGAÇÃO NA PUBLICAÇÃO (CIP)
BIBLIOTECA CENTRAL - UFPR
Setenareski, Ligia Eliana
Repositórios digitais abertos : um movimento do livre acesso
alternativo à estrutura oligopolizada das editoras científicas / Ligia
Eliana Setenareski. – Curitiba, 2013.
113f. : il., graf., tabs.
Orientador: Walter Tadahiro Shima
Dissertação (Mestrado) – Universidade Federal do Paraná,
Setor de Ciências Sociais Aplicadas, Programa de Pós-Graduação em
Políticas Públicas.
Inclui Bibliografia.
1. Software livre. 2. Editoração eletrônica. 3. Oligopólios –
Editoras. 4. Publicações científicas – Editoração. I. Shima, Walter
Tadahiro. II. Título. III. Universidade Federal do Paraná. Setor de
Ciências Sociais Aplicadas. Programa de Pós-Graduação em Políticas
Públicas.
CDD 025.04
DEDICATÓRIA
Àqueles que perdi, in memoriam
Aos meus pais Pedro Setenareski e Joana Karsperski
Setenareski a quem devo o que sou. Por ensinarem a
importância da integridade do ser. E à minha amada mãe,
por ensinar o quanto é bom amar alguém.
Ao meu irmão Júlio César Setenareski pela alegria de
viver contagiante que deixou, e à minha irmã Jane
Elisabeth Setenareski pelo apoio incondicional, sempre, à
todos os meus projetos de vida.
À todos a minha saudade.
AGRADECIMENTO
Agradeço ao Prof. Dr. Walter Tadahiro Shima pela confiança que
depositou em mim e em meu trabalho. Por acreditar que eu poderia superar as
dificuldades, que sem dúvida seriam encontradas na área econômica, uma
área absolutamente nova para mim. Sua paciência, persistência, conhecimento
e experiência foram imprescindíveis durante a orientação para que eu me
mantivesse na rota e ultrapassasse a barreira da disciplinaridade.
Agradeço ao Prof. Dr. Fabio Doria Scatolin pela atenção e conselhos
que me deu, quando eu sonhei em entrar no Programa de Pós-Graduação em
Políticas Públicas (4P), da UFPR.
Agradeço ao Prof. Dr. Victor Manoel Pelaez Alvarez por todos os
momentos de reflexão impostos durante a disciplina de Metodologia de
Pesquisa, que foram fundamentais para o entendimento e aprofundamento da
pesquisa.
Agradeço aos meus colegas de trabalho no Sistema de Bibliotecas da
UFPR: Helder Dantas de Santana; João Batista Masicz; Lucas Henrique
Gonçalves; Maria Simone Utida dos Santos Amadeu; Maycon Johnes Cortez;
Olívia Simões Pedrosa; Paula Carina de Araújo; e Tânia de Barros Baggio,
pelos diferentes apoios técnicos que me ofereceram, exatamente quando eu
mais precisava.
Agradeço aos meus colegas do 4P pelo uso das palavras
compartilhamento e solidariedade como motes para obter sucesso nessa díficil
empreitada, em especial ao Wellington da Silva Pereira.
Agradeço ao meu marido Marcos Sfair Sunyê, cujo amor e incentivo
me fazem prosseguir, sempre.
Agradeço aos meus irmãos: Glicínia Eliza Setenareski Piasecki; Pedro
Setenareski Filho; Ana Maria Setenareski Ahrens; Lia Mara Setenareski
Magrin; Ana Néri Setenareski Lopes, Lília Márcia Setenareski e Moisés Vinicius
Setenareski, pelo amor e compreensão à minha ausência neste período de
estudo.
À Nossa Senhora, pela minha proteção.
RESUMO
Este trabalho mostra como funciona o oligopólio das publicações científicas e
como, ao longo de um pouco mais de vinte anos, o movimento do software livre
e de código fonte aberto se expandiu e gerou grandes desdobramentos em
contraposição a este oligopólio. O movimento do software livre não se deu por
acaso, e, tampouco seus desdobramentos. Os pesquisadores, cansados de
contribuir com o oligopólio na produção de artigos científicos ou, ainda, atuando
como revisores e participantes de conselhos editoriais, enquanto a indústria
editorial obtinha altos lucros sobre os pacotes de periódicos vendidos às
bibliotecas acadêmicas, lançaram no mercado editorial várias alternativas em
contraposição ao oligopólio. Dentre elas estão: o copyleft e o Creative
Commons em oposição ao copyright; o open access e os repositórios digitais
abertos de instituições de ensino e pesquisa, disponibilizados gratuitamente na
internet, em oposição aos repositórios fechados das editoras comerciais do
oligopólio, que disponibilizam suas bases de dados nestes repositórios a altos
preços; e a criação do h index, do g-index, do GSC, e de outros medidores de
impacto, em contraposição ao fator de impacto controlado pelo oligopólio. No
processo editorial, enquanto as instituições de ensino e pesquisa fornecem, por
meio de seus pesquisadores, toda a mão de obra necessária à produção,
arbitragem e conselho editorial, as editoras se encarregam de organizar os
serviços, disponibilizar uma navegação confiável em suas bases de dados
fechadas, com motores de busca precisos, e manter altos índices de impacto
para as suas publicações. Atualmente o Google também dispõe de motores de
busca confiáveis, que trazem resultados precisos, e fazem a navegação pelos
repositórios digitais abertos. Além disso, o Google também dispõe de
ferramentas para medir o impacto dos autores e das publicações. O Google e
os repositórios digitais abertos, em simbiose, podem cuidar de todo o processo
da publicação científica, desde a sua produção até a sua difusão e medição de
impacto, como uma alternativa em contraposição ao oligopólio das editoras
científicas.
Palavras-chave: Oligopólio das Editoras Científicas. Padrões Tecnológicos.
Externalidades de Rede. Movimento do Software Livre.
Repositórios Digitais Abertos. Google.
ABSTRACT
This paper shows how it works the oligopoly in scientific publishing, and during
a twenty-years or more how the Free Software Movement and Open sourcehas
expanded creating such as great development in opposition to this
oligopoly.The Free software is not by chance, neither its consequences.The
researchers were tired to contribute with the oligopoly in scientific
production,byacting as reviser or being part of editorial board, meanwhile the
publishing industry earned high profits over on packaged periodicals sold to
academic libraries. Those researchers had launched a large number of
alternatives in opposition to the oligopoly.Among the alternatives are the
copyleft and the Creative Commons in opposition to Copyright. The Open
Accessand the open digital repositories from universities and research centers
provided freely on the Internet instead those private digital repositories that
provides their database at a high price. Moreover, the creation of h-index and gindex, from GSC, and other impact indexes, in contrast to the impact factor
controlled by the oligopoly.In the editing process, while the universities and
research centers provides, through their research workers and scholars, the
whole workforce to the production, refereeing and the editorial board, the
publication houses are charged to organize the services, and also make a safe
navigation on their private databases with accurate search engines and high
results in impact factor to their publishing.Currently, the Google makes available
safe search engines, which gives resultsprecisely, and makes able to navigate
on open digital repositories.In addition to, the Google also provides tools for
measuring impact from authors and publications.The Googleand the Open
Digital Repositories, in a symbiosis, are able to handle of the entire scientific
publishing process, from the production to the dissemination and impact
measurement as an alternative, in opposition to the oligopoly of scientific
publishers.
Keywords: Oligopoly in Scientific Publishers. Technology Standards.Network
Externalities. Free Software Movement. Open Digital Repositories.
Google.
LISTA DE ILUSTRAÇÕES
QUADRO 1 -
ELEMENTOS ESTRUTURAIS DAS REDES DE
EMPRESAS.........................................................................
FIGURA 1 -
20
ESTRUTURA DOS REPOSITÓRIOS DIGITAIS
FECHADOS NO MERCADO DAS PUBLICAÇÕES
CIENTÍFICAS........................................................................
FIGURA 2 -
PROCESSO TRADICIONAL DE PUBLICAÇÃO, VENDA E
DIFUSÃO DE PERIÓDICOS CIENTÍFICOS.........................
FIGURA 3 -
37
PRINCIPAIS INICIATIVAS EM PROL DO ACESSO
ABERTO................................................................................
FIGURA 4 -
34
O MERCADO OLIGOPOLIZADO DOS ÍNDICES DE
IMPACTO..............................................................................
QUADRO 2 -
30
57
PROCESSO DE PUBLICAÇÃO E DIFUSÃO DE
PERIÓDICOS CIENTÍFICOS EM ACESSO ABERTO
(OPEN ACCESS)..................................................................
FIGURA 5 -
OS REPOSITÓRIOS DIGITAIS ABERTOS E OS
PADRÕES TECNOLÓGICOS...............................................
QUADRO 3 -
59
62
PRINCIPAIS SOFTWARES LIVRES PARA
GERENCIAMENTO DE REPOSITÓRIOS DIGITAIS............
67
FIGURA 6 -
O MERCADO ABERTO DOS ÍNDICES DE IMPACTO.........
73
FIGURA 7 -
MERCADO DOS BUSCADORES EM NOVEMBRO DE
2000.......................................................................................
FIGURA 8 -
MERCADO DOS BUSCADORES EM NOVEMBRO DE
2011.......................................................................................
FIGURA 9 -
78
AS EXTERNALIDADES DE REDE DOS REPOSITÓRIOS
DIGITAIS ABERTOS.............................................................
FIGURA 10 -
78
84
ÍNDICES DE IMPACTO DE CITAÇÃO DO ACESSO
ABERTO VS O ACESSO FECHADO EM TODOS OS
CAMPOS DA FÍSICA, NO PERÍODO COMPREENDIDO
ENTRE OS ANOS DE 1992 E 2001......................................
FIGURA 11 -
89
AS AÇÕES DO OLIGOPÓLIO PARA IMPEDIR A
PROLIFERAÇÃO DOS REPOSITÓRIOS ABERTOS
VERSUS OS BOICOTES DOS PESQUISADORES AO
OLIGOPÓLIO........................................................................
96
SUMÁRIO
1
INTRODUÇÃO..............................................................................
10
2
REFERENCIAL TEÓRICO............................................................
14
2.1
ESTRUTURA DE MERCADO EM OLIGOPÓLIO.........................
14
2.2
ECONOMIA DE REDES................................................................
19
2.3
EXTERNALIDADES DE REDES...................................................
21
2.4
PADRÕES TECNOLÓGICOS.......................................................
25
2.5
OS FUNDAMENTOS E FILOSOFIA DO SOFTWARE LIVRE E
DOS REPOSITÓRIOS DIGITAIS..................................................
3
A ESTRUTURA DE MERCADO DAS PUBLICAÇÕES
CIENTÍFICAS................................................................................
3.1
30
A ORGANIZACAO DA ESTRUTURA DE MERCADO DAS
EDITORAS CIENTIFICAS NAS PUBLICAÇÕES..........................
3.2
26
31
O OLIGOPÓLIO DAS EDITORAS CIENTIFICAS NO FATOR DE
IMPACTO......................................................................................
34
3.3
OS TIPOS DE BARREIRAS À ENTRADA....................................
38
3.4
A DINÂMICA DOS PREÇOS DAS PUBLICAÇÕES EM
OLIGOPÓLIO................................................................................
39
3.5
COPYRIGHT E DIREITOS DO AUTOR........................................
40
4
O MOVIMENTO DO SOFTWARE LIVRE E SEUS
DESDOBRAMENTOS EM FUNÇÃO DA OPOSIÇÃO AO
COPYRIGHT.................................................................................
4.1
ANTECEDENTES HISTÓRICOS DO MOVIMENTO DO
SOFTWARE LIVRE.......................................................................
4.2
48
As licenças creative commons como uma doutrina de
disseminação e compartilhamento do conhecimento....................
5
46
O CONCEITO DE COPYLEFT EM OPOSIÇÃO AO CONCEITO
DE COPYRIGHT ..........................................................................
4.3.1
44
PRINCIPAIS CARACTERÍSTICAS E BENEFÍCIOS DO
SOFTWARE LIVRE COM CÓDIGO FONTE ABERTO.................
4.3
44
50
OS PADRÕES TECNOLÓGICOS NAS FERRAMENTAS DE
ACESSO AOS CONTEÚDOS DIGITAIS E O MOVIMENTO DO
OPEN ACCESS............................................................................
53
5.1
O DESENVOLVIMENTO DOS PADRÕES ABERTOS DA
INTERNET: AS BASES PARA UM LIVRE ACESSO...................
5.2
53
O MOVIMENTO DO OPEN ACCESS PARA PUBLICAÇÃO DE
CONTEÚDO CIENTÍFICO, COMO CONTRAPOSIÇÃO À
PUBLICAÇÃO TRADICIONAL......................................................
5.3
56
OS PADRÕES TECNOLÓGICOS NECESSÁRIOS AO PLENO
FUNCIONAMENTO DOS REPOSITÓRIOS DIGITAIS
ABERTOS E O ACESSO AO SEU CONTEÚDO EM LONGO
PRAZO..........................................................................................
6
59
OS REPOSITÓRIOS DIGITAIS ABERTOS, SUA DIFUSÃO E
OS INSTRUMENTOS QUE PERMITEM MEDIR O IMPACTO
DAS SUAS PUBLICAÇÕES.........................................................
6.1
63
ANTECEDENTES HISTÓRICOS E CONTEXTUALIZAÇÃO DO
DESENVOLVIMENTO DOS REPOSITÓRIOS DIGITAIS
ABERTOS.....................................................................................
6.2
O ARXIV COMO PROPULSOR DE UMA NOVA FILOSOFIA DE
PUBLICAÇÃO...............................................................................
6.3
63
65
SOFTWARE LIVRES PARA GERENCIAMENTO DE
REPOSITÓRIOS DIGITAIS E O PAPEL DOS PROVEDORES
DE BUSCA NA SUA DIFUSÃO.....................................................
6.4
H INDEX, G INDEX E OUTROS FATORES DE IMPACTO
FORA DO OLIGOPÓLIO DAS EDITORAS...................................
7
85
ÍNDICE DE IMPACTO DAS PUBLICAÇÕES PRIVADAS
VERSUS PUBLICAÇÕES ABERTAS...........................................
8.2
79
UMA ALTERNATIVA DE CONTRAPOSIÇÃO AO
OLIGOPÓLIO DAS EDITORAS CIENTÍFICAS............................
8.1
75
A REDE DOS REPOSITORIOS DIGITAIS ABERTOS (OPEN
ACCESS) E SUAS EXTERNALIDADES.......................................
8
75
A DOMINÂNCIA DO GOOGLE NO MERCADO DE
PROVEDORES DE BUSCA..........................................................
7.2
68
A PROPAGAÇÃO E PROLIFERAÇÃO DOS REPOSITÓRIOS
DIGITAIS ABERTOS....................................................................
7.1
66
A SIMBIOSE ENTRE OS REPOSITORIOS DIGITAIS
ABERTOS E O GOOGLE COMO UMA ALTERNATIVA DE
CONTRAPOSIÇÃO AO OLIGOPÓLIO DAS EDITORAS
85
CIENTÍFICAS................................................................................
91
CONCLUSÃO...............................................................................
98
REFERÊNCIAS...........................................................................................
104
9
10
1 INTRODUÇÃO
No panorama mundial das publicações científicas, encontra-se na
esfera privada uma estrutura de mercado oligopolizada, dominada por poucas
e grandes editoras que mantêm as suas coleções de periódicos em repositórios
digitais fechados. O acesso ao conteúdo pelos leitores se dá normalmente por
meio das bibliotecas acadêmicas, a quem as editoras cobram o pagamento de
assinaturas, geralmente em pacotes de títulos de periódicos e a altos preços.
Outra forma de acesso é por meio da compra de artigos individuais, também
normalmente a altos preços devido ao domínio de mercado constituído. Como
é característico de mercados em oligopólio, nesta estrutura também existem
muitas barreiras à entrada para autores, leitores e concorrentes. Sendo que a
principal delas é o fator de impacto dos periódicos editados pelo grupo
dominante, visto que esta é uma medida mundial para a avaliação da produção
científica, e o processo de medição do fator de impacto também é controlado
por este mesmo grupo editorial.
Em traços largos, neste mercado oligopolizado, as editoras controlam
todo o processo de publicação, distribuição e índice de impacto do seu produto.
Os autores participam do processo editorial gratuitamente e repassam seus
direitos autorais às editoras. No Brasil, mesmo que pesem algumas diferenças
entre direito patrimonial e direito moral sobre a obra produzida, que é
considerado inalienável e irrenunciável, o direito patrimonial é repassado às
editoras, em similaridade ao processo que ocorre na Europa, EUA e outras
partes do mundo. Na margem deste mercado encontram-se muitas pequenas
editoras que, devido às barreiras encontradas, especializaram-se em áreas
específicas do conhecimento na produção de seus periódicos, e visam atender
também a um público específico de pesquisadores destas áreas para conseguir
manter sua distribuição. O ambiente na qual se encontram os repositórios
fechados do oligopólio é a internet, e a busca por artigos dentro destes
repositórios se dá por meio de motores de busca próprios das editoras.
No mesmo panorama encontram-se, na esfera pública, os repositórios
digitais abertos, construídos e mantidos por instituições de ensino e pesquisa
do mundo todo, como um instrumento para publicar, armazenar e recuperar os
periódicos e artigos produzidos pelas suas comunidades acadêmicas. Estes
11
repositórios surgiram no mercado das publicações como um desdobramento do
movimento do software livre, que foi protagonizado por cientistas que
buscavam alternativas ao modelo de negócios das publicações imposto pelo
oligopólio. Em contexto geral, pode-se dizer que enquanto o oligopólio existe
há mais de uma centena de anos, foi somente a virada do século que assistiu a
criação de uma miríade destes repositórios digitais abertos, destinados à
difusão do conhecimento.
Impulsionados
pela
expansão
da
internet,
ambiente
onde
se
encontram, tais repositórios converteram-se rapidamente no principal meio de
transmissão de conhecimento científico e cultural fora do oligopólio das
editoras. E os padrões tecnológicos abertos foram os responsáveis pelos
efeitos positivos de rede na sua proliferação. As instituições de pesquisa e as
universidades, produtoras de conteúdo científico, logo perceberam os
benefícios da utilização dos repositórios digitais para alcançar a visibilidade
mundial deste conteúdo. O aumento desta visibilidade se deu por intermédio do
uso do Google pelos usuários, o buscador dominante no mercado dos
provedores de busca. Assim, foi se formando uma rede de repositórios que tem
como elo os protocolos utilizados e tem como benefícios a visibilidade e o
compartilhamento do conteúdo disponibilizado.
A partir do panorama exposto, a motivação para o desenvolvimento
desta dissertação é procurar mostrar a existência de um movimento livre, do
qual fazem parte universidades e instituições de todo o mundo, cujos
pesquisadores encontram sérias dificuldades para publicar o resultado de seu
trabalho em função das barreiras estabelecidas pelas editoras privadas. Por
este motivo, sem invalidar a possibilidade de publicar por meio dessas editoras,
este movimento de natureza econômica, política e tecnológica buscou
alternativas que permitissem a difusão do conteúdo científico, com publicação e
acesso livres e abertos, por meio dos repositórios digitais.
Este trabalho tem como objetivo geral analisar a atuação do movimento
do software livre na criação de alternativas para publicar conteúdo científico,
fora do oligopólio das grandes editoras.
No mesmo sentido, os objetivos específicos são:
 Levantar as características da estrutura de mercado das
publicações científicas;
12
 Avaliar o efeito da contraposição dos movimentos de conteúdo
aberto ao oligopólio das publicações científicas;
 Comparar os índices de impacto das revistas científicas
publicadas por editoras privadas e publicadas nos repositórios
digitais abertos;
 Levantar a maneira pela qual os provedores de serviços e os
provedores de busca ampliaram a visibilidade do conteúdo dos
repositórios digitais;
 Analisar de que modo se formou a rede de repositórios digitais e
levantar as suas externalidades;
 Buscar estabelecer um marco geral de relacionamento entre os
repositórios
digitais
e
o
Google,
como
alternativa
de
contraposição ao oligopólio das editoras.
A metodologia adotada neste trabalho, visto que o tema é de
abrangência mundial, será a pesquisa na literatura disponível, nos temas
específicos de análise e também nos temas correlatos. O período de tempo a
ser delimitado na busca será compreendido entre a segunda metade dos anos
1980 até abril de 2013.
Este trabalho foi estruturado da seguinte forma: a) o capítulo 2 traz o
referencial teórico, que foca a estrutura de mercado em oligopólio, os padrões
tecnológicos, as externalidades de redes, e também a filosofia e fundamentos
do movimento do software livre e dos repositórios digitais abertos, a fim de
embasar o entendimento da relação de contraposição existente entre os
repositórios abertos e os repositórios fechados do oligopólio; b) o capítulo 3
mostra como a estrutura de mercado das publicações científicas é organizada
em um oligopólio concentrado, quais são os tipos de barreiras à entrada
existentes neste mercado, como funciona a dinâmica dos preços cobrados
pelas editoras para acesso às suas publicações de periódicos e algumas
diferenças entre os direitos de autor e o copyright, repassados pelos autores às
editoras; c) o capítulo 4 trata do movimento do software livre e alguns de seus
desdobramentos, como o copyleft e o creative commons, que surgiram como
uma doutrina de publicação em oposição ao copyright, e aponta as principais
características dos software livres com código fonte aberto e os benefícios em
adotá-los; d) o capítulo 5 tem seu foco nos padrões tecnológicos, na maneira
13
como a internet foi construída e funciona por meio de padrões abertos, nos
padrões necessários para que os repositórios abertos sejam inter-operáveis, e
os objetos digitais que guardam possam ser acessados ao longo do tempo e,
ainda, no movimento do open access como uma alternativa viável para a
comunicação científica, em oposição ao modelo de negócios da publicação
tradicional, controlada pelo oligopólio; e) o capítulo 6 aborda os principais
software livres para gerenciamento de repositórios abertos, a começar pelo
ArXiv, o primeiro, construído para abrigar os artigos científicos na área da
física, a importância dos provedores de busca gratuitos, usados para varrer os
repositórios abertos, trazer um resultado confiável e assim difundir seu
conteúdo no mundo, e também os vários índices de impacto criados para se
contraporem aos índices de impacto controlados pelas editoras do oligopólio; f)
o capítulo 7 exibe as externalidades de rede dos repositórios abertos,
mostrando de que forma os repositórios se propagaram até criarem efeitos de
rede positivos e negativos, e assinala a dominância do Google no mercado dos
buscadores; e g) o capítulo 8 registra finalmente como os repositórios abertos
em simbiose com o Google, se constituíram em uma alternativa viável de
publicação de periódicos científicos, disponíveis gratuitamente para os leitores,
em contraposição às publicações tradicionais, cujo acesso é feito por meio de
altos preços cobrados, e ainda, mostra que alguns milhares de artigos
publicados em repositório aberto obtiveram maior índice de impacto do que os
mesmos artigos publicados em repositório fechado.
14
2 REFERENCIAL TEÓRICO
Para embasar a análise proposta, serão expostos a seguir algumas
idéias e conceitos, sob o ponto de vista da Teoria Neo-Schumpeteriana, que
abordarão a estrutura de mercado em oligopólio, a economia de redes, as
externalidades de rede, os padrões tecnológicos e, ainda, serão abordados
também os fundamentos e filosofia do software livre e dos repositórios digitais.
2.1 ESTRUTURA DE MERCADO EM OLIGOPÓLIO
Um mercado oligopolizado é caracterizado por barreiras à entrada,
como por exemplo, as patentes, os canais de distribuição e a diferenciação de
produtos, como também é caracterizado pela existência de poucas firmas que
o controlam. De acordo com Possas (1990), embora as barreiras à entrada
estejam presentes na literatura há aproximadamente 80 anos, a natureza e o
nível destas barreiras somente obtiveram sucesso na análise com o estudo de
Bain1.
Para Possas (1990) a teoria de Bain2 trouxe algumas contribuições
relevantes como a introdução de uma perspectiva dinâmica na análise dos
mercados; o reconhecimento de que as empresas em oligopólio levam em
conta a concorrência externa ou potencial em sua estratégia; e a exigência de
uma redefinição dos instrumentos de análise convencionais para adequá-los a
uma perspectiva de longo prazo. E, ainda, especificamente quanto ao preço,
como uma barreira à entrada, ele sugere a mensuração do nível desta barreira
pela margem de lucro, ou seja, a verificação da relação entre o maior preço
que impede a entrada, ou o mínimo que a induz, e o preço chamado
competitivo. Esta mensuração permite avaliar em que grau as empresas
estabelecidas podem elevar seus preços, acima do preço competitivo, sem
com isto induzir novas empresas a entrarem no mercado. Por sua vez Possas
(1990) diz que é possível estabelecer uma relação teórica entre preços e
barreiras à entrada, de uma forma genérica, visto que o desejo de impedir a
1
BAIN, J. (1956), Barriers to New Competition, Harvard U. P., Cambridge, Mass.
2
Idem.
15
entrada é uma estratégia de preços das firmas existentes. Esta estratégia de
preços tem dois objetivos: 1) fixar os preços e o volume de produção de
maneira que impeça a entrada da concorrência de pequeno e médio porte, e/ou
limitá-la, buscando aprimorar sua distribuição temporal; 2) desencorajar a
entrada da concorrência de grande porte, que queira se instalar em escalas
mais eficientes, com a ameaça de rompimento do equilíbrio oligopolístico e
conseqüente guerra de preços das firmas estabelecidas, sendo que este efeito
de desencorajar pode não estar vinculado ao preço que foi estipulado no
mercado.
Também para Possas (1990) as barreiras à entrada não se limitam aos
preços, visto que existem outras formas de impedir a entrada de forma tão
eficaz ou até superior aos preços, como as barreiras por diferenciação de
produtos. A diferenciação por meio de marcas, por meio de características
externas do produto, e por meio de maior variedade do produto, num mesmo
mercado, ocupam o espaço econômico deste mercado, podendo aumentar a
dificuldade de entrada de uma empresa rival, pelos custos que irão incorrer da
diferenciação.
Kupfer (2002) define as barreiras à entrada como "qualquer fator
que impeça a livre mobilidade do capital para uma indústria no longo prazo
e, conseqüentemente, torne possível a existência de lucros supranormais
permanentes nessa indústria." O que significa dizer que barreira à entrada
refere-se à qualquer tipo de restrição, a algo imposto pelas empresas
estabelecidas que impeça que as empresas entrantes venham a obter o
mesmo lucro que elas obtêm, e sendo que este lucro pode ser muito alto a
longo prazo para estas empresas estabelecidas. Kupfer (2002, p. 117) diz
que na prática existem alguns componentes da estrutura industrial
considerados como barreiras à entrada.
São eles: 1.Existência de vantagens absolutas de custos a favor
das empresas estabelecidas.2.Existência de preferências dos
consumidores pelos produtos das empresas estabelecidas.
3.Existência de estruturas de custos com significativas economias
de escala.4.Existência de elevados requerimentos de capital
inicial.
Quanto aos tipos de oligopólio existentes e as características de
estruturas de mercados, tomou-se como base o capítulo 4, do livro Estruturas
de mercado em oligopólio, de Possas (1985), como segue.
16
Ao ganhar um novo sentido, o conceito de oligopólio deixa de ser
definido por oposição ao atomismo, pelo pequeno número de concorrentes, e
passa a ser encarado como uma classe de estruturas de mercado
caracterizada pela existência de importantes barreiras à entrada, senão para
todos os tipos (ou tamanhos) de empresas que o compõem, ao menos para as
maiores e/ou progressivas. Desse ponto de vista, a formação dos preços de
equilíbrio deixa de ser o objeto central da teoria, que se volta para as margens
de lucro como variável mais geral, porém não mais satisfazendo postulados de
equilíbrio estático ou dinâmico, e sim como expressão sintética das condições
da concorrência e de seu potencial de transformação da estrutura do mercado,
esta sim, preocupação teórica principal.
As barreiras à entrada, por sua vez, entram não mais como um dos
componentes da estrutura do mercado, ou ainda como uma das possíveis
explicações da determinação de preços em oligopólio (na chamada teoria dos
"preços-limite"), mas como a síntese da natureza e dos determinantes da
concorrência
num
dado
mercado
oligopolístico,
abrangendo
tanto
a
concorrência potencial como a interna. A magnitude das barreiras à entrada é a
principal responsável pela determinação das margens de lucro, como reflexo
das condições de concorrência ao fixar-lhes um limite superior. Outros
elementos co-determinantes destas margens são as restrições financeiras, que
estabelecem um nível mínimo necessário para garantir uma expansão auto
financiada dentro dos limites de segurança financeira (liquidez, endividamento
e pagamento de dividendos) das empresas.
A análise da concorrência deve então percorrer as mediações que
permitam passar ao plano das estruturas de mercado, para aí captar suas
especificidades; pois estas se definem exatamente a partir dos ramos de
atividade capitalista que possuem uma determinada individualidade em termos
das características distintivas, do processo competitivo. Os elementos do
padrão de concorrência a serem usados para caracterizar as estruturas de
mercado são: a) a inserção das empresas ou suas unidades de produção na
estrutura produtiva, o que envolve desde os requerimentos tecnológicos à
utilização dos produtos; e b) as estratégias de concorrência abarcando as
políticas de expansão das empresas líderes, em todos os níveis (tecnológico,
17
financeiro e as políticas de adaptação aos mercados). Deve-se entender por
mercado o locus da concorrência capitalista.
A proposição de uma tipologia mínima de estruturas de mercado capaz
de dar suporte à análise da dinâmica de uma economia capitalista moderna
deve atender a dois princípios básicos: 1) os critérios de classificação das
diferentes indústrias ou mercados devem dar prioridade àqueles elementos da
estrutura técnico-produtiva e do processo competitivo que configurem um
padrão de concorrência específico. Isto implica privilegiar as características
produtivas e de mercado que dêem lugar a formas ou padrões razoavelmente
demarcados quanto a dois aspectos: a apropriação de lucros e o investimento
em expansão da capacidade produtiva; 2) a classificação deve ser
suficientemente parcimoniosa para propiciar uma aplicação analiticamente
proveitosa, sem perder os traços mais marcantes mas sem se diluir em
pormenores que ponham em risco o potencial interpretativo; e convencional o
bastante para se enriquecer com o abundante material de reflexão e pesquisa
já existente sobre o tema.
Reunindo estas duas classificações e acrescentando os mercados
tipicamente competitivos, tem-se então as seguintes estruturas principais de
mercado em oligopólio: oligopólio concentrado, oligopólio diferenciado,
oligopólio
diferenciado-concentrado
ou
misto,
oligopólio
competitivo
e
mercados competitivos.
a) oligopólio concentrado, pode ser caracterizado, do ponto de
vista das formas de competição, pela ausência de diferenciação
dos produtos, dada a sua natureza essencialmente homogênea,
pouco passível de diferenciação;
b) oligopólio diferenciado é marcado pelo fato de que a natureza
dos produtos fabricados faculta às empresas disputa pelo
mercado mediante a diferenciação do produto, como forma
predominante;
c) oligopólio diferenciado-concentrado ou misto, caracterizado
originalmente
por
Sylos-Labini3,
tem
como
característica
proeminente, como o nome indica, a de combinar elementos dos
3
SYLOS-LABINI, P. (1956). Oligopolio e progresso técnico. 2. ed. Einaudi, Turim, 1964: trad.
esp. Oligopolio y progreso técnico. Oikos-tau, Barcelona, 1966.
18
dois tipos de oligopólio citados acima. Essa fusão resulta de
diferenciação de produtos como forma de competição por
excelência, ao lado dos requisitos de escala mínima eficiente
associados, em maior ou menor grau, à produção dos bens
duráveis de consumo que configuram este tipo de mercado.
Como resultado, os índices de concentração destes mercados
são em geral mais elevados que no oligopólio diferenciado,
podendo atingir a mesma ordem de grandeza dos índices de
oligopólio concentrado, embora os coeficientes de capital sejam
em média inferiores aos deste último. Pela mesma razão, as
barreiras à entrada se devem tanto a economias de escala
técnicas como, de forma provavelmente mais importante, a
economias de diferenciação;
d) oligopólio-competitivo,
caracterizado
pela
concentração
relativamente alta da produção, isto é, pelo fato de que algumas
empresas detêm participação considerável no mercado, o que
autoriza tratá-lo como oligopólio; mas, ao mesmo tempo, pela
possibilidade de recorrer à competição em preços para ampliar
as fatias de mercado das unidades melhor situadas, em virtude
da coexistência com empresas marginais, relativamente pouco
resistentes à eliminação mas que ocupam um espaço não
desprezível no mercado;
e) os mercados competitivos, no sentido não-oligopolísticos têm
como
características
principais,
evidentemente,
a
desconcentração ligada à ausência de barreiras à entrada e a
competição em preços. A possibilidade de certa margem de
diferenciação, inclusive em qualidade, de produtos em alguns
destes mercados, especialmente de bens de consumo, não está
de todo afastada, configurando nestes casos uma estrutura
morfologicamente
(não
analiticamente)
semelhante
à
4
concorrência monopolística de Chamberlin , com razoável grau
de liberdade de entrada condicionado pela maior ou menor
facilidade de diferenciar o produto.
4
CHAMBERLIN, E. (1933). The Theory of Monopolistic Competition. Harvard U. P., Cambridge, Mass.
19
2.2 ECONOMIA DE REDES
A atuação das firmas ou empresas em forma de redes é um fenômeno
estudado pela economia há um século. Ao longo deste tempo a economia
tornou-se globalizada e ocorreu a padronização do consumo e das tecnologias.
Com o advento da internet houve a globalização também da informação, e a
internet passou a ser um mecanismo utilizado tanto na formação de redes,
quanto na comunicação interna e externa a elas, como um facilitador à
cooperação. Para Shima (2006, p.334) "A constituição de arranjos cooperativos
entre firmas, que conformam as redes econômicas, tem como objetivo, mais
geral, fortalecê-las em suas diversas competências." E para que as empresas
participantes das redes alcancem maior eficiência em produção e organização,
diante do aumento constante da complexidade do ambiente econômico,
precisam interagir e se capacitar (SHIMA, 2006).
A internet derrubou a barreira da distância na comunicação entre as
firmas que compõem as redes, permitindo mais agilidade no intercâmbio de
tecnologias e de aprendizado, e estas complementaridades adquiridas pelas
firmas intra redes são necessárias para poderem fazer frente à concorrência
que se mostra em intensa dinâmica. Ainda de acordo com Shima (2006, p. 335)
essa nova dinâmica implica novas formas de barreiras à entrada, em
intensa mobilidade dos capitais e numa maior complexidade dos
arranjos inter firmas. Trata-se de uma mudança que não implica
necessariamente maior proximidade geográfica entre os capitais, uma
vez que, as novas tecnologias de informação e comunicação (TIC)
atuam no sentido de permitir presenças virtuais dos capitais em
qualquer parte do globo. As firmas passam assim a definir estratégias
competitivas de natureza global, e não mais estratégias isoladas para
mercados nacionais. Elas tornam-se global players. Em outros
termos, as TIC atuam tanto no sentido de fortalecer a rede — dada a
maior interação entre seus agentes — quanto no sentido de
intensificar a concorrência, em função da maior disponibilidade de
informações para todos.
Para Britto (2002, p. 350) a formação de redes na economia
corresponde a uma abordagem "do ponto de vista da constituição de um tipo
particular de instituição, com a capacidade de coordenar a realização de
atividades econômicas." Deste modo, o conceito de redes de firmas é
baseado
em uma perspectiva de análise que ressalta a dimensão social
das relações entre empresas e seus possíveis desdobramentos
sobre a conformação institucional do ambiente econômico e sobre
o padrão de conduta dos agentes.
20
Britto (2002) esclarece que as redes de empresas possuem quatro
elementos morfológicos genéricos em sua estrutura: "nós, posições, ligações e
fluxos". A relação que faz entre estes elementos gerais das redes e os
elementos que constituem especificamente as redes de empresas é mostrada
no Quadro 1 e, em seguida ao quadro, é dada a conceituação dos quatro
elementos morfológicos genéricos.
QUADRO 1 - ELEMENTOS ESTRUTURAIS DAS REDES DE EMPRESAS
Elementos
Morfológicos
Gerais
das
Elementos
Constitutivos
das
Redes
de
Redes
Empresas
Nós
Empresas ou Atividades
Posições
Estrutura de Divisão de Trabalho
Ligações
Relacionamentos entre Empresas (aspectos
qualitativos
Fluxos
Fluxos de Bens (tangíveis) e de Infomações
(intangíveis)
Fonte: Britto (2002, p. 352)
Os nós ou pontos são as unidades básicas das redes e identificam as
empresas inseridas nelas como unidades básicas a serem pesquisadas, tanto
no que se refere ao relacionamento entre elas quanto ao seu relacionamento
externo. Os nós ou pontos podem se referir também a uma determinada
atividade produtiva ou a uma determinada indústria.
As posições definem de que forma os pontos estão localizados na
rede. Estão relacionadas a determinada divisão de trabalho que liga os
diferentes nós visando atingir os objetivos propostos.
As ligações referem-se aos elos entre os nós constituintes da rede.
Pelas ligações é possível distinguir estruturas saturadas, onde cada nó está
ligado a praticamente todos os outros nós da rede, de estruturas dispersas,
onde o número de ligações entre os pontos é bastante limitado. É possível
observar também o grau de centralização da estrutura, ou seja, o número de
nós que constituem passagem fundamental entre as ligações estabelecidas
entre dois nós quaisquer da estrutura da rede.
Os fluxos podem ser tangíveis e intangíveis. Os fluxos tangíveis
21
baseiam-se em transações recorrentes entre os agentes, por meio das quais
os insumos e produtos são transferidos. Compreendem as operações de
compra e venda entre os nós das redes. Os fluxos intangíveis são os fluxos
de informação que ligam os diferentes nós integrados às redes.
A circulação de informações pode ser considerada algo inerente
aos membros das redes e, sob este aspecto, Britto (2002) ressalta que o
aprendizado coletivo aumenta o potencial inovativo da rede. O processo
envolve a troca de informações, de competências e de conhecimentos. Por
meio da incorporação do aprendizado de cada um ao conjunto de
conhecimentos de diversas naturezas (comercial, tecnológica, gerencial,
mercadológica, ou outras), gerados a partir da rede, o aprendizado coletivo
é consolidado, e com isto amplia-se o potencial de inovação da rede.
Para Britto (2002, p. 363) um dos tipos de aprendizado intra-redes é
de caráter informal e refere-se à circulação de informações tecnológicas,
sendo
que
os
mecanismos
utilizados
para
a
disseminação
deste
conhecimento relevante deve levar em conta os seguintes aspectos:
(1) a descrição dos sistemas de informação tecnológica que se
encontram disponíveis para os membros da rede; (2) a avaliação
dos mecanismos através dos quais o conhecimento codificado
circula no interior da rede; (3) a avaliação dos instrumentos
mobilizados para viabilizar a circulação de conhecimentos tácitos
entre os membros da rede.
Um outro aspecto da economia de redes, que será abordado a
seguir, está relacionado as externalidades de redes. Este fenômeno,
apresentado em alguns mercados, trata dos efeitos das relações dos
agentes das redes e das decisões tomadas por eles em relação a adoção
de determinados produtos, tecnologias ou serviços.
2.3 EXTERNALIDADES DE REDES
Os padrões e tecnologias podem ter como conseqüência para as
empresas ou instituições que os adotam, os efeitos de externalidades de redes.
Para abordar este assunto, tomou-se como base o capítulo 7, do livro A
economia da informação, de Shapiro e Varian (1999) e o capítulo 18, do livro
Microeconomia, de Pindyck e Rubinfeld (2002).
22
As redes, sejam reais ou virtuais, têm uma característica econômica
fundamental, que é o valor dependente do número de pessoas já conectadas à
elas. A proposição de valor de uma rede recebe muitos nomes: efeitos de rede,
externalidades de rede e economias de escala do lado da demanda. As
externalidades surgem quando um participante do mercado afeta outros sem o
pagamento de compensação. As externalidades de rede situam-se na base da
lei de Metcalfe5: "o valor da rede eleva-se como o quadrado do número de
usuários." As externalidades têm dois matizes: negativo e positivo. As
externalidades de rede positivas fazem surgir o retorno crescente.
Para Arthur (1989) os retornos crescentes funcionam a partir da
escolha feita por agentes, por uma tecnologia dentre diferentes tecnologias
concorrentes para adoção. Tecnologias modernas e complexas muitas vezes
exibem rendimentos crescentes de adoção, de forma que quanto mais são
adotadas mais experiência se adquire com elas. E quanto mais se ganha com
elas, mais elas são melhoradas. Quando duas ou mais tecnologias competem
no mercado de potenciais adotantes, eventos insignificantes podem dar por
acaso uma vantagem inicial em adoções a uma delas. Esta tecnologia pode
então melhorar mais do que as outras, e isto pode atrair uma proporção maior
de potenciais adotantes. Por isso, pode se tornar ainda mais adotada e
melhorada. Assim, uma tecnologia que por acaso ganha uma vantagem inicial
na adoção pode, eventualmente, controlar o mercado de potenciais adotantes,
bloqueando as tecnologias concorrentes. As tecnologias da informação podem
ser tratadas em termos de redes virtuais, que compartilham muitas
propriedades com as redes reais, como as redes de comunicação.
Nas redes reais, as ligações entre os nodos são conexões físicas,
como os trilhos dos trens ou os fios dos telefones. Nas redes virtuais, as
ligações entre os nodos são invisíveis, embora sejam não menos essenciais
para a dinâmica do mercado e a estratégia competitiva. Sejam reais ou virtuais,
as redes têm uma característica econômica fundamental: o valor de ligar-se a
uma rede depende do número de outras pessoas já conectadas a ela. Essa
proposição fundamental de valor recebe muitos nomes: efeitos de rede,
exterioridades de rede, e economias de escala do lado da demanda. O aspecto
5
A Lei de Metcalfe é uma referência à Lei criada por Robert Metcalfe, co-inventor da Ethernet e
fundador da 3Com. Trata-se de uma Lei conhecida na área de Tecnologia da Informação.
23
maior é melhor das redes, é o que gera o feedback positivo, comumente
observado na economia. Entender o fundamento do feedback positivo é
imprescíndivel para compreender os aspectos econômicos das tecnologias de
informação.
O feedback positivo fortalece o forte e enfraquece o fraco, levando a
resultados extremos, como o domínio do mercado por uma única empresa ou
tecnologia. Dito de outro modo, o sucesso gera mais sucesso, o que é a
essência do feedback positivo, e o fracasso multiplica o fracasso, o que
também é a essência do feedback positivo. O feedback positivo e as
externalidades de rede não se contituem uma criação recente, elas têm sido
reconhecidas há muito tempo como essenciais nos setores de comunicação e
transporte, onde as empresas precisam competir para expandir suas redes e
onde uma rede pode aumentar extraordinariamente seu valor de mercado ao
se interligar com outras redes. O oposto do feedback positivo é o feedback
negativo. Quando ocorre o processo de feedback negativo, nele o forte fica
fraco e o fraco fica forte, ambos sendo empurrados para um meio termo.
O feedback positivo não deve ser confundido com crescimento. Se uma
tecnologia está em uso, como a internet por exemplo, o feedback positivo se
traduz em crescimento acelerado, que é o círculo virtuoso. Quanto ao
desempenho e compatibilidade, para que uma nova tecnologia entre num
círculo virtuoso (o de retorno crescente), em vez de entrar em um círculo
vicioso (o de aprisionamento), há duas abordagens básicas: a estratégia da
evolução da tecnologia e a estratégia da revolução de um desempenho
irresistível.
Além da alternância entre o desempenho e a compatibilidade, ao tratar
dos retornos crescentes de uma nova tecnologia há que se observar também a
alternância entre a abordagem que pode ser aberta ou de controle proprietário.
A abordagem de controle proprietário refere-se ao controle da tecnologia por
meio da propriedade intelectual enquanto que a abordagem aberta torna
possível para os outros as interfaces e especificações necessárias, e tem como
objetivo maximizar o valor da tecnologia. A fronteira entre estas duas
abordagens, a de abertura e a de controle, não é abrupta, e com freqüência
são adotadas abordagens intermediárias onde, como exemplo, a estratégia é
24
de abertura da tecnologia, mas as alterações nesta tecnologia são de controle
exclusivo.
Outro ponto a ser considerado ao tratar das externalidades é a sua
relação com os bens públicos. As extemalidades e os bens públicos constituem
importantes causas de falhas de mercado e, portanto, dão origem a sérias
questões de políticas públicas, tais como: Qual deveria ser o gasto do governo
com a defesa do país, com educação, com pesquisa básica e com televisão
estatal? Quando os governos devem substituir as empresas privadas na
produção de bens e serviços, caso esta seja uma alternativa possível?
Os bens públicos possuem duas características: são não exclusivos e
não disputáveis. Um bem é considerado não exclusivo caso seja dispendioso
ou impossível impedir que pessoas o consumam. Conseqüentemente, torna-se
difícil ou impossível cobrar pela utilização de produtos com essa característica,
porque eles podem ser obtidos sem a necessidade de pagamento direto. Um
bem é não disputável quando, para qualquer nível de sua produção, o custo
marginal de fornecê-lo para um consumidor adicional é zero. No caso da
maioria dos produtos oferecidos por empresas privadas, o custo marginal do
aumento de produção do bem é positivo. Os mercados privados apresentam
probabilidades de não produzir de modo eficiente os bens não disputáveis e os
bens não exclusivos.
As extemalidades podem surgir entre produtores, entre consumidores
ou entre consumidores e produtores. Uma externalidade ocorre quando um
produtor ou consumidor influencia as atividades de produção ou de consumo
de outros de uma maneira que não esteja diretamente refletida nos resultados
de mercado. As externalidades podem ser positivas ou negativas. As
extemalidades positivas são aquelas que surgem quando a ação de uma das
partes beneficia a outra. E as extemalidades negativas são aquelas que
ocorrem quando a ação de uma das partes impõe custos à outra. Devido ao
fato de as extemalidades não estarem refletidas nos preços de mercado, elas
podem se tomar uma causa de ineficiência econômica.
As externalidades ocasionam ineficiências de mercado porque inibem a
capacidade de os preços refletirem de modo exato as informações relativas à
quantidade que deve ser produzida e consumida. Quando as extemalidades se
encontram presentes, o preço de um bem não reflete necessariamente seu
25
valor social. Conseqüentemente, as empresas poderão vir a produzir
quantidades excessivas ou insuficientes, de tal maneira que o resultado do
mercado venha a ser ineficiente. Algumas soluções para as ineficiências
envolvem regulamentações governamentais, enquanto outras dependem de
negociações entre as partes ou, ainda, a parte prejudicada pode mover uma
ação judicial contra os responsáveis pela extemalidade que a prejudicou.
2.4 PADRÕES TECNOLÓGICOS
Os padrões tecnológicos fazem parte do dia-a-dia das pessoas nos
equipamentos, nas redes de comunicação, e nos software utilizados. Um
padrão pode ser definido como o consenso de diferentes agentes para fazer
certas atividades-chave de acordo com as regras acordadas (NICKERSON;
MUEHLEN, 2006). Um padrão tecnológico pode ser um conjunto de
especificações para o qual todos os elementos de produtos, processos,
formatos ou procedimentos sob sua jurisdição devem obedecer (TASSEY,
2000, p. 588). De acordo com Narayanan e Chent (2012, p. 1376) para
entender os aspectos funcionais dos padrões de tecnologia, é útil considerar as
diferenças entre o lado da oferta e o lado da procura. Do lado da oferta, um
padrão de tecnologia representa a síntese de conceitos comprovados na lógica
de design para organizar a hierarquia e os parâmetros funcionais para um tipo
particular de produto (TASSEY, 2000), e no lado da demanda um padrão de
tecnologia reflete o desejo dos consumidores por um acordo sobre um formato
tecnológico uniforme que permita a integração e a intercambialidade de vários
produtos (AXELROD et al., 1995). Essencialmente, um padrão de tecnologia
representa a escolha coletiva resultante do equilíbrio entre as necessidades
dos consumidores, possibilidades técnicas e da estrutura de custos dos
fabricantes de um lado, e as limitações/restrições das instituições políticas,
sociais e econômicas do outro (TASSEY, 2000).
Hawkins (2008, p. 176) traz um conceito específico para padrões de
tecnologia de comunicação e seus principais aspectos: padrões de tecnologia
de comunicação são especificações técnicas que permitem componentes
tecnológicos provenientes de diferentes fornecedores trabalharem juntos dentro
26
de um mesmo sistema de comunicação. Alguns padrões referem-se a
interfaces físicas entre a rede e o terminal (computador). Outros referem-se a
elementos lógicos expressos em algoritmos e incorporados ao software. Nos
sistemas digitais, muitos padrões envolvem ambos, elementos físicos e lógicos
de forma que a padronização da interface física é suportada por elementos
padronizados de software. Por isto padrões são essenciais para a
telecomunicação, transmissão e redes de computadores e têm se tornado
elementos cruciais na integração de redes digitais e no ambiente de serviço.
2.5 OS FUNDAMENTOS E FILOSOFIA DO SOFTWARE LIVRE E DOS
REPOSITÓRIOS DIGITAIS
Para Richard Stallman, fundador do movimento do software livre, o
software livre é uma questão de liberdade, não de preço. Para compreender
este conceito é preciso pensar na acepção de livre como em "liberdade de
expressão". O software livre refere-se a liberdade dos usuários para executar,
copiar,
distribuir,
estudar,
mudar
e
melhorar
o
software.
Refere-se
especialmente a quatro classes de liberdade para os usuários de software:
a) liberdade 0 - a liberdade para executar o programa seja qual
seja o propósito;
b) liberdade 1 - a liberdade para estudar o funcionamento do
programa e adaptá-lo as próprias necessidades, o acesso ao
código fonte é condição indispensável para isto;
c) liberdade 2 - a liberdade para redistribuir copias e ajudar
assim a outros;
d) liberdade 3 - a liberdade para melhorar o programa e logo
publicá-lo para o bem de toda a comunidade, o acesso ao
código fonte é condição indispensável para isto (STALLMAN,
2004).
Também, segundo Stallman (2004), o código fonte de um software é o
conjunto de instruções, primeiro escritas como palavras, que dirigem a
funcionalidade das máquinas. Estas máquinas, computadores, definem e
controlam cada vez mais nossas vidas, determinam como se conectam os
27
telefones e o que aparece na televisão, decidem se o vídeo pode ser enviado
por banda larga até um computador, controlam a informação que um
computador remete ao fabricante. Estas máquinas nos dirigem e o código
dirige estas máquinas.
De acordo com Laat (2005), no regime público os hackers
compartilham livremente o código fonte. O propósito de avançar na obtenção
de melhoria da qualidade do software de código fonte aberto se dá pelo
controle do software pelo usuário, porque ele está livre para reparar, modificar,
e atualizar o software quando necessário. Enquanto o software proprietário, na
forma binária, mantém o produtor no controle completo, o software de código
fonte aberto coloca o controle nas mãos dos usuários. Em particular, este
controle alargado dá "vida eterna" ao software. Levy (2010) diz que entre os
hackers há um elemento comum, uma filosofia comum, amarrada à lógica
elegante do fluxo do próprio computador. Uma filosofia de compartilhamento,
de abertura e descentralização, de reter nas mãos as máquinas a qualquer
custo, para melhorar as máquinas e para melhorar o mundo. Esta ética hacker
é um presente para todos: algo com valor, mesmo para aqueles que não têm
nenhum interesse em computadores. Aqueles envolvidos na quebra de
sistemas de segurança são chamados de crackers.
Para Raymond (1997) o software livre e o software proprietário
possuem dois estilos de desenvolvimento fundamentalmente opostos: o
modelo catedral da maioria dos fabricantes de software comercial, contra o
modelo bazar do mundo Linux. Estes modelos são baseados em visões
opostas sobre a natureza da tarefa de depuração do software. Os grandes
software comerciais têm que ser construídos como as catedrais, ou seja,
devem ser cuidadosamente elaborados sem lançar versões beta antes do
tempo. O estilo de desenvolvimento do software livre, ao contrário, se
assemelha a um movimentado bazar de Babel, repleto de pessoas com
objetivos e abordagens diferentes, e do qual emerge um sistema operacional a
partir de uma série de dispositivos.
Na abordagem catedral de programação, erros e problemas de
desenvolvimentos
são
fenômenos
difíceis,
insidiosos
e
profundos.
Normalmente leva meses para uma revisão exaustiva até alcançar a segurança
que foi eliminada. Por isso existem longos intervalos entre cada versão que se
28
libera, e a inevitável desmoralização quando estas versões, muito aguardadas,
não resultam perfeitas. Na abordagem de programação bazar, por outro lado,
assume-se que os erros são fenômenos relativamente evidentes quando se
mostram à milhares de desenvolvedores que colaboram em cada uma das
versões. Consequentemente, se libera versões com frequência, a fim de obter
uma maior quantidade de correções, conseguindo como efeito colateral
benéfico, uma perda inferior quando um eventual obstáculo se atravessa.
Para Dávila Quintero et al. (2006) a natureza multifuncional da
educação superior constitui um dos pilares fundamentais para a gestão da
informação e do conhecimento que ali se produz. Essa gestão tem a ver com
os processos de geração, conservação, intercâmbio, transferência e,
finalmente, sua aplicação na solução dos problemas associados ao
desenvolvimento. Por estes motivos, as universidades têm um papel
fundamental na preservação do patrimônio intelectual de nossos povos. Este
patrimônio intelectual das instituições acadêmicas deve continuar difundindo-se
e contrastando-se com os padrões de qualidade internacional, no âmbito da
revisão pelos pares, mas, simultaneamente, deve permanecer na rede, em
forma de publicações eletrônicas em repositórios, à disposição de toda essa
sociedade que o financia. O mais importante num repositório institucional não é
a ferramenta computacional associada ao seu manuseio, mas os conteúdos do
repositório, sua qualidade, sua constante atualização, sua segurança, a
facilidade de acesso e a amplitude de sua difusão. Para a comunidade
acadêmica é vital conservar e difundir seu patrimônio intelectual.
DiBona, Ockman e Stone (1999) comparam o processo de construção
de um software open source à construção de um texto científico. Para eles o
método científico baseia-se em um processo de descoberta, e também em um
processo de justificação. Para justificar os resultados científicos, eles devem
ser replicáveis. A replicação não é possível, a menos que a fonte seja
compartilhada: a hipótese, as condições de teste, e os resultados. O processo
de descoberta deve ocorrer por meio do compartilhamento de informação, ou
seja, deve permitir que outros cientistas continuem o processo; e deve polinizar
as ideias dos outros para que algo novo possa crescer. O compartilhamento
aberto de resultados científicos facilita a descoberta. O método científico
minimiza a duplicação de esforços, porque os pares saberão quando estão
29
trabalhando em projetos semelhantes. O progresso não para simplesmente
porque um cientista para de trabalhar em um projeto. Da mesma forma,o
modelo de desenvolvimento open source, de compartilhar o código fonte,
facilita a criatividade.
Síntese Conclusiva:
O referencial teórico adotado vem embasar esta dissertação de maneira
a permear todos os assuntos tratados. Um mercado em oligopólio é
caracterizado fundamentalmente por barreiras à entrada, e o mercado das
publicações periódicas aqui tratado, possui muitas delas, principalmente pelo
controle dos canais de distribuição e do fator de impacto. Neste mercado são
geradas muitas externalidades de redes, tanto para o oligopólio, quanto para os
repositórios digitais abertos, sendo que estes repositórios, assim como a
internet, ambiente digital no qual se encontram, foram construídos basicamente
com softwares e padrões abertos.
30
3 A ESTRUTURA DE MERCADO DAS PUBLICAÇÕES CIENTÍFICAS
Neste capítulo será mostrado que o mercado das publicações
científicas, especialmente o de periódicos, é caracterizado por um tipo de
oligopólio com muitas barreiras à entrada, elevada concentração, e composto
por poucas e grandes editoras globalizadas, mas ao mesmo tempo existem
muitas
pequenas
editoras
especializadas
em
área
ou
disciplina
do
conhecimento, que atendem a um público específico especializado.
A Figura 1 abaixo ilustra a estrutura dos repositórios digitais fechados
no mercado das publicações científicas, conforme aqui descrito.
FIGURA 1 - ESTRUTURA DOS REPOSITÓRIOS DIGITAIS FECHADOS NO MERCADO DAS
PUBLICAÇÕES CIENTÍFICAS
Fonte: O autor, 2013.
A estrutura deste mercado é mundial, visto que as editoras colocam
representantes para vender seus periódicos em todas as partes do mundo,
incluindo o Brasil, e assim o dominam também pelo controle dos canais de
distribuição. O mercado destas editoras globalizadas são as bibliotecas e os
pesquisadores das comunidades acadêmicas de universidades e instituições
de pesquisa. Os pesquisadores são também os maiores parceiros das editoras,
31
visto que a publicação dos periódicos científicos ocorre com a participação de
pesquisadores como autores e revisores de artigos de outros pesquisadores, o
que é chamado de revisão por pares (peer review ou refereeing), e ainda
muitas vezes como participantes do conselho editorial. Normalmente este
trabalho é gratuito para a editora, que depois vende os periódicos para as
bibliotecas, e estas os disponibilizam aos mesmos pesquisadores.
Tanto o oligopólio das publicações periódicas de conteúdo científico,
quanto o oligopólio das publicações periódicas que trazem o fator de impacto
serão abordados a seguir, assim como algumas diferenças entre os direitos do
autor e o copyright, que é repassado às editoras.
3.1
A ORGANIZACAO DA ESTRUTURA DE MERCADO DAS EDITORAS
CIENTIFICAS NAS PUBLICAÇÕES
O mercado das publicações científicas é dividido em editoras com fins
lucrativos e editoras sem fins lucrativos que referem-se àquelas de sociedades,
associações e universidades, como o Institute of Electrical and Electronics
Engineers (IEEE) e a Oxford. As editoras com fins lucrativos dominam este
mercado. Para Morgan Stanley (2002) o negócio das revistas é caracterizado
por uma demanda relativamente inelástica, com revistas individuais tendo
geralmente um forte apoio dentro do seu nicho particular. O nicho natural do
mercado e o rápido crescimento dos orçamentos das bibliotecas acadêmicas
permitiram o crescimento do mercado das publicações científicas de tal forma
que foi o que mais cresceu na indústria da mídia nos últimos quinze anos. As
bibliotecas universitárias norte-americanas representam cerca de 60% do
mercado global, para uma indústria de US$ 7 bilhões de dólares, na qual a
Reed Elsevier (Elsevier Science) é a líder do mercado. Junto com ela, outras
cinco editoras - Wolters Kluwer, Blackwell, Bertelsmann, Wiley e Taylor &
Francis - respondem por 37% dos periódicos com melhor classificação, e por
44% dos artigos publicados. Outra característica apontada por Morgan Stanley
(2002) são os benefícios de escala, cada vez maiores para os grandes players.
As grandes editoras desfrutam de economias de escala em um mundo online
32
onde podem agrupar os títulos de periódicos que produzem e vendê-los em
pacote, como um único produto.
Por outro lado, de acordo com Mcguigan e Russell (2008), ao dos
editores com fins lucrativos que detêm a nata das revistas acadêmicas, está
um grande número de pequenos editores (mais de 2.000). Este grande número
de pequenas editoras pode ser explicado pelo aumento da especialização
dentro das disciplinas acadêmicas. Como fragmento de disciplinas, cada uma
procura estabelecer a sua própria tradição em pesquisa e criar revistas que
ofereçam mercados para as suas pesquisas. O resultado é um grande número
de
revistas
especializadas,
muitas
vezes
publicadas
por
sociedades
acadêmicas, e cada uma com uma parte relativamente pequena de circulação.
Esta dinâmica contribuiu para a crise dos periódicos menores que têm menos
assinantes e, portanto, maiores custos por fascículo. Como os preços
aumentam e os orçamentos das bibliotecas permanecem constantes, o
resultado inevitável é o cancelamento de algumas revistas.
Quando há restrições orçamentárias, a opção das bibliotecas é de
manter as coleções de títulos de periódicos existentes, aqueles estabelecidos
no mercado, conhecidos pelos pesquisadores e pertencentes ao oligopólio, em
detrimento da entrada de novos títulos, o que gera externalidades de redes
positivas para este mercado editorial oligopolizado e ao mesmo tempo é uma
barreira à entrada para novos concorrentes.
Neste modelo de negócios tradicional das publicações científicas ou
acadêmicas, as universidades ajudam a produzir e consomem o produto, e as
editoras organizam os serviços. Para Mcguigan e Russell (2008), a publicação
acadêmica depende de um modelo econômico incomum. Existem três
importantes participantes nesta indústria: a) acadêmicos da faculdade que
escrevem os artigos de periódicos e fornecem serviços editoriais; b) os editores
que agem como intermediários para a análise, publicação e distribuição do
conteúdo acadêmico das revistas; e c) faculdades e universidades que
compram as revistas, geralmente através de seus sistemas de bibliotecas.
Também, de acordo com Mcguigan e Russell (2008), embora professores do
corpo docente das universidades forneçam o conteúdo das revistas
acadêmicas como autores, participem de conselhos editoriais, e façam muitas
das tarefas editoriais para as editoras de periódicos, geralmente não são
33
remunerados, embora possam receber alguma pequena compensação pelas
suas atividades. Membros do corpo docente e as instituições acadêmicas que
os empregam, por sua vez, compram as revistas.
Mcguigan e Russell (2008) salientam que esta é uma circunstância
muito incomum na qual os insumos necessários (artigos e serviços editoriais)
para os negócios das editoras são fornecidos sem custo. A situação é ainda
mais invulgar dado que faculdades e universidades que compram as revistas
subsidiam parcialmente a produção da revista, pagando os salários dos
professores, autores e editores. As editoras têm um papel de mediador na
indústria. Elas recolhem, empacotam e divulgam os artigos produzidos por
autores da faculdade. O usuário principal das revistas é o mesmo grupo que
produziu o conteúdo, ou seja, o corpo docente das faculdades e universidades.
Assim, o conteúdo é consumido pelo corpo docente/pesquisadores, novos
conhecimentos são produzidos e o ciclo continua. As bibliotecas acadêmicas
adquirem e fornecem o acesso às revistas. Elas atuam como agentes para
ambos, os membros do corpo docente que exigem certas revistas, e
universitários administradores que fornecem o orçamento para a compra dos
seriados.
A figura 2 ilustra como ocorre o processo de publicação de periódicos
científicos neste mercado mundial oligopolizado das publicações científicas,
especialmente os periódicos, conforme descrito.
34
FIGURA 2 - PROCESSO TRADICIONAL DE PUBLICAÇÃO, VENDA E DIFUSÃO DE
PERIÓDICOS CIENTÍFICOS
Fonte: O autor, 2013.
3.2 O OLIGOPÓLIO DAS EDITORAS CIENTIFICAS NO FATOR DE IMPACTO
O mercado de publicações de periódicos científicos é caracterizado
também pelo fator de impacto, um indicador de avaliação de qualidade dos
periódicos. Este fator de impacto, ou índice de impacto, ou índice de citações,
como também é chamado, também é publicado como periódico, pelas grandes
e poucas editoras do mesmo mercado oligopolizado. Exclusivamente, duas
35
grandes editoras concentram o mercado de publicações que trazem o fator de
impacto6: a Thomson ISI, que publica o Journal Citation Reports (JCR), e a
Elsevier, que publica o SCImago Journal Ranking Indicator (SJR). Em outros
termos, dois editores dominantes que publicam globalmente publicam também
o fator de impacto das publicações de todas demais grandes editoras e, ainda,
começam a entrar no mercado das publicações de acesso aberto. Este é um
modelo híbrido no qual as editoras do oligopólio aceitam publicações abertas
em seus repositórios (bases de dados) fechados e efetuam o índice de impacto
destas publicações.
Um exemplo disso é a parceria formada em 2012, entre a Thomson e a
Scientific Electronic Library Online (SciELO), o maior repositório digital aberto
do Brasil, para hospedar a base de dados do SciELO no repositório Web of
Knowledge da Thomson. Essa parceria entre a Thomson e a SciELO visa
trazer maior visibilidade e melhor acesso à pesquisa para economias
emergentes, especialmente da América Latina, Caribe, e África do Sul, e de
línguas Latinas de áreas desenvolvidas, incluindo Espanha e Portugal.
Atualmente, a SciELO publica cerca de 40 mil novos artigos a cada ano em
mais de 900 periódicos de acesso aberto da Argentina, do Brasil, do Chile, da
Colômbia, de Costa Rica, de Cuba, do México, de Portugal, da África do Sul,
da Espanha e da Venezuela (THOMSON REUTERS, 2013). Com esta parceria
a SciELO passa a usar em seu repositório o fator de impacto da Thomson,
usada no JCR. Considerando que nesta métrica da Thomson, são necessários
dois anos de publicação para estabelecer o fator de impacto, em 2014 a
SciELO começará a obter resultados conclusivos quanto ao índice de citações
de suas publicações. Considerando que no Brasil, a Coordenação de
Aperfeiçoamento de Pessoal de Nível Superior (Capes), agência de fomento à
pesquisa, responsável pelo desenvolvimento da pós-graduação no país, utiliza
a métrica da Thomson na avaliação da produção científica, a parceria virá
contribuir favoravelmente à avaliação, pela CAPES, das publicações contidas
na SciELO.
O fator de impacto, por ter seu controle sob o domínio do oligopólio, e
por ser o principal instrumento de avaliação das publicações, pode ser
6
Para Pritchard (1969), o fator de impacto é considerado uma ferramenta bibliométrica, visto
que a bibliometria refere-se a todos os estudos que buscam quantificar os processos de
comunicação escrita.
36
considerado a maior barreira à entrada para novos concorrentes, e também é o
responsável por gerar externalidades positivas ao oligopólio da seguinte
maneira: os pesquisadores das instituições de pesquisa e universidades de
todo o mundo precisam publicar o resultado de seu trabalho, visto que publicar
é um indicador de qualidade para suas avaliações profissionais. Quanto maior
o índice de impacto das revistas onde publicarem seus artigos, maior a
probabilidade de obterem uma avaliação favorável e, com isto, ascensão
profissional. Este incentivo faz gerar as externalidades de redes positivas para
publicar nos periódicos do oligopólio. E, ainda, a publicação de um artigo numa
revista com alto índice de impacto poderá contribuir para que este artigo seja
lido e citado, o que por fim, poderá contribuir para o aumento do indíce de
impacto do autor e não só da publicação.
Segundo
Garfield
(2006),
o
termo
fator
de
impacto
evoluiu
gradualmente para descrever tanto o impacto da revista quanto o impacto do
autor do artigo. O fator de impacto de uma revista é baseado em dois
elementos: o numerador, que é o número de citações no corrente ano a itens
publicados nos dois anos anteriores, e o denominador, que é o número de
artigos
substanciais
e
resenhas
publicados
nos
mesmos dois
anos
(GARFIELD, 2006). O fator de impacto é um indicador de avaliação de
publicações científicas e, para Mugnaini e Strehl (2008), os indicadores
calculados a partir dos dados das citações indexadas na Web of Science
(WoS), e agrupados por periódicos para análise no Journal Citation Reports
(JCR), que traz o fator de impacto, têm sido o recurso mais freqüentemente
utilizado por administradores da ciência no Brasil e no mundo, para fins de
avaliação da produção.
O JCR e o WoS são publicados pela Thomson Reuters (THOMSON
REUTERS, 2013), uma das grandes editoras globais, participantes do
oligopólio. Nota-se assim que o oligopólio das editoras científicas mantém o
controle sobre os periódicos internacionais publicados e mantém o controle
sobre os canais de distribuição, visto que garantem que as principais
bibliotecas especializadas e acadêmicas do mundo inteiro mantenham em seus
acervos as coleções destes periódicos. A manutenção destas coleções ocorre
por meio de assinaturas institucionais individuais, ou por meio de consórcios e
são adquiridas normalmente na forma de pacotes de vários títulos ofertados
37
pelas editoras ou seus representantes. Com isto estas editoras garantem
também que os pesquisadores, usuários destas bibliotecas, tenham acesso
aos periódicos que publicam, e possam citá-los, fechando assim o ciclo de
controle com a garantia de elevado fator de impacto aos seus periódicos e aos
autores que neles publicam.
A Figura 3 ilustra o mercado dos índices de impacto, controlado pelo
oligopólio dos repositórios fechados, e as relações entre os pesquisadores que
necessitam publicar o resultado de suas pesquisas e estas métricas que são
usadas para fazer a análise das citações, e os motores de busca próprios do
oligopólio, responsáveis pela busca do conteúdo a ser analisado.
FIGURA 3 - O MERCADO OLIGOPOLIZADO DOS ÍNDICES DE IMPACTO
Fonte: O autor, 2013.
38
3.3 OS TIPOS DE BARREIRAS À ENTRADA
As barreiras à entrada nessa estrutura de mercado se organizam da
seguinte forma: a) aos autores - os autores são expropriados de sua producão
a partir do copyright que repassam às editoras e precisam pagar para acessar
o seu conteudo publicado, pelo alto preço cobrado pelo artigo que eles próprios
produziram, pelo alto preço da assinatura anual do periódico, e pelo longo
tempo utilizado na revisão dos pares e/ou na publicação; b) aos leitores - pela
dificuldade de acesso ao conteúdo, considerando o alto preço cobrado pelo
artigo avulso do periódico ou pela sua assinatura anual, conforme será visto no
próximo item, caso este leitor não faça parte de nenhuma comunidade
acadêmica e por isto não tenha acesso à nenhuma biblioteca; c) aos
concorrentes - pelo controle dos canais de distribuição, e pelos efeitos positivos
de rede gerados, visto que a indústria editorial acadêmica vende seus títulos de
periódicos normalmente em pacotes às bibliotecas, e estas os repassam à
comunidade acadêmica, e visto que esta indústria controla o índice de impacto
das publicações. A comunidade acadêmica lê o conteúdo e o cita, garantindo
assim o fator de impacto positivo para os periódicos do oligopólio, e ao mesmo
tempo dificultando ou até impedindo a entrada de novos títulos nas bibliotecas.
O relatório da Comissão Européia ressalta que a principal barreira
continua sendo a capacidade das revistas em atrair um grupo de editores,
revisores e autores. Mesmo quando uma nova revista pode atrair um
selecionado grupo de acadêmicos ilustres, é preciso tempo para isto, visto que
a reputação da revista ainda está para ser estabelecida. Em segundo lugar,
mesmo que a entrada de novos periódicos seja facilitada, o acesso ao estoque
de conhecimento é controlado historicamente pelos editores, em parte porque
eles obtiveram o copyright ou os direitos exclusivos dos autores. Este retorno
ao tamanho agrava os efeitos naturais de rede que empurram para a
concentração e grandes carteiras, e que também fazem barreiras à entrada,
uma quase inevitável característica da indústria. Também relevante é a
mudança nas políticas de preços do editor, isto é, o advento do "Big Deal" onde
os editores vendem todo o seu estoque a preços acordados para um período
de tempo significativo, e onde a obtenção fora do contrato é cara. Esses efeitos
são reforçados quando a transação ocorre entre intermediários como editoras e
39
bibliotecas e, quando bibliotecas tem um orçamento limitado (EUROPEAN
COMMISSION, 2006).
3.4 A DINÂMICA DOS PREÇOS DAS PUBLICAÇÕES EM OLIGOPÓLIO
O relatório da European Commission (2006), mostra que a publicação
científica tornou-se uma atividade econômica mundial significativa e o núcleo
do mercado editorial (ciência, tecnologia e medicina) é estimado entre US$ 7 e
11 bilhões. Nos últimos 30 anos, um tema constante em debate é o preço das
revistas científicas, que tem aumentado. No período compreendido entre 1975
e 1995, chamado de crise dos periódicos, os preços das revistas aumentaram
de 200% à 300% acima da inflação. Esta evolução dos preços foi
acompanhada por uma queda nas assinaturas por pesquisadores individuais e
bibliotecas. Os preços das revistas ultrapassaram de longe a evolução dos
orçamentos das bibliotecas e a pressão sobre os orçamentos das bibliotecas
resultou na redução das assinaturas de periódicos. A partir de 1995, tomando
como base a evolução das Tecnologias da Informação e Comunicação (TIC),
as editoras passaram a adotar a distribuição digital e proporcionar o acesso online às suas revistas através de plataformas de pesquisa de alto desempenho.
Com isto, as novas tecnologias e a Internet melhoraram drasticamente
a acessibilidade das publicações científicas para os pesquisadores, entretanto,
o acesso real à literatura continuou dependendo da capacidade das bibliotecas
em pagar as assinaturas. Os preços das revistas continuaram aumentando
mais rápido do que a inflação, embora num ritmo mais lento que o dos 20 anos
anteriores. A distribuição digital permitiu a introdução de novos modelos de
negócios, trazendo mudanças significativas nas políticas de preços dos
periódicos. Os preços individuais e as vendas de revistas mudaram para "Big
Deals", ou seja, venda de pacotes de revistas, cujos preços variam de
instituição para instituição, e podem ser desde assinaturas anuais até licenças
que duram vários anos. Com isto as bibliotecas buscaram se reunir em
consórcios para compartilhar os benefícios do acesso e melhorar as suas
posições de negociação frente aos editores. Em geral, o empacotamento tem
dois efeitos: a) em curto prazo pode restringir ou ampliar as escolhas dos
40
consumidores; e b) em longo prazo, pode restringir a entrada (EUROPEAN
COMMISSION, 2006).
Desse
modo,
considerando-se
que
as
editoras
são
apenas
intermediarias entre o processo de producão e difusão academica há uma
cobrança abusiva dos artigos publicados. Segundo Monbiot (2011) enquanto o
acesso aos jornais Times e Sunday Times é de £1 para o período de vinte e
quatro horas, com direito a ler e baixar livremente artigos neste período de
tempo, o custo de acesso para leitura de um único artigo científico das editoras
é: Elsevier ($31,50), Springer (Eur 34,95) e Wiley-Blackwell ($42,00),
ressaltando que as editoras retém os direitos autorais das publicações de
maneira perpétua. O título de periódico com a assinatura mais cara encontrado
pelo autor foi Biochimica et Biophysica Acta, da Elsevier ($20.930,00).
Ademais, deve-se considerar que o material publicado foi encomendado e
financiado pelos contribuintes, por meio de subsídios governamentais de
pesquisa e bolsa acadêmicas.
3.5 COPYRIGHT E DIREITOS DO AUTOR
Existem algumas diferenças entre copyright e direitos do autor, e as
expressões usadas para referir-se à propriedade intelectual e a duração desta
proteção não são iguais em todo o mundo. Para Stallman (2004) o termo
propriedade intelectual é genérico, no qual se mesclam vários sistemas legais
diferentes, incluindo copyrights, patentes, marcas registradas e outros, que têm
muito pouco em comum. Estes sistemas legais que se originaram
separadamente, regulam atividades distintas e operam de maneira distinta, e
por isto devem ser referenciados especificamente. Segundo Licea Jiménez;
Collazo Martínez; Cespedes Vidal (2002) países como França e Alemanha
adotam a expressão direitos do autor, enquanto os Estados Unidos utiliza
Copyright como a forma de proteção concedida aos trabalhos originais dos
autores. O direito do autor remonta as antigas Grécia e Roma e foi
fundamentado mais tarde com a invenção da imprensa. Entretanto, somente no
período do progresso revolucionário das tecnologias da informação é que se
suscita a necessidade de estabelecer novos acordos com o intuito de obter
41
uma proteção adequada, tanto das obras registradas nos novos suportes como
nos tradicionais (LICEA JIMÉNEZ; COLLAZO MARTÍNEZ; CESPEDES VIDAL,
2002).
O copyright, na forma como é adotado nos Estados Unidos (Copyright
Act of 1976), possui algumas características particulares. Segundo Landes e
Posner (1989) a primeira delas refere-se a natureza da proteção que um
copyright garante ao seu possuidor. Em contraste com uma patente, um
copyright apenas dá proteção contra cópia. A segunda característica é o âmbito
da proteção: a) ideia versus expressão - o copyright protege a expressão, mas
não as ideias; b) obras derivadas - a obra derivada é a tradução para uma
língua ou meio (mídia) diferente; c) uso justo (fair use) - é uma doutrina que
permite a cópia de um trabalho com direitos autorais sem julgamento do
copiador como um infrator, mesmo que o titular do copyright não tenha
autorizado a cópia. A terceira e última característica do copyright americano
refere-se ao prazo ideal de um direito de autor. O comprimento atual de um
direito de autor é a vida do autor mais 50 anos. Alperovitz e Daly (2010)
observam que o conhecimento não é uma propriedade no mesmo sentido que
a propriedade de um bem físico, visto que resulta de um esforço social amplo,
obedece outra lógica e tem um tempo determinado de permanência, que no
caso do copyright é de quase um século.
No Brasil, a Lei nº 9.610, de 19 de fevereiro de 1998, que trata dos
direitos autorais, em seu art. 1º "regula os direitos autorais, entendendo-se sob
esta denominação os direitos de autor e os que lhes são conexos" (BRASIL,
1998), "por essa razão, a expressão direitos autorais é mais abrangente do que
direito de autor, pois engloba o direito de autor e os direitos conexos"
(CARBONI, 2009). A Lei brasileira faz a distinção entre direitos patrimoniais e
morais, trazendo em seu art. 27 "Os direitos morais do autor são inalienáveis e
irrenunciáveis", e quanto aos direitos patrimoniais, em seu art. 28 "Cabe ao
autor o direito exclusivo de utilizar, fruir e dispor da obra literária, artística ou
científica" (BRASIL, 1998). Na Europa, segundo Larsson (2011), houve
algumas iniciativas regulatórias recentes da União Europeia que tiveram um
foco explícito sobre os direitos de autor, ou um efeito indireto, mais importante
sobre eles. Isso provavelmente envolve a expansão dos conceitos e metáforas,
42
que foram descritos só para a prática não-digital, e que agora formam maneiras
padronizadas de criar uma nova lei.
Stallman (2004) traz uma crítica ao uso do copyright e ao controle das
editoras na difusão do conteúdo científico. Segundo ele deveria ser um axioma
que a literatura científica exista para divulgar o conhecimento científico, e que
as revistas científicas existam para facilitar este processo. Por conseguinte, as
regras de uso da literatura científica deveriam desenhar-se para ajudar a
conseguir este objetivo. As regras que temos agora, conhecidas como
copyright, foram estabelecidas na era da imprensa, um método intrinsecamente
centralizado para a produção massiva de cópias. No contexto da imprensa, o
copyright sobre os artigos de publicações só restringiam aos editores,
obrigando-os a obter uma permissão para publicar um artigo, e aos possíveis
plagiários. Isto ajudou as revistas a organizarem e divulgarem o conhecimento
sem interferir no trabalho dos pesquisadores ou estudantes, seja como
escritores ou como leitores de artigos. Estas regras se adequavam bem a este
sistema.
Entretanto, a tecnologia moderna para as publicações científicas é a
internet. Que regras assegurariam melhor a divulgação dos artigos científicos e
do conhecimento na rede? Os artigos deveriam ser distribuídos em formatos
não proprietários, de acesso aberto à todos. E todos deveriam ter o direito de
reproduzir os artigos, isto é, de reeditá-los integralmente, com sua adequada
atribuição. Estas regras deveriam aplicar-se tanto para os artigos passados
quanto para os futuros, quando distribuídos em formato digital. Não há
nenhuma necessidade crucial em mudar o sistema atual de copyright aplicado
à edição impressa de revistas porque o problema não afeta este domínio.
Muitas editoras de revistas parecem acreditar que o propósito da literatura
científica
é
permitir-lhes
editar
revistas
para
cobrar
assinaturas
de
pesquisadores e estudantes. Esta forma de pensar é conhecida como"
confundir os meios com os fins". Este procedimento consiste em restringir o
acesso à leitura de literatura científica inclusive para aqueles que podem pagar
e pagam por ela, porque usam a legislação do copyright, todavia vigente,
apesar de sua inadequação às redes informáticas. A constituição dos Estados
Unidos diz que o copyright existe "para promover o progresso da ciência".
43
Quando o copyright impede o progresso da ciência, a ciência deve descartar o
copyright (STALLMAN, 2004).
Síntese Conclusiva:
A estrutura de mercado das editoras científicas é organizada de
maneira a fazer com que todo o processo de publicação se mantenha em
poder do oligopólio. Este poder de mercado se estende também à avaliação
das publicações, que é feito essencialmente sobre o fator de impacto,
controlado pelo mesmo grupo editorial do oligopólio. O fator de impacto pode
ser considerado como a maior barreira à entrada que as editoras colocam
neste mercado que, junto com os canais de distribuição que também
controlam, geram as externalidades de redes positivas ao grupo, mantendo-o
assim no domínio do mercado, o que lhe permite praticar preços exorbitantes
pelas assinaturas dos periódicos, que vendem por meio de pacotes, às
bibliotecas acadêmicas.
44
4 O MOVIMENTO DO SOFTWARE LIVRE E SEUS DESDOBRAMENTOS EM
FUNÇÃO DA OPOSIÇÃO AO COPYRIGHT
A seguir serão abordadas as questões econômicas e institucionais que
levaram alguns pesquisadores a lutar para que houvesse no mercado do
software a introdução de software com código fonte aberto como uma
alternativa ao modelo proprietário existente.
4.1 ANTECEDENTES HISTÓRICOS DO MOVIMENTO DO SOFTWARE
LIVRE
A origem do movimento do software livre remonta há mais de quarenta
anos. Já no início dos anos 1970, o compartilhamento de software se torna
comum dentro de uma comunidade constituída por universidades, instituições
de pesquisa e empresas. Os membros desta comunidade eram chamados de
hackers, que segundo Stallman (2004), são pessoas que amam programação e
gostam de explorar novas possibilidades. Nesta época o software era
considerado parte integrante do hardware. As empresas Digital e Sun, por
exemplo, concebiam software como um componente destinado a valorizar o
hardware, porque o lucro provinha da sua venda. De acordo com Porcel
Iturralde e Rodríguez Mederos (2005), a indústria do licenciamento de software
ainda não havia se desenvolvido.
A idéia de software proprietário, com a venda de licenças, toma forma
no início dos anos 1980, com a dissociação entre o software e o hardware e o
fechamento dos códigos-fonte. De acordo com Stallman (2004), em 1981 a
empresa Symbolics contratou quase todos os hackers do laboratório de
inteligência artificial (AI Lab) do Massachusetts Institute of Technology (MIT)
levando ao colapso da comunidade. Os computadores encontrados no
mercado, como o VAX, ou o 68020, contavam com seu próprio sistema
operacional e nenhum utilizava software livre. Era necessário firmar um acordo
de confidencialidade com as empresas produtoras inclusive para obter uma
cópia executável. Isto significava que antes de usar um computador deveria
45
haver o comprometimento de que nada seria repassado, e as comunidades
cooperativas foram assim proibidas (STALLMAN, 2004).
Como resposta ao movimento do software proprietário, Richard M.
Stallman, que trabalhava no AI Lab do MIT, e era contrário a esta idéia de
propriedade intelectual, decide abandonar o MIT e escrever vários programas
que pudessem permitir ressuscitar a extinta comunidade. Para Stallman (2004)
o copyright não é uma lei natural, mas um monopólio artificial imposto pelo
Estado que limita o direito natural dos usuários de copiar. A idéia de que o
sistema social em torno do software proprietário - um sistema que impede o
compartilhamento ou a modificação do software - é antissocial, pouco ética e
simplesmente equivocada, pode surpreender. Mas o que dizer sobre um
sistema que semeia a divisão entre o público e abandona os usuários ao
desamparo mais absoluto? (STALLMAN, 2004). Assim, em 1984 Stallman
inicia o projeto do sistema operacional livre chamado GNU, cujo acrônimo
significa GNU is not UNIX, por ser totalmente compatível ao sistema
operacional proprietário chamado UNIX, e em 1985 cria a Free Software
Foundation (FSF). A partir daí o movimento do software livre obtém um
crescente desenvolvimento, contando dentre seus fatos mais marcantes, com a
criação do software Linux, por Linus Torvalds, em 1991, e a fusão GNU/Linux
em 1992.
Para Engelhardt (2011), nos primórdios, o software não era um produto
único, a receita era proveniente da venda de computadores, e os fornecedores
de hardware entregavam o software gratuitamente. Embora algumas empresas
estivessem vendendo o serviço de código escrito (código personalizado), não
havia mercado para produtos de software prontos, os chamados pacotes de
software. Esta imagem começou a mudar na década de 1960, quando os
empresários perceberam a oportunidade de vender seu software para mais de
um cliente e, portanto, tratá-lo como um produto de massa comum
comercializável. Este novo conceito difundiu-se e, finalmente, na década de
1980, a publicação em massa de pacotes de software por fornecedores
independentes de software estabeleceu-se. Os primeiros fornecedores de
software independentes inventaram os modelos de negócios baseados em
software com código fechado - closed source software (CSS), mas também
foram a força motriz para o estabelecimento de proteção de direitos autorais
46
para o software. Assim, eles também induziram uma mudança no nível das
instituições formais. A transição da indústria para CSS levou a algumas
tentativas de preservar a livre cultura de programação baseada na chamada
ética hacker.
4. 2 PRINCIPAIS CARACTERÍSTICAS E BENEFÍCIOS DO SOFTWARE
LIVRE COM CÓDIGO FONTE ABERTO
A oferta de software livres com código fonte aberto no mercado, trouxe
inúmeros benefícios à comunidade acadêmica mundial. Seus padrões
tecnológicos abertos permitem que instituições de ensino e pesquisa os
customizem conforme suas necessidades e os utilizem para disponibilizar, por
meio de repositórios digitais com acesso pela internet, o conteúdo científico
que produzem.
Quanto as características do software livre com código fonte aberto, o
site do Open Source Initiative (2013) traz os critérios que devem ser seguidos
para que um software possa ser licenciado como sendo de código fonte aberto,
visto que Open source não significa apenas o acesso ao código-fonte como
segue: a) Redistribuição livre - a licença não deve exigir um royalty ou outra
taxa para venda; b) Código fonte - o programa deve incluir o código fonte e
deve permitir a distribuição em código fonte, bem como em formato compilado;
c) Obras derivadas - a licença deve permitir modificações e trabalhos
derivados, e deve permitir serem distribuídas sob os mesmos termos da licença
do software original; d) Integridade do código fonte do autor - a licença pode
restringir o código fonte de ser distribuído em uma forma modificada apenas se
a licença permitir a distribuição de patch files com o código fonte, com o
propósito de modificar o programa em tempo de compilação; e) Sem
discriminação contra pessoas ou grupos - a licença não deve discriminar
qualquer pessoa ou grupo de pessoas; f) Sem discriminação contra campos de
trabalho - a licença não deve restringir ninguém de fazer uso do programa em
um campo específico de atuação; g) Distribuição da licença - os direitos
associados ao programa devem se aplicar a todos a quem o programa é
redistribuído, sem a necessidade de execução de uma licença adicional para
47
estas pessoas; h) A licença não deve ser específica para um produto - os
direitos associados ao programa não devem depender de fazer parte do
programa de distribuição do software em particular; i) A licença não deve
restringir outro software - a licença não deve colocar restrições em outro
software que é distribuído juntamente com o software licenciado; e j) A licença
deve ser tecnologicamente neutra - nenhuma disposição da licença pode ser
baseada em qualquer tecnologia individual ou de estilo de interface.
Quanto aos benefícios, estes vão além da comunidade de software
livre e atingem também empresas comerciais que usam modelos híbridos de
negócios, mesclando software proprietário com software open source. Stallman
(2004) diz que o software livre não significa que seja "não comercial". Qualquer
programa livre estará disponível para seu uso, desenvolvimento e distribuição
comercial. Atualmente calcula-se que existem dez milhões de usuários de
sistemas GNU/Linux como Debian GNU/Linux e Red Hat Linux. E para
Engelhardt (2011), as empresas que visam lucros tambem usam modelos de
negócios baseados em software livre. Um exemplo é o Kindle da Amazon que
tem o Linux embarcado e outro exemplo é o Android, um software baseado em
Linux (sistema operacional, middleware e aplicações chave) para dispositivos
de celulares. Linus Torvalds, criador do software livre Linux diz que o Linux
hoje tem milhões de usuários, milhares de desenvolvedores e um mercado em
crescimento. É utilizado em sistemas embarcados; é usado para controlar
dispositivos robóticos; e já voou no ônibus espacial (TORVALDS, 1999). De
acordo com Stallman (2004), as consequências positivas disto são evidentes:
um maior interesse por desenvolver software livre, mais clientes para as
empresas de software livre e uma maior capacidade para encorajar as
empresas a desenvolver software livre comercial em lugar de produtos de
software proprietário.
Ghosh e Soete (2006) esclarecem que a premissa do novo modelo
open source de desenvolvimento de tecnologia é que a redução de barreiras à
entrada para a modificação da tecnologia reduza os custos de busca,
permitindo aos participantes do mercado de produtores-consumidores uma
forma mais eficiente de alocar habilidades e outros recursos para as
necessidades de melhoria. Proporcionar o acesso à tecnologia não necessita
ser visto como caridade ou ajuda aos países em desenvolvimento, mas como a
48
ampliação da base de recursos de inovadores potenciais. As conseqüências
dessa
mudança
podem
ser
significativas,
não
só
para
o
próprio
desenvolvimento, mas também para o concernente debate sobre a migração
afetando o mundo desenvolvido de hoje. Se esta mudança torna mais fácil para
as pessoas dos países em desenvolvimento reproduzir, melhorar e construir
sobre as inovações do mundo desenvolvido, ela pode amenizar a "fuga de
cérebros" de pessoas cuja única chance de exercitar seu potencial como
inovador é emigrar.
4.3
O CONCEITO DE COPYLEFT EM OPOSIÇÃO AO CONCEITO DE
COPYRIGHT
Quando o pesquisador Richard Stallman criou o software livre GNU,
criou também o conceito de copyleft para a distribuição deste software, em
forma da licença chamada General Public License (GPL). Este conceito se
expandiu ao longo do tempo e atualmente é usado também para publicações.
Segundo o site oficial da Free Software Foundation (2013) o copyleft é uma
forma de usar os direitos autorais em um programa, o que não implica
abandonar os direitos autorais, visto que se estes forem abandonados, o uso
do copyleft será impossível. De acordo com Stallman (2004) o copyleft é um
método para converter um programa em software livre e exigir que todas as
versões do mesmo, modificadas ou ampliadas, também o sejam. A forma mais
simples de fazer com que um programa seja livre é colocá-lo em domínio
público, sem direitos reservados, o que permite o compartilhamento do
programa e suas melhorias, se este for o intuito. O domínio público, entretanto,
permite que um intermediário converta o programa em software proprietário
com poucas ou muitas modificações em seu código. As pessoas que receberão
o novo programa não gozarão da liberdade que lhes foi dada pelo autor original
porque o intermediário os despojou dela.
Por este motivo o software GNU não foi colocado em domínio público,
e foi protegido com copyleft. No conceito de copyleft, qualquer um que distribua
software, com ou sem modificações, deve repassar com ele a liberdade para
49
copiá-lo e modificá-lo. O copyleft garante que cada usuário goze desta
liberdade.
Heffan (1997) afirma que o copyleft é útil para outros trabalhos
colaborativos distribuídos eletronicamente, como livros, revistas e panfletos,
porque o copyleft garante a disponibilidade contínua dos trabalhos para o
público. Desta forma, os membros do público com interesses não comerciais,
podem colaborar de maneiras que antes eram impossíveis, criando obras em
conjunto.
Segundo Rodríguez Mederos (2007), um músico pode receber
remuneração por seu trabalho, um concerto, e um cientista, com o
financiamento de seus projetos. Os produtos disseminados para a comunidade
com licenças copyleft geralmente não são tão lucrativos como aqueles
puramente proprietários. Isto pode ser visto como negativo, mas também pode
ser visto de outra maneira. Por exemplo, a Microsoft como uma empresa
produtora de software proprietário e a Red Hat que distribui software open
source. A primeira é muito mais lucrativa do que a segunda, no entanto, este
modelo acentua a diferença entre os ricos e pobres de uma forma significativa
e isso faz com que esta alternativa não seja viável para o desenvolvimento
sustentável das nossas sociedades. Este aspecto, sozinho, reforça a
necessidade de apoiar essas iniciativas na sociedade. As empresas que
desejam lucrar com software licenciado com copyleft deverão fazê-lo
principalmente por meio de treinamentos para os seus usuários, das
certificações e dos serviços de suporte, mas, sem dúvida, terão menos
possibilidades de lucrar diretamente com a venda do software.
A partir da licença copyleft para software, foram surgindo algumas
licenças copyleft para publicações, como por exemplo a licença GNU Free
Documentation License (GFDF), criada para ser usada nos manuais do
software, visto que um programa livre deve ser acompanhado de manuais que
forneçam as mesmas liberdades que o software. Esta Licença não ficou restrita
a manuais de software, e hoje pode ser usada para qualquer texto,
independente do assunto, ou o meio no qual é publicado, impresso ou digital
(FREE SOFTWARE FOUNDATION, 2013). Também podem ser citadas as
licenças Open Publication License, de 1999, que asseguram que em ambas as
versões, modificada e não modificada, os trabalhos disponibilizados em
50
publicação aberta possam ser reproduzidos e distribuídos, no todo ou em parte,
em qualquer meio físico ou eletrônico, desde que os termos da licença sejam
cumpridos, e que esta licença ou uma incorporação dela seja mostrada na
reprodução (OPEN CONTENT, 1999); a licença para periódicos, criada por
Pepe Cervera, que em junho de 2002 lançou o primeiro jornal diário gratuito
sob licença copyleft, chamado 20 minutos (CERVERA, 2009); e, ainda, as
licenças Creative Commons, que serão abordadas a seguir.
4.3.1 As licenças Creative Commons como uma doutrina de disseminação e
compartilhamento do conhecimento
O desdobramento mais significativo das licenças copyleft foi a criação
das licenças Creative Commons. Estas licenças são distribuídas pela
organização sem fins lucrativos, também chamada Creative Commons, podem
ser atribuídas a qualquer tipo de obra criativa e foram inspiradas na licença
GNU-GPL. A Creative Commons foi fundada em 2001 e lançada em 2002,
tendo entre seus criadores e participantes do Conselho de diretores os
pesquisadores Lawrence Lessig (presidente), James Boyle, Michael Carroll e
Hal Abelson (VERCELLI, 2002). Segundo o site da Creative Commons (2013)
as licenças permitem variações entre a abertura total, ou seja, a renúncia aos
direitos autorais, disponibilizando a obra em domínio público, e a restrição, que
não permite alterações na obra e nem sua utilização para fins comerciais,
diferente do tradicional copyright que simplesmente garante todos os direitos
reservados. Estas licenças públicas incorporam um design em três camadas,
sendo que a primeira é o instrumento ou texto legal tradicional, a segunda é um
resumo para leigos, e a terceira é a camada legível por máquinas, para que a
internet identifique facilmente quando um trabalho está disponível e coberto por
uma licença Creative Commons.
Segundo Lessig (2001), o ciberespaço tem uma arquitetura diferente. A
sua natureza é diferente. O ciberespaço em sua concepção teve como
característica mais importante uma arquitetura que desativa o poder de
qualquer um controlar a forma como os que estão nas extremidades interagem.
Livros físicos são fontes de informação extremamente duráveis. Mas há coisas
51
que os livros em papel não podem fazer, e restrições nos livros em papel
limitam até onde o conhecimento que eles carregam é carregado. Esses
limites, portanto, deram lugar a um tipo diferente de livro - o "livro HTML", ou o
livro produzido para a WWW. Um livro em HTML é um trabalho derivado sob a
lei de direitos autorais.
Se o texto original é protegido por direitos autorais, então, para publicar
uma obra derivada, será preciso a permissão do detentor dos direitos autorais.
Entretanto, há obras que caíram em domínio público sendo publicadas na
Internet desde 1970. O meio físico e as camadas de código da Net permitiram
esse tipo de inovação. A camada física era barata; a camada de código estava
aberta. A única restrição poderia ocorrer na camada do conteúdo. Novos
produtos geram novos mercados. E novos modos de distribuição, incluindo a
remoção de barreiras para a distribuição, induzem a criação de novos
mercados também para os produtos já existentes. A plataforma da Internet
remove as barreiras do espaço real e remover essas barreiras permite aos
indivíduos implementar novas idéias (LESSIG, 2001).
De acordo com Boyle (2008), a Internet faz com que a cópia seja
barata e o faz em uma escala global sem precedentes. Assim, sem um
aumento dos direitos de propriedade privada, a cópia mais barata vai abalar as
indústrias criativas e culturais. Isto chama-se a história da Internet Threat
(ameaça da Internet). Este não é um mundo sem propriedade intelectual. É um
mundo em que a criatividade e a inovação procedem com base em um
"commons" (bem comum, comunitário) gigante, de um material sobre o qual
nunca foi imaginado que os direitos de propriedade pudessem permear. O
Creative Commons foi concebido como a segunda melhor solução criada por
acordo privado, porque a melhor solução não poderia ser obtida através do
direito público. A melhor solução seria um retorno da exigência de formalidade,
um requisito para ao final do trabalho, por exemplo, escrever as palavras
"James Boyle copyright 2008", a fim de obter mais de 100 anos de proteção
legal apoiada por estrita responsabilidade e direito penal federal.
Ainda para Boyle (2008), as licenças Creative Commons ou as
ferramentas de software livre e open source, representam alguma coisa a mais
do que simplesmente a segunda melhor solução para uma regra mal escolhida.
Elas representam um exemplo visível de um tipo de criatividade, de inovação,
52
que alcançou nova proeminência na internet, a criatividade distribuída baseada
em torno do compartilhamento comunitário de material. Quando o custo
marginal de reprodução é zero, o custo marginal de transmissão e de
armazenamento se aproxima de zero, o processo de criação é aditivo, e muito
do trabalho não é cobrado, o mundo parece um pouco diferente. Este é, pelo
menos, um futuro possível, ou parte de um futuro possível, e que não deve ser
excluído facilmente. A comunidade de software livre produz produtos de alta
qualidade, capazes de competir no mercado com alternativas proprietárias,
e a adoção de licenças Creative Commons mostra que há milhões de
criadores que querem compartilhar suas obras com os outros.
Síntese Conclusiva:
Em meio a situação de controle total das editoras científicas, há mais
de vinte anos surgiu o movimento do software livre, que foi se desdobrando em
outros movimentos e iniciativas, que proporcionaram aos pesquisadores novas
formas de publicar e disponibilizar, de forma aberta e gratuita, os resultados de
suas pesquisas. Assim, como uma decorrência do movimento, surgiu o
copyleft, um conceito que embasou a criação das licenças creative commons,
que visam disponibilizar a produção científica de maneira alternativa, na qual o
controle do direito autoral permanece com o autor.
53
5 OS PADRÕES TECNOLÓGICOS NAS FERRAMENTAS DE ACESSO AOS
CONTEÚDOS DIGITAIS E O MOVIMENTO DO OPEN ACCESS
Conforme será exposto neste capítulo, a internet é o meio pelo qual o
conhecimento é compartilhado no mundo digital, e o acesso a este
conhecimento só é possível porque ela foi construída com padrões
tecnológicos abertos, que permitem a comunicação entre os computadores.
Neste sentido, serão abordados a seguir os seguintes assuntos: a) os padrões
abertos responsáveis por garantir o acesso ao conteúdo digital, visto que são
adotados em protocolos, softwares, e identificadores ou links persistentes; b)
os padrões abertos adotados na construção e funcionamento da internet; e c) o
movimento do Open Access que levou centenas de instituições no mundo a
aderirem à causa da publicação de acesso livre e gratuito, disponível na
internet.
5.1 O DESENVOLVIMENTO DOS PADRÕES ABERTOS DA INTERNET: AS
BASES PARA UM LIVRE ACESSO
Os
padrões
abertos
representam
um
papel
fundamental
no
desenvolvimento do movimento do software livre e nos desdobramentos que
ocorreram a partir dele. Os padrões abertos são necessários para garantir a
comunicação na rede internet, a comunicação entre computadores, a
interoperabilidade
infraestrutura
dos
repositórios
necessária
para
o
digitais
e,
ainda,
armazenamento,
garantir
toda
a
processamento
e
recuperação dos objetos digitais.
De acordo com a European Commission (2006), os padrões são um
elemento chave para o sistema de publicação. Visto que diferentes aplicações,
abertas e proprietárias, estão sendo desenvolvidas por diferentes agentes, a
utilização de padrões é crucial para permitir e facilitar o intercâmbio de dados e
a comunicação na rede e, assim, melhorar definitivamente a divulgação e o
acesso às publicações acadêmicas. Seu uso em todas as fases da publicação:
processo de criação, descrição, divulgação e preservação, asseguram que o
utilizador possa pesquisar, visualizar e imprimir o artigo, seja qual for sua
54
plataforma de hospedagem, asseguram que as publicações científicas estejam
amplamente disponíveis para pesquisa a partir de uma variedade de
prestadores de serviços (sejam eles gratuitos ou cobrados), e asseguram que a
literatura científica permaneça acessível para o futuro.
A história da internet, desde o seu projeto original até a forma como a
conhecemos hoje, passou por muitas transformações desde os anos 1960 até
os anos 1990, para chegar a formação do world wide web (WWW). Segundo
Castells (2004), as origens da internet remontam a setembro de 1969, ou ao
ARPANET, uma rede de computadores da Advanced Research Projects
Agency (ARPA), desenvolvida pelo Departamento de Defesa dos EUA. Depois,
outras redes de comunicação foram surgindo e, para que pudessem se
comunicar entre si, surgiu a necessidade de criar protocolos de comunicação
padronizados.
O fundamento da comunicabilidade é dado pelo fato que quando dois
computadores concordam eles podem se comunicar, e para isto têm que
encontrar uma maneira comum de representar os seus dados para que possam
compartilhá-lhos. Se usam o mesmo software para documentos ou gráficos,
podem compartilhá-lhos diretamente, e se não, podem traduzi-los para HTML.
O princípio fundamental por trás da Web é: uma vez que alguém, em algum
lugar, disponibilizou um documento, um banco de dados, um gráfico, um som,
um vídeo ou uma tela, em algum momento de um diálogo interativo, isto deve
ser acessível (sujeito a autorização, é claro) por qualquer pessoa, com
qualquer tipo de computador, em qualquer país. E deve ser possível fazer uma
referência - um link - para esta coisa, de modo que outros possam encontrá-la.
Esta foi uma mudança filosófica a partir da abordagem de sistemas de
computador anteriores (BERNERS-LEE; FISCHETTI, 2000).
O elemento central da unificação e comunição interredes ocorrem em
1973 quando surge então o protocolo de transmissão Transmission Control
Protocol (TCP), que em 1978 foi acrescentado pelo protocolo Internet work
Protocol (IP), criando assim o protocolo TCP/IP, o padrão sobre o qual a
internet opera até hoje. Em 1978 foi distribuído o programa UUCP (UNIX to
UNIX Copy) que permitia copiar arquivos de um computador para outro. O
UNIX é um sistema operacional, criado pelos laboratórios Bell, que à época da
criação foi disponibilizado às universidades com o código fonte aberto e com
55
permissão para ser modificado - fato importante para a ligação dos
computadores em rede. Isto permitiu que fosse desenhado um programa de
comunicação entre computadores UNIX, fora do eixo ARPANET, a USENET
News (CASTELLS, 2004).
A partir disso a USENET foi ligada a ARPANET e gradualmente outras
redes foram se unificando para se comunicarem entre si e compartilharem o
mesmo eixo central de alguma universidade que o disponibilizasse. Estas
redes, ao se unirem, formaram a internet. Somente em 1990 é que a www
tornou-se possível. De acordo com Alvestrand e Lie (2009), na história da
informática, o período em torno de 1990 deverá ser lembrado por três projetos
influentes. Todos os três tinham a troca de informações abertas como objetivo:
a) na Finlândia, Linus Torvalds lançou os sistemas operacionais Linux, que
tiveram habilitados o código aberto do software para formar um sistema
completo e estável de operação; b) em outras partes do mundo, especialistas
em codificação de texto começaram a recolher e classificar conjuntos de
caracteres de todas as línguas escritas para uma especificação chamada
Unicode; e c) no laboratório CERN, em Genebra, Tim Berners-Lee desenvolveu
o Projeto World Wide Web para o que hoje comumente se referem como
simplesmente "Web".
Os padrões e práticas, estabelecidos para o funcionamento da internet,
são implantados e fiscalizados por instituições responsáveis pela sua
governança. Uma destas instituições é a Internet Engineering Task Force
(IETF). De acordo com Alvestrand e Lie (2009), a IETF é o órgão de normas
com a maior influência sobre as tecnologias utilizadas para construir a internet,
e é formalmente organizada como uma atividade da Internet Society (ISOC),
sediada nos EUA e sem fins lucrativos. Todas as especificações da IETF são
abertas e qualquer um que contribui com o material para a IETF deve
concordar
que
esta
contribuição
pode
ser
distribuída
para
outros
(ALVESTRAND; LIE, 2009). Outra instituição responsável pelo funcionamento
da internet é o World Wide Web Consortium (conhecido como W3C) que,
segundo Alvestrand e Lie (2009) é uma organização não-comercial formada
para levar a WWW ao seu pleno potencial de desenvolvimento de protocolos e
diretrizes que garantam o crescimento de longo prazo da Web. Este Consórcio
56
foi criado em 1994 e tem centenas de membros, a maioria empresas do setor
de informática.
Quanto ao conteúdo disponibilizado por meio da internet, e quanto ao
acesso e tráfego deste conteúdo, são muitas as instituições e empresas
envolvidas no seu funcionamento. Para Hahn e Wallsten (2006) é simplista,
mas útil, pensar a internet em quatro partes: provedores de conteúdo como
Google, Amazon, e eBay; a rede de backbone da internet gerenciada por uma
série de empresas, incluindo Level3, AT & T, Sprint, Verizon, e Qwest;
prestadores de serviços de banda larga como a AT & T, Verizon e Comcast; e
os usuários finais, isto é, consumidores e empresas.
Conforme será exposto no próximo item, a rápida expansão da internet,
como um meio difusor de conteúdos informacionais, possibilitou que cientistas
do mundo todo pudessem compartilhar os resultados de suas pesquisas. Esta
iniciativa foi chamada de Open Access e foi adotada por instituições
mantenedoras
de
repositórios
digitais
abertos,
responsáveis
pelo
armazenamento e disponibilização de publicações científicas.
5.2 O MOVIMENTO DO OPEN ACCESS PARA PUBLICAÇÃO DE
CONTEÚDO CIENTÍFICO, COMO CONTRAPOSIÇÃO À PUBLICAÇÃO
TRADICIONAL
Em meio ao movimento do software livre, da criação e disponibilização
de padrões tecnológicos e software para repositórios abertos e interoperáveis,
surgiu a iniciativa de compartilhar revistas acadêmicas de forma gratuita e
aberta por meio dos repositórios. Esta iniciativa se deu a partir do final dos
anos 1990 num movimento mundial, que contou com a participação de
inúmeros países, instituições acadêmicas e de pesquisa, e agências de
fomento. Este movimento foi chamado de acesso aberto (Open Access) no
sentido de acesso livre e gratuito ao conteúdo científico dos repositórios
abertos e também livre em relação às restrições impostas pelo copyright. Para
Carvalho (2009) a questão dos repositórios institucionais e o acesso aberto à
informação científica tem levado alguns países a discutir a regulamentação
para implantação destes repositórios, os pesquisadores de todas as áreas do
57
conhecimento à enfrentar uma provável mudança de paradigmas, e os grandes
editores à considerar mudanças irreversíveis nas suas políticas.
O relatório da European Commission (2006) diz que as principais
vantagens dos arquivos de acesso aberto são: a) a ausência de barreiras ao
acesso que é livre e imediato; b) a interoperabilidade dos arquivos de acesso
aberto, que melhora a visibilidade do seu conteúdo e a eficiência da busca; e c)
o aumento do impacto derivado da maior visibilidade, e a acessibilidade. O
Quadro 2 a seguir, foi elaborado a partir das informações constantes do
relatório da European Commission (2006), e mostra, em ordem cronológica, as
principais iniciativas que ocorreram no mundo em prol do acesso aberto.
QUADRO 2 - PRINCIPAIS INICIATIVAS EM PROL DO ACESSO ABERTO
Ano
1998
1998
1999
País/ Instituição
Brasil/Scientific Electronic Library
Online(SciELO)
The Scholarly Publishing and
Academic Resources Coalition
(SPARC)
Japão/ Agência de Ciência e
Tecnologia - J-STAGE
2001
Public Library of Science (PLOS)
2002
Budapest Open Access Iniciative
(BOAI)
Bethesda Statement on Open
Access Publishing
2003
2003
2003/
2004
2003
2003
The Berlin Declaration on Open
Access to Knowledge in the
Sciences and Humanities
Reino Unido/ Wellcome Trust
Genebra - Declaração de Princípios
da Cúpula Mundial sobre a
Sociedade da Informação
EUA - Lei de Acesso Público à
Ciência
2004
OECD - Declaration on Access to
Research Data from Public Funding
2004
Reino Unido/ Comitê de Ciência e
Tecnologia da Câmara dos
Comuns
Finlândia/ Open Access Publishing
Scientific Committee
2005
Iniciativa
Acesso gratuito a mais de 200 revistas
selecionadas em Espanhol e Português.
Aliança de universidades para apoio à ações
para melhorar o amplo acesso e o custo efetivo
de bolsas peer-reviewed
Plataforma para editoração de mais de 200
revistas abertas de sociedades acadêmicas
patrocinadas pelo governo.
Coalizão de 34.000 cientistas de 180 países para
que todos os artigos estejam em open access
após seis meses da publicação tradicional.
Assinada por mais de 4000 pessoas e
organizações de todo o mundo.
Debate dentro da comunidade de pesquisa
biomédica para oferecer acesso aberto à
literatura científica primária.
Assinada por mais de 60 organizações entre elas
a CNRS da França, o Instituto Max-Planck da
Alemanha, e o CERN da Suíça.
Apoio definitivo à publicação dos resultados das
pesquisas financiadas por ela em um formato de
acesso aberto.
Promoção do acesso universal à criação e
difusão do conhecimento científico e informação
técnica.
Exige que a pesquisa substancialmente
financiada pelo governo federal seja
disponibilizada em domínio público.
Declaração assinada por mais de 30 nações
para o acesso aos dados da pesquisa
proveniente de financiamento público.
Recomendação às agências públicas de
financiamento para exigirem acesso aberto à
pesquisa com financiamento público.
Recomendação às organizações de pesquisa a
criarem repositórios de acesso aberto e os
autores a depositarem neles suas publicações.
58
2005
UNESCO/Noruega/
Dinamarca/Holanda/Índia
2005
Brasil/ Instituto Brasileiro de
Informação em Ciência e
Tecnologia
Fonte: European Commission, 2006.
Recomendações para a prática do acesso aberto
em repositórios. Rede de repositórios que
fornece acesso a 41.000 publicações.
Manifesto em prol do acesso aberto. Registradas
141 adesões.
Além das ações mostradas no Quadro 2, que ocorreram na esfera
pública, de acordo com a European Commission (2006), ocorreram ações
também na esfera privada, com vários editores fornecendo acesso aberto à
suas publicações, por meio de subsídios do governo e assinaturas de sua
versão impressa para cobrir os custos de publicação, sem cobrar dos autores
para a publicação de seus artigos. Também, algumas editoras adotaram um
modelo híbrido, fornecendo acesso parcialmente livre aos seus periódicos, ou
seja, após um determinado período de tempo da publicação, como por exemplo
a HighWire Press, ou o livre acesso a apenas alguns artigos. E, ainda, estão
permitindo que autores possam tornar seus artigos livremente disponíveis on
line com o pagamento de uma taxa de publicação, como por exemplo a
Springer Open Choice programme, e Blackwell online open service
(EUROPEAN COMMISSION, 2006).
No modelo Open Access o processo de publicação de material
científico, especialmente dos periódicos, ocorre da seguinte maneira: a) as
instituições se encarregam das condições necessárias para a pesquisa dos
integrantes de seu quadro funcional pagando os salários e mantendo as
instalações adequadas de espaço físico, mobiliário e equipamentos, como
também as instalações de laboratórios, e do repositório digital; b) os
pesquisadores autores, se ocupam das atividades de elaboração dos artigos,
revisão por pares e processo editorial para publicação no repositório aberto; e
c) as bibliotecas se ocupam das atividades de manutenção e recuperação do
conteúdo do repositório, prestam suporte aos pesquisadores na difusão deste
conteúdo e na melhor utilização por eles, deste recurso informacional
disponível. Com isto os pesquisadores, que são também os principais leitores,
lêem, citam, e elaboram novos textos, retroalimentando o processo. E, ainda,
os artigos são disponibilizados em licenças copyleft ou creative commons em
lugar do copyright, mantendo assim os direitos autorais com o autor, sem
repasse. Dito de outra forma, as instituições, com suas bibliotecas e
59
comunidade acadêmica encarregam-se de todo o processo, sem a participação
das editoras oligopolizadas como intermediárias na organização das atividades
editoriais e difusão do conteúdo, conforme ilustrado na Figura 4 abaixo.
FIGURA 4 - PROCESSO DE PUBLICAÇÃO E DIFUSÃO DE PERIÓDICOS CIENTÍFICOS EM
ACESSO ABERTO (OPEN ACCESS)
Fonte: O autor, 2013.
5.3
OS
PADRÕES
TECNOLÓGICOS
NECESSÁRIOS
AO
PLENO
FUNCIONAMENTO DOS REPOSITÓRIOS DIGITAIS ABERTOS E O
ACESSO AO SEU CONTEÚDO EM LONGO PRAZO
No movimento do acesso aberto às publicações científicas, as
instituições de ensino e pesquisa necessitaram de um padrão tecnológico que
60
possibilitasse a interoperabilidade dos repositórios digitais, para que estes
pudessem ter seu conteúdo acessível pelos provedores de serviços e de busca
e, assim, serem acessados pelos usuários. Por meio da iniciativa denominada
Open Archives Initiative (OAI), do Instituto de Informação Legal, da
Universidade de Cornell, USA, foi criado então o protocolo padrão de
interoperabilidade entre os repositórios digitais e os provedores de serviços e
de busca, como OAISTER, Google, Yahoo e Alta Vista. Este protocolo chamase Open Archives Initiative Protocol for Metadata Harvesting (OAI-PMH). De
acordo com seu site, a Open Archives Initiative (2013) desenvolve e promove
padrões de interoperabilidade que visam facilitar a disseminação eficiente de
conteúdo. A OAI tem suas raízes nos movimentos de acesso aberto e de
repositórios institucionais, em um esforço para melhorar o acesso aos arquivos
científicos (eprints) e aumentar a disponibilidade da comunicação acadêmica.
De acordo com Lagoze e Van de Sompel (2001), pesquisadores da
Cornell University e da Los Alamos National Laboratory respectivamente, e
responsáveis pelo comitê executivo da OAI, o foco original em eprints foi
ampliado para abranger os provedores de conteúdo de muitos domínios, com
ênfase na publicação acadêmica. A OAI usa o termo "archive" (arquivamento)
em um sentido mais amplo, como um repositório para armazenamento de
informações. E o termo "open" (aberto) na OAI é usado a partir da perspectiva
arquitetônica, ou seja, da definição e promoção de interfaces de computador
que facilitem a disponibilidade de conteúdos a partir de uma variedade de
fornecedores. A solução de interoperabilidade adotada pela OAI é conhecida
como a coleta de metadados (descrição do objeto digital) onde o repositório
digital expõe seus metadados através de uma interface aberta, com a intenção
de que estes metadados sejam coletados e usados como a base para o
desenvolvimento de serviços de busca.
Além
do
padrão
tecnológico
desenvolvido
para
fornecer
a
interoperabilidade dos repositórios abertos, foi necessária também a criação de
um padrão tecnológico que permitisse a identificação e localização persistente
do objeto digital, neste caso um texto científico, armazenado nos repositórios
abertos, para que este objeto se mantenha acessível na internet ao longo do
tempo, mesmo que o software ou o hardware sejam substituídos. Este padrão
foi chamado de identificador persistente. Os identificadores persistentes são
61
fundamentais para a manutenção da integridade e recuperação de objetos
digitais em longo prazo. Dentre os identificadores persistentes mais conhecidos
estão o Handle System, o Purl, e o DOI, sendo o DOI o mais usado atualmente.
De acordo com seu site, Digital Object Identifier (2013), o DOI é um
Identificador Digital de um Objeto (e não um "Identificador de Objeto Digital").
Atualmente é usado por mais de 5.000 autoridades de nomenclatura, como
editoras, centros de dados científicos, estúdios de cinema, e outros, e tem mais
de 84 milhões de nomes DOI atribuídos. O DOI garante conformidade com os
padrões das comunidades da Internet IETF e W3C.
De acordo com Brito, Guedes e Shintaku (2013, p. 7) "como exemplos
de objetos que podem receber um nome DOI, pode-se citar um CD de música
(estrutura física), seus arquivos (estrutura digital) de gravações com as
performances de músicas (estrutura abstrata)." E Sayão (2007, p. 68) ressalta
que a identificação permanente garante o acesso contínuo ao recurso
informacional, assegurando que este seja localizado e se ―materialize‖ todas as
vezes que o seu link referencial for clicado. Os links podem parar de funcionar.
O uso de um identificador persistente garante que, mesmo que um documento
seja movido, ou a sua propriedade seja transferida, os links para ele
mantenham-se efetivamente acionáveis.
A figura 5 ilustra o relacionamento dos repositórios digitais abertos com
a internet, com o movimento do open access, e com os padrões necessários
para a interoperabilidade dos repositórios e identificação persistente dos
objetos digitais nos repositórios ao longo do tempo, conforme descritos neste
capítulo.
62
FIGURA 5 - OS REPOSITÓRIOS DIGITAIS ABERTOS E OS PADRÕES TECNOLÓGICOS
Fonte: O autor, 2013.
Síntese Conclusiva:
A adoção de padrões abertos e o movimento do open access foram
determinantes no desenvolvimento dos software para repositórios digitais que
surgiram após o ArXiV, o primeiro repositório aberto, que representa uma
filosofia de publicação dentro do movimento do software livre. Ao permitirem
que os provedores de serviços e de busca fizessem uma varredura em suas
bases de dados, os repositórios abertos fomentaram o surgimento de
instrumentos que permitem a medição do impacto das publicações que estão
nestes repositórios e fora do oligopólio das publicações tradicionais, como será
abordado a seguir.
63
6
OS REPOSITÓRIOS DIGITAIS ABERTOS, SUA DIFUSÃO E OS
INSTRUMENTOS QUE PERMITEM MEDIR O IMPACTO DAS SUAS
PUBLICAÇÕES
Conforme será visto neste capítulo, os repositórios digitais abertos não
surgiram ao acaso. Foram colocados no mercado, junto com ferramentas de
acesso aberto, copyleft e creative commons, como uma alternativa sem
barreiras à publicação científica, em oposição ao oligopólio das publicações e
ao copyright. Se inserem no ambiente digital como uma alternativa viável de
publicação aos pesquisadores, ao mesmo tempo em que garantem um
tratamento adequado ao conteúdo para que seja preservado. Os provedores de
busca são os responsáveis pela difusão dos repositórios, por fazer com que os
textos que guardam sejam encontrados na Web e entregues ao leitor que faz a
pesquisa. Este leitor, que é também pesquisador e autor, se encarrega de ler o
texto e, se julgar o seu uso pertinente, irá citá-lo em novo texto. Este novo
texto, caso seja também disponibilizado em um repositório aberto, acionará
ferramentas que fazem a contagem de citações, como o GSC, do Google
Scholar. Todos os instrumentos de padrões abertos disponíveis para a criação
de repositórios digitais, e os instrumentos de difusão e de análise de citações,
disponíveis em uma internet também de padrões abertos, se interligam e se
somam para ampliar a visibilidade dos textos científicos produzidos por
instituições de ensino e pesquisa e disponibilizados em seus repositórios
digitais abertos.
6.1
ANTECEDENTES
HISTÓRICOS
E
CONTEXTUALIZAÇÃO
DO
DESENVOLVIMENTO DOS REPOSITÓRIOS DIGITAIS ABERTOS
Um desdobramento do movimento do software livre é representado
pelos
repositórios
digitais.
Estes
foram
concebidos
em
meio
ao
desenvolvimento dessas alternativas político-tecnológicas como mecanismo de
desvio ao domínio corporativo. De acordo com Luce (2001) o primeiro deles foi
o ArXiv, iniciado por Paul Ginsparg, físico da Los Alamos National Laboratory
64
que, frustado com o sistema lento de impressão dos artigos científicos,
pretendia agilizar a disponibilização dos mesmos, fornecendo uma maneira
conveniente de compartilhar os resultados de suas pesquisas com seus
colegas cientistas. Isto viabilizou outros dois movimentos: E-print e Preprint. O
termo preprint freqüentemente refere-se a um manuscrito que foi revisado por
pares e está aguardando publicação em uma revista tradicional, e um e-print
denota auto-arquivamento pelo autor (LUCE, 2001). Assim, Ginsparg
desenvolveu o primeiro arquivo preprint e e-print, em agosto de 1991, e o
disponibilizou no ArXiv.
O ArXiv, além de corresponder a uma filosofia, ou movimento
alternativo de publicação científica, é um software para gerenciamento de
bibliotecas/repositórios digitais e, como outros software que vieram depois, tais
como Eprints, Fedora, Dspace e OJS, têm por função armazenar, processar e
recuperar conteúdos digitais. As instituições de pesquisa e as universidades
viram nestes softwares uma oportunidade para disponibilizar, de forma ágil e
em âmbito mundial, o conteúdo científico gerado dentro delas e, assim,
passaram a utilizar estes instrumentos para formar seus repositórios digitais
institucionais. Para Crow (2002) um Repositório Institucional (RI) é um conjunto
de serviços de armazenamento, gestão e disseminação de materiais digitais
disponíveis aos membros de uma determinada comunidade acadêmica.
Os repositórios digitais se encontram num mercado paralelo ao
mercado das editoras científicas, como Springer, Elsevier, Blackwell e
Thomson Reuters. Embora ambos publiquem textos técnico-científicos, as
grandes editoras funcionam como uma estrutura de mercado oligopolizada,
numa esfera privada, com mecanismos de barreiras à entrada, enquanto os
repositórios digitais funcionam num mercado livre e aberto na esfera pública.
Desse modo, essas editoras, na medida do seu poder de monopólio,
aumentam preços livremente ao mesmo tempo em que detêm o poder sobre o
copyright e os direitos de autor. Nessa perspectiva oligopolizada de publicação
por parte das editoras científicas, os pesquisadores de universidades e
instituições de pesquisa encontram algumas barreiras. Dentre elas estão: o
longo tempo para avaliação e publicação do artigo produzido; a propriedade
intelectual repassada às editoras em forma de copyright, e ainda o preço a ser
pago pelo acesso ao próprio artigo produzido. Ainda que o tempo para
65
publicação tenha sido reduzido com a conversão de livros e revistas para o
meio eletrônico, resta a barreira de entrada relacionada ao tempo da avaliação
do conteúdo. E resta ainda, a principal barreira que é o controle do fator de
impacto das publicações científicas, exercido pelo mesmo grupo editorial. Este
grupo é também responsável pela publicação dos periódicos cujo conteúdo é a
análise do fator de impacto dos títulos de periódicos que contêm os artigos
científicos.
6.2
O ARXIV COMO PROPULSOR DE UMA NOVA FILOSOFIA DE
PUBLICAÇÃO
O ArXiv, foi desenvolvido especificamente para os pesquisadores da
área da física poderem disponibilizar seus artigos científicos na internet, de um
modo rápido em relação ao longo período de tempo demandado na publicação
de periódicos científicos do modo tradicional, considerando aquele despendido
na revisão pelos pares, nos comitês editoriais, e na publicação propriamente
dita. Para Ginsparg (2006) o ArXiv, iniciado em agosto de 1991, em 2006 já
contava com 375.000 artigos, 40 milhões de downloads de texto completo por
ano, e ainda 50.000 novos pedidos por ano. O ArXiv tornou-se um projeto
internacional, com sites de espelhos dedicados em 17 países. O ArXiv é
inteiramente orientado para os cientistas porque os artigos são depositados
pelos pesquisadores e estão disponíveis imediatamente para os outros
pesquisadores em todo o mundo.
De acordo com o site oficial do ArXiv (2013) ele é mantido e operado
pela Biblioteca da Universidade de Cornell, com a orientação do Conselho
Científico e Consultivo do ArXiv e o Grupo Consultivo de Sustentabilidade do
ArXiv e, ainda, com a ajuda de numerosos moderadores. As submissões são
revisadas pelos moderadores peritos a fim de verificar se estão adequadas aos
tópicos e seguem os padrões aceitos para comunicação acadêmica, como os
artigos de revistas convencionais. O ArXiv fornece acesso persistente à todas
as submissões em um único local, sem qualquer taxa, com suporte para
usuários ao redor do mundo, e é mantido com um enfoque sobre a
disponibilidade perpétua de submissões.
66
Com a criação do ArXiv foram também criados os termos preprint e
eprint. Segundo Luce (2001) os e-prints podem ser trabalhos inéditos,
preprints, ou trabalhos publicados. Ao contrário dos preprints, os e-prints
podem ser, e frequentemente são, atualizados pelo autor a qualquer tempo,
inclusive após o processo de peer-review. Os servidores de preprints fornecem
uma forma conveniente para os cientistas compartilharem seus resultados com
os seus colegas muito rapidamente, sob a forma de artigos individuais. O
aplicativo ArXiv foi otimizado para permitir que praticamente qualquer
pesquisador com conexões de rede possa acessar e baixar artigos de
interesse, o que proporciona a igualdade de condições para os pesquisadores
em diferentes níveis acadêmicos e em diferentes localizações geográficas. Se
forem feitas alterações em uma nova versão, o arquivo fornece acesso público
às versões anteriores dos artigos submetidos. Portanto, mesmo que a versão
atual de um artigo tenha sido marcada como retirada, as versões anteriores
podem ainda ser reativadas.
Para Ginsparg (2000) cada artigo custa normalmente dezenas de
milhares de dólares em salários para ser produzido, e muito mais em
equipamentos e despesas gerais. Um ponto-chave do meio eletrônico de
comunicação é que, para uma minúscula fração adicional desse montante, é
possível arquivar o artigo e torná-lo disponível gratuitamente para o mundo
inteiro em perpetuidade.
6.3
SOFTWARE LIVRES PARA GERENCIAMENTO DE REPOSITÓRIOS
DIGITAIS E O PAPEL DOS PROVEDORES DE BUSCA NA SUA
DIFUSÃO
Atualmente, pela sua propagação, os repositórios digitais abertos são
responsáveis por disseminar de forma global o conteúdo de milhares de
instituições acadêmicas e de pesquisa, contribuindo assim para a diminuição
das diferenças sociais, visto que este acesso ao conhecimento científico é livre
e gratuito. Dentre vários softwares livres disponíveis no mercado para
gerenciamento de repositórios, dois se destacam pela ampla aceitação que
67
obtiveram mundialmente, formando redes com inúmeras instituições que os
adotaram. São eles Dspace e Open Journal System (OJS), cujas principais
características aparecem descritas a seguir no Quadro 3.
QUADRO 3 - PRINCIPAIS SOFTWARES LIVRES PARA GERENCIAMENTO DE
REPOSITÓRIOS DIGITAIS
Software
Data/Local
Custo/Tempo
Função
Principais características
DSPACE
- 2002
- US$1,8
-Gerenciamento
- Código fonte aberto
milhão
da publicação
- Traz o handle system como
- Financia-
de qualquer
identificador digital
mento das
material
persistente dos objetos
bibliotecas do
bibliográfico em
digitais
MIT
meio digital
- Disponível em mais de 20
- HewlettPackard
(HP)
- MIT
- 18 meses
idiomas
- Mais de 1000 repositórios
no mundo
OJS
- 2002
- University
- US$45 mil
-Gerenciamento
- O OJS está sendo usado,
(versão 1.0) -
da publicação
no todo ou em parte, na sua
2002
de revistas
forma original ou modificada,
online
por mais de 250 revistas para
of British
Columbia
- US$ 110 mil
- site para as
gerenciamento e publicação
- John
(versão 2.0) -
revistas
online.
Willinsky
2005
- submissão do
- Disponível em mais de 20
artigo pelo autor
idiomas
- peer review
- Milhares de revistas e
- gestão dos
centenas de instituições
arquivos;
usuárias
- indexação e
- Origem no projeto Public
de busca dos
Knowledge Project
artigos
(PKP)
- 18 meses
Fontes: DSPACE, 2013; PUBLIC KNOWLEDGE PROJECT, 2013; WILLINSKY, 2005; SMITH
et al., 2003.
Os provedores de conteúdo são os fornecedores de informações na
Web. Estes fornecedores podem ser pessoas físicas ou jurídicas, públicas ou
privadas, como por exemplo pessoas que tenham sites, empresas, sociedades,
68
universidades ou bibliotecas. O conteúdo pode ser desde uma informação
rápida, como um endereço, número de telefone, um dado estatístico, ou um
gráfico, até volumosos relatórios ou resultados de pesquisas em texto completo
de livros ou revistas. A forma pela qual estes conteúdos são disponibilizados
pode ser um site, um blog, uma rede social ou um repositório aberto ou
fechado. Os provedores de conteúdo tambem são os repositórios digitais
abertos. Os provedores de serviço são as organizações e software
responsáveis por agregar valor à busca na Web, por meio de protocolo que
permite uma única consulta, de forma simultânea à vários repositórios abertos
e dispersos, trazendo um resultado do coletivo destes repositórios.
Os provedores de busca, ou simplesmente buscadores, são também
provedores de serviço, responsáveis pelos motores de busca disponibilizados
pelos sites que fazem as buscas em toda a Web. As editoras do oligopólio
usam buscadores próprios para fazer a varredura no conteúdo de seus
repositórios digitais fechados, enquanto os repositórios digitais abertos
dependem dos buscadores disponíveis gratuitamente no mercado, para que
seus usuários possam chegar ao conteúdo que guardam. Alguns destes
buscadores gratuitos, como Google e Yahoo!, implementaram o protocolo OAIPMH para a coleta de metadados nos repositórios abertos, aumentando assim
a precisão da busca, trazendo resultados mais próximos ao desejado pelo
usuário. Com isto geraram externalidades de rede para os repositórios abertos,
ampliando sua difusão e uso.
6.4
H INDEX, G INDEX E OUTROS FATORES DE IMPACTO FORA DO
OLIGOPÓLIO DAS EDITORAS
Desde que o termo Fator de Impacto (FI) foi criado por Eugene Garfield
em 1955 (GARFIELD, 2006), com o passar dos anos, passou a ser usado de
forma genérica para o índice de impacto das citações, referindo-se a qualquer
fator de impacto, de um autor, ou de qualquer material bibliográfico. O impacto
de citação (Citation Impact) é uma contagem do número de citações para um
artigo. A média do impacto de citação por artigo pode também ser usada para
coleções, autores, periódicos, instituições, etc. Até o início dos anos de 2000 só
69
haviam no mercado os índices de impacto controlados pelas editoras
comerciais que detém o oligopólio das publicações científicas, mas a partir daí,
vários outros instrumentos foram criados e disponibilizados no mercado, como
alternativa para pesquisadores, editores e instituições que necessitam avaliar a
qualidade das publicações. Para Mugnaini e Strehl (2008, p. 94) "outras bases
de dados que indexam citações têm surgido e estão disputando o espaço do
ISI no ramo de produção de informações para medida de impacto das
publicações científicas". Dentre estes instrumentos de medição do impacto
estão o Citebase, de 2001 (BRODY, 2003); h index de 2005 (HIRSCH, 2005);
G-Index de 2006 (EGGHE, 2006), o GSC e o GSM do Google Scholar (Google
Scholar, 2013). E foi desenvolvido e disponibilizado no mercado, de forma
gratuita, o software Publish or Perish, que permite calcular e acompanhar o
impacto usando todos estes instrumentos acima citados (PUBLISH OR
PERISH, 2013).
O projeto OpCit (The Open Citation Project - Reference Linking and
Citation Analysis for Open Archives), de acordo com o site OpCit (2013), é um
projeto de P&D que durou três anos, de outubro de 1999 até o final de 2002 e
foi financiado
pela
NSF-JISC
International Digital Libraries Research
Programme. O OpCit teve como centros de P&D as Universidades de
Southampton (Reino Unido), e de Cornell (EUA), e teve dentre os seus
parceiros e colaboradores as seguintes instituições: Los Alamos National
Laboratory, Research Library; Highwire Press (USA); American Physical
Society; International DOI Foundation; Dublin Core Working Group on
Bibliographic Citations; CrossRef, Publishers International Linking Association,
Inc. (PILA); e BioMed Central (UK). Um dos produtos deste projeto foi o
desenvolvimento da ferramenta Citebase para a análise de impacto de citação
e referência vinculando arquivos de acesso aberto OAI em grande escala.
O Citebase foi criado por Tim Brody, da Universidade de Southampton,
Reino Unido. De acordo com Brody (2003) o Citebase Search é uma base de
dados de citações autônoma para arquivos e-print. É um serviço Web que
colhe artigos on-line de pesquisa, artigos pré e pós peer-reviewed. O Citebase
analisa as referências a partir do texto completo e estabelece uma ligação
entre as citações e os artigos citados. O Citebase foi anunciado pela primeira
vez em dezembro de 2001 e foi integrado ao arXiv.org em agosto de 2002,
70
recebendo um número considerável de usuários que começaram a usá-lo. O
Citebase é derivado do Projeto Opcit e do Open Archives Initiative. A
interoperabilidade do OAI permitiu desenvolver um motor de busca de arquivos
cruzados com a capacidade de coleta e análise de links de pesquisa dos
artigos. Esses links de citação criam um banco de dados de citação clássica,
que é usado para gerar a análise de citações e de navegação sobre a literatura
ePrint.
Para Ruiz, Greco e Braile (2009, p. 275) "o índice h é outro índice
bibliométrico que tem o objetivo de quantificar a produtividade e o impacto de
cientistas baseado nos seus artigos mais citados. O objetivo do índice é
estimar a produtividade e o impacto de um ou mesmo de um grupo de
cientistas." Em 2005 Jorge E. Hirsch, professor argentino de física na
Universidade da Califórnia, propôs um novo índice de citações para mensurar o
impacto da produção do autor. De acordo com Hirsch (2005), a proposta foi de
haver um único número, o h index, como uma forma particularmente simples e
útil para caracterizar a produção científica de um pesquisador. Hirsch está
entre os 250 pesquisadores mais citados de acordo com a lista dos
pesquisadores altamente citados identificados pela Thomson Reuters entre os
anos de 2000 e de 2008 (THOMSON REUTERS, 2013).
Para Costas e Bordons (2007) a ampla difusão do indíce h na
comunidade científica foi propiciada por duas de suas principais vantagens: o
fato de combinar uma medida de quantidade e impacto num só indicador
superando as contagens brutas de documentos e citações e, sobretudo, sua
simplicidade de cálculo. Para Bornmann e Marx (2011) o índice h foi proposto
como uma alternativa a outros indicadores bibliométricos como citações por
artigo, visto que medir a qualidade da pesquisa científica torna-se ainda mais
importante em um tempo no qual os cientistas competem cada vez mais por
recursos limitados. Atualmente, o índice h é usado para medir a produção de
pesquisa não só dos cientistas, mas também de grupos de pesquisa, de
instalações científicas, e países. Até o final de 2010, o artigo de Hirsch sobre o
h index foi citado aproximadamente 660 vezes, o que reflete a sua
popularidade. Para Ayçaguer (2012) as alternativas baseadas no h index
abriram caminho para o g-index de Leo Egghe, o GSC do Google Scholar, e o
Google Scholar Metrics (GSM), também do Google Scholar.
71
Em 2006, Leo Egghe, professor da Universidade de Hasselt, Bélgica,
propôs o índice de citações chamado g-index. De acordo com Egghe (2006), o
g-index foi introduzido como uma melhoria do índice h de Hirsch para medir o
desempenho da citação global de um conjunto de artigos. Segundo ele, o gindex herda todas as boas propriedades do h-index e, além disso, leva em
conta as notas de citação dos artigos de topo. Isso gera uma melhor distinção
entre a ordem dos cientistas, do ponto de vista da visibilidade. Rousseau
(2006) propõe alguns modelos de relação entre o índice de Hirsch e o índice de
Egghe; e Schreiber (2008) enfatiza que a influência das auto-citações parece
ser mais significativa para o g-index do que para o h-index, e diz que as autocitações podem ser muito significativas e devem ser excluídas. No Brasil surgiu
o Shine (Simple HINdex Estimation), que de acordo com seu site SHINE (2013)
é um projeto e parte da iniciativa chamada Perfil-CC SBC (Sociedade Brasileira
de Computação), que avalia as principais conferências internacionais da área
de computação, usando como índices de impacto o h-index e o GSC numa
fórmula própria.
O fator de impacto GSC, criado pelo Google, pode ser considerado
como uma alternativa ao fator de impacto que é definido pelas editoras
oligopolizadas. O Google traz nos seus resultados os metadados do objeto
digital e o link para acessar este objeto. Quando o link é permanente, e quando
o objeto digital, neste caso, um texto técnico-científico, está disponibilizado
como Copyleft ou como licença Creative Commons, o leitor poderá acessar
este texto, baixá-lo, lê-lo, e poderá citá-lo, o que será computado no fator de
impacto do Google.
Segundo o site do Google Scholar (2013) o índice de citações do
Google Acadêmico oferece aos autores uma forma simples de acompanhar as
citações de seus artigos. O autor pode verificar quem cita suas publicações,
visualizar gráficos de citações ao longo do tempo e avaliar diversas métricas de
citação. Para Mugnaini e Strehl (2008, p. 99-100) um
diferencial do GA (Google Acadêmico) está na indexação das
referências bibliográficas feitas nos trabalhos. Funcionando como um
índice de citações, o GA interliga os diversos documentos a partir de
suas referências, revelando uma rede de conexões entre publicações
afins.
E, ainda,
72
mesmo estando longe de ser pioneiro na indexação das citações, o
GA tem revelado uma faceta até então desconhecida do impacto das
publicações,
considerando
que
indexa
documentos
não
contemplados por outras bases de dados. Dessa maneira, alguns
indicadores, tradicionalmente obtidos para os principais periódicos
internacionais, agora podem ser gerados para tipos de materiais
pouco indexados, como livros e anais de congressos, e para os
periódicos dos países em desenvolvimento, que sempre estiveram à
margem do esquema das grandes editoras comerciais.
De acordo com o site do Google Scholar (2013) o Google Scholar
Metrics fornece uma maneira fácil para os autores avaliarem rapidamente a
visibilidade e influência de artigos recentes em publicações acadêmicas. O
GSM traz citações recentes para muitas publicações, a fim de ajudar os
autores a considerar onde publicar sua nova pesquisa. Traz as 100 melhores
publicações por área, em vários idiomas, ordenadas por seus cinco anos de hindex e métricas h-medianas.
De acordo com o seu site, o Publish or Perish (2013) é um software
que recupera e analisa citações acadêmicas. Ele usa o Google Scholar para
obter as citações primas, que são analisadas e depois apresenta um conjunto
de métricas. Ele roda em Microsoft Windows, Apple Mac OSX e sistemas
GNU/Linux. O Publish or Perish é gratuito e disponibilizado pela Harzing.com, o
site de Anne-Wil Harzing, professora de gestão Internacional da Universidade
de Melbourne, na Austrália. Este site fornece informações, documentos e
recursos on-line sobre as áreas de pesquisa. Ele também apresenta recursos
para ajudar na avaliação da qualidade da pesquisa e do periódico, bem como o
software para realizar a análise de citação. Para Mugnaini e Strehl (2008, p.
101) "as estatísticas do ―Publish or Perish‖ são tão acessíveis e simples que
podem constituir uma ameaça para os sistemas de avaliação da produção
científica."
De acordo com Garfield (2006) atualmente existem novas métricas
chamadas de Webometrics se interpondo no jogo das medidas de citação e,
embora haja pouca evidência de que esta abordagem é melhor do que a
análise de citações tradicional, alguns estudos limitados indicam que esta Web
citation é um prenúncio do futuro da citação. Um exemplo é o Webometrics
Ranking of World Universities (2013), uma iniciativa do Cybermetrics Lab, um
grupo de pesquisa pertencente ao Consejo Superior de Investigaciones
Científicas (CSIC), o maior orgão público de investigação da Espanha. Dentre
as áreas de atuação do Webometrics pode-se citar o desenvolvimento de
73
indicadores da Web para serem aplicados nas áreas da Espanha, Europa,
America Latina, e de P&D mundial; estudos quantitativos sobre a comunicação
científica por meio de revistas eletrônicas e repositórios, o impacto das
iniciativas de acesso aberto; e o desenvolvimento de técnicas aplicadas à
cibermetria baseadas no posicionamento dos motores de busca nos domínios
Web.
A Figura 6 ilustra o mercado aberto dos índices de impacto, criados em
alternativa ao fator de impacto controlado pelo oligopólio, a sua relação com os
pesquisadores que necessitam publicar o resultado de suas pesquisas, e a sua
relação com os repositórios onde estas métricas são usadas para fazer a
análise das citações, e também com o Google, responsável pela busca do
conteúdo a ser analisado.
FIGURA 6 - O MERCADO ABERTO DOS ÍNDICES DE IMPACTO
Fonte: O autor, 2013.
Síntese Conclusiva:
74
O ArXiv, assim como os outros repositórios digitais abertos, que
surgiram depois dele, são as ferramentas usadas para publicação da produção
científica das universidades e instituições de pesquisa do mundo de forma
alternativa. Estas ferramentas foram as responsáveis por fazer com que
milhares de pesquisadores no mundo tivessem uma forma livre e gratuita para
comunicar o resultado de seus trabalhos. Da mesma forma, a difusão do
conteúdo dos repositórios foi impulsionada pelos provedores de serviço e de
busca, e o aumento da visibilidade do conteúdo dos repositórios levou alguns
pesquisadores a desenvolverem ferramentas para medir o impacto deste
conteúdo no meio acadêmico. Todos estas métricas de impacto apontadas,
mostram a preocupação e o esforço de muitos cientistas em criar e colocar no
mercado, de forma gratuita, alternativas à medição do impacto tradicional,
controlado pelas editoras científicas. Assim, os repositórios abertos auxiliados
por buscadores gratuitos, e somados a índices de impacto também gratuitos,
usados para a avaliação de seu conteúdo, se propagaram globalmente
gerando as externalidades de redes.
A seguir será mostrado como o Google evoluiu para se tornar o
buscador mais utilizado no mundo, e como foram geradas as externalidades de
rede positivas e negativas.
75
7
A PROPAGAÇÃO E PROLIFERAÇÃO DOS REPOSITÓRIOS DIGITAIS
ABERTOS
O Google tornou-se um instrumento fundamental para o acesso ao
conteúdo dos repositórios digitais abertos, visto que implementou o padrão OAI
em sua busca e, por meio do Google Scholar, traz resultados condizentes à
busca por material científico feita pelo leitor. O uso de software e padrões
abertos fez com que os repositórios digitais abertos gerassem externalidades
de rede positivas. Assim, mais instituições criaram seus repositórios próprios,
mais benefícios foram gerados às instituições participantes da rede, e hoje são
milhares de instituições acadêmicas e de pesquisa a difundirem o conteúdo
científico que produzem. Entretanto, como será visto neste capítulo, as
externalidades geradas não foram somente positivas. Algumas editoras e
periódicos avulsos se camuflaram com o rótulo de repositórios abertos, open
access, mas em realidade se constituem em elementos predatórios no
mercado das publicações abertas e no conceito de open access.
7.1 A DOMINÂNCIA DO GOOGLE NO MERCADO DE PROVEDORES DE
BUSCA
Em aproximadamente dez anos o Google obteve a dominância do
mercado de provedores de busca. A rápida expansão do Google se deu por
meio de vários desdobramentos em seu serviço de busca, como a criação do
Google Scholar, e o lançamento de novas ferramentas e serviços a partir do
Google Scholar, como o GSC e o GSM. Assim, tornou-se indispensável aos
pesquisadores do mundo todo usar a internet como o meio digital onde se
localiza o conteúdo, e o Google como a ferramenta mais capaz de encontrar e
recuperar o texto desejado, em meio à bilhões de textos que formam o
conteúdo global da rede.
Os fundadores do Google, Brin e Page (1998), lançaram o protótipo do
Google em 1998 como um motor de busca em larga escala, capaz de fazer uso
pesado da estrutura presente em hipertexto. Segundo eles, o Google foi
projetado para rastrear e indexar a Web de forma eficiente e produzir
76
resultados de busca muito mais satisfatórios do que os sistemas existentes à
época. Com um banco de dados de hyperlink com texto completo em 24
milhões de páginas, o protótipo foi disponibilizado no domínio da Universidade
de Stanford, no endereço http://google.stanford.edu/7, visto que os dois autores
eram doutorandos de informática nesta universidade.
Com o tempo, o que começou como um projeto universitário tornou-se
uma grande empresa com um crescimento impressionante. Isto chamou a
atenção de empresas como a AOL/Netscape, que selecionou o Google como
seu mecanismo de pesquisa, e o fez ultrapassar os 3 milhões de buscas por
dia. Em 1999, recebeu US$ 25 milhões de dois importantes investidores:
Sequoia Capital e Kleiner Perkins Caufield & Buyers.
De acordo com Keese (2011) as editoras de jornais e revistas estão
particularmente preocupadas com a concorrência desleal de sites de busca online e por este motivo algumas associações européias de editoras,
apresentaram uma queixa formal à União Europeia contra o Google, por abuso
de posição dominante no mercado em relação a busca, da qual destacam-se a
seguir as principais argumentações feitas. O movimento reflete uma profunda
preocupação sobre a prática continuada do Google de favorecer seus próprios
produtos de outros mercados, tais como mapas, listas de filmes, de
comparação de preços ou de informação de viagens, ao dar a si mesmo
posições elevadas indevidas e injustificadas no ranking dos resultados das
buscas. O motor de busca Google, não só domina o mercado de buscas, mas
também é um serviço essencial para a participação em mercados on line e não
pode ser duplicado. O Google opera este serviço essencial (bottleneck facility)
e, ao mesmo tempo, oferece serviços que dependem dele (mercados
adjacentes). Esta expansão vertical cria para o Google um incentivo econômico
para classificar seus produtos em uma posição mais elevada do que os
produtos dos seus concorrentes.
Também, de acordo com Keese (2011), as editoras solicitaram
particularmente que o Google forneça seu serviço de indexação para todos os
7
O nome Google, dado ao buscador, deveu-se a sua grafia, semelhante a da palavra googol,
que em inglês significa 10100, ou 10 elevado à 100, que se encaixava no objetivo de construir
um motor de busca de larga escala. Para os autores do Google, a tecnologia do motor de
busca teve que escalar dramaticamente para acompanhar o crescimento da Web.
77
operadores dos sites Web em condições idênticas às dos seus próprios
serviços, considerando que: o Google não pode exibir o seu próprio conteúdo
em uma posição melhor do que o dos provedores de conteúdo equivalentes; o
Google deve assegurar uma pesquisa objetiva, transparente e livre de
arbitrariedade em todos os aspectos; o google ganha mais de cinco vezes o
que todas as editoras ganham juntas com publicidade online; a base para o
modelo de negócios do Google e os lucros gerados por este modelo são a
exibição de conteúdo que foi produzido por outras empresas. E, ainda, devido
ao poder de mercado que detém, os provedores de conteúdo não podem evitar
os obstáculos e a exploração, por parte do Google. Isto de maneira alguma se
aplica exclusivamente às editoras, se aplica também a toda a produção de
conteúdos da indústria da mídia. A maioria das empresas não acredita ser
capaz de evitar sozinha o dano causado pelo sistema Google. Como
conseqüência da extrema importância da busca Google, como um filtro padrão
na internet, elas são dependentes da inclusão e reprodução justas de seus
endereços na Web, no índice do Google e, portanto, dependentes do Google.
O modelo de negócios do Google, portanto, não é baseado em
filantropia ou benefício social. Ele oferece serviço de busca gratuita para o
usuário final, ao mesmo tempo em que gera lucros por meio da publicidade
online.
A empresa de otimização de sites e marketing na internet Bruce Clay,
Inc. disponibilizou em seu site o histograma dos relacionamentos dos motores
de busca desde o ano de 2000 até o ano de 2011 (BRUCE CLAY, INC 2013).
Os relacionamentos de dados entre os motores de busca existentes no
mercado, no ano de 2000 e no ano de 2011, são mostrados nas Figuras 7 e 8,
e apontam particularmente, para efeitos deste trabalho, para o volume de
buscadores disponíveis no mercado. A diferença da quantidade de buscadores
caiu drasticamente neste período de pouco mais de uma década, com o gráfico
de 2011 revelando a existência de uma enorme concentração de mercado
nesta área, com a clara dominância do Google.
78
FIGURA 7 - MERCADO DOS BUSCADORES EM NOVEMBRO DE 2000
Fonte: Bruce Clay, INC 2013.
FIGURA 8 - MERCADO DOS BUSCADORES EM NOVEMBRO DE 2011
Fonte: Bruce Clay, INC 2013.
79
7.2 A REDE DOS REPOSITORIOS DIGITAIS ABERTOS (OPEN ACCESS) E
SUAS EXTERNALIDADES
Com a oferta de software livres com código fonte aberto para a criação
de repositórios e a difusão do movimento do Open Access, muitas centenas de
instituições de ensino e pesquisa no mundo foram criando repositórios
institucionais para garantir a difusão dos conteúdos científicos gerados dentro
delas. E, em decorrência, foram surgindo externalidades positivas pelo uso
comum dos padrões tecnológicos como o OAI, ou pela colaboração no
desenvolvimento de práticas comuns às instituições participantes das redes de
repositórios, que foram se formando. Um exemplo é a Federação de
Bibliotecas Digitais.
De acordo com seu site, a Digital Library Federation (2013) - DLF serve como um recurso e um catalisador para a colaboração entre os
desenvolvedores de biblioteca digital, gerentes de projeto e todos os que
investem em questões de bibliotecas digitais. A DLF promove os seguintes
trabalhos:
normas
para
a
Biblioteca
Digital,
melhores
práticas
de
gerenciamento de dados de pesquisa, de serviços de conservação de acervos
digitais, e a agregação dos serviços da biblioteca digital que ampliam o acesso
aos recursos digitais para a pesquisa, para o ensino e para a aprendizagem. A
DLF conta com dezenas de instituições participantes de renome, dentre as
quais pode-se citar: Cornell University; Columbia University; Harvard University;
Library of Congress; Los Alamos National Laboratory Research Library;
Stanford University; The University of British Columbia e Virginia Tech.
De acordo com o relatório da European Commission (2006), protocolos
padrões de interoperabilidade, tais como o OAI-PMH, devem ser promovidos
para permitir a procura em todas as plataformas e permitir novos serviços
orientados para o usuário, visto serem construídos e fornecidos pela
comunidade de pesquisa. Como muitas normas e novas tecnologias foram
desenvolvidas, a colaboração e a normalização são essenciais para aumentar
a interoperabilidade entre sistemas e plataformas, a fim de: facilitar a eficiente
disseminação de conteúdo acadêmico, melhorar a sua visibilidade, abrir o
acesso a uma ampla gama de conteúdos digitais e garantir a sua preservação
a longo prazo. As redes de repositórios foram criadas para promover o
80
intercâmbio de conhecimento e promover a utilização das TIC no âmbito da
investigação e ensino superior. Apoiar a colaboração, promover as boa práticas
e a utilização de padrões e protocolos de interoperacionalidade, no processo
de publicação, pode caber em sua missão. As novas tecnologias possibilitam o
desenvolvimento de formas alternativas de divulgação e intercâmbio de
informações científicas livremente e de forma eficiente, bem como a criação de
novos modelos de negócios para oferecer acesso aberto a revistas, por
exemplo, com a cobrança de uma taxa de publicação (o modelo autor paga).
A partir de iniciativas isoladas, o movimento em favor do acesso aberto
à informação científica ganhou escala através da mobilização de grupos de
pesquisadores e bibliotecas, do desenvolvimento dos repositórios com arquivos
de acesso aberto, e as recentes políticas de órgãos de financiamento de
pesquisa sobre o acesso aos resultados das pesquisas. Algumas instituições
recomendam ao seus pesquisadores que publiquem em periódicos de acesso
aberto e depositem os artigos resultantes da pesquisa financiada, em um
repositório de acesso aberto. Espera-se que essas políticas contribuam para
uma forma mais equilibrada de contratos de direitos autorais e, indiretamente,
contribuam para introduzir a concorrência entre os editores sobre o valor social
que proporcionam à comunidade de pesquisa. Como a avaliação do impacto
dos pesquisadores é também sobre os meios de divulgação desses
pesquisadores, as agências de fomento de pesquisa têm um papel central na
determinação da prática de publicação dos pesquisadores, e atitudes para
formas alternativas de publicação (EUROPEAN COMMISSION, 2006).
Para Suber (2005) a grande divisão na publicação científica atual é
entre o acesso aberto aos artigos, isto é, aqueles disponíveis gratuitamente na
internet, e os de acesso não aberto, aqueles para os quais o leitor tem que
pagar a fim de obter o acesso aos mesmos. Uma lição é que o acesso aberto
existente é dirigido pela demanda em algum grau. Mas isso não significa que
há pouca ou nenhuma demanda insatisfeita. Autores com artigos em revistas
de alto impacto já têm relativamente grandes audiências, mas podem estar
buscando um público maior, visto que artigos de acesso aberto chegam a um
conjunto muito maior de leitores do que qualquer revista paga. Ou podem estar
praticando o que os estudiosos chamam de mídia "push", trazendo seu
trabalho para a atenção de quem talvez não soubesse nada sobre o assunto
81
tratado, mesmo que já tivessem livre acesso on-line a ele. Também, é possível
que muitas dessas cópias on-line gratuitas tenham sido publicadas pelos
leitores, e não pelos autores, e, ainda, que algumas revistas depositem seus
próprios artigos em repositórios de acesso aberto para assegurar a sua
preservação e acessibilidade em longo prazo.
Segundo o relatório da Comissão Européia existem dados recentes
que sugerem que os artigos publicados em revistas de acesso aberto são mais
citados do que artigos em outras revistas. Este resultado é consistente tendo
em vista que o custo de acesso zero para os leitores devem aumentar a
difusão. Isto é verdade para o atual sistema de leitor-pay pelo qual os autores
não pagam pelo serviço de certificação fornecido pelos editores, no entanto,
neste caso, os efeitos de rede beneficiam os editores que podem atrair um
grande número de autores, isto é, que têm uma grande carteira de revistas. No
sistema author-pay, todos os pesquisadores são potenciais leitores, e esse
efeito de rede beneficia todos os periódicos e todas as editoras, às vezes
independentemente da sua carteira. Isto sugere que o sistema author-pay pode
facilitar a entrada no mercado, limitando a vantagem competitiva dada pelos
editores com grandes carteiras (EUROPEAN COMMISSION, 2006).
Segundo o site da P2P Foundation (2013), organização que acata os
princípios desenvolvidos pelo movimento de software livre, ao discutir o modelo
de publicação pago pelo autor (Author Pay Model), ressalta que este é um dos
modelos para a publicação de acesso aberto através do qual o autor, ou o
instituto no qual um autor está incorporado, paga o custo de publicação de um
artigo científico. Às vezes é mostrado como a única alternativa aos modelos de
publicação comerciais. Devido a questão da equidade do autor, que não pode
se dar ao luxo de pagar essas taxas, este conceito é, portanto, considerado
enganoso por especialistas em acesso aberto, como Peter Suber, que comenta
no site da P2P Foundation (2013) que isto seria assumir que existe apenas um
modelo de negócio para revistas open access (OA), quando há muitos. Menos
da metade das revistas OA de hoje (47%) cobram taxas do lado do autor.
Equando revistas OA cobram taxas, as taxas são normalmente pagas pelos
patrocinadores do autor (empregadores ou financiadores), ou renunciadas, e
não pagas por autores do próprio bolso.
82
Quando revistas OA cobram essas taxas, são taxas "do lado do autor"
e não "taxas de autor", uma vez que devem ser pagas por alguém do lado da
transação do autor, como um financiador ou empregador, ao contrário de
alguém do lado do leitor na transação, como uma biblioteca. Os principais
pontos são os seguintes: a maioria das revistas OA não cobra nenhuma taxa
do lado do autor, e para a minoria que não, os honorários são geralmente
pagos por patrocinadores, ou são exonerados. Assim, os autores raramente
pagam do próprio bolso. Em longo prazo, como o OA prevalecerá, as revistas
OA poderão ser pagas com as economias do cancelamento, conversão ou
morte dos periódicos baseados em assinaturas não-OA. Então, a situação de
hoje, na qual os autores raramente pagam do próprio bolso, passará para uma
situação em que eles nunca o fazem. Revistas não-OA cobram taxas do lado
do autor mais do que revistas OA. Portanto, se há um efeito de excluir os mais
pobres, as revistas não-OA são mais frequentemente culpadas do que as
revistas OA (P2P FOUNDATION, 2013).
Os repositórios digitais abertos e o movimento do open access também
geraram no mercado externalidades negativas, que deturpam o modelo OA
quando o acesso ao conteúdo não é livre e gratuito, e são cobradas altas taxas
dos autores no modelo autor-paga e, ainda, quando este pagamento por si só é
a garantia da publicação, sem revisão por pares ou outros mecanismos que
garantam a qualidade e a ausência de plágio do conteúdo. Um exemplo disto é
a proliferação de falsas editoras de acesso aberto, ou as chamadas editoras e
revistas predatórias, termo empregado por Jeffrey Beall, bibliotecário da
Biblioteca Auraria, da Universidade do Colorado, Denver, que monitora o
comportamento destas editoras e periódicos existentes, e a criação de novos.
Para Beall (2012b) quando o e-mail se tornou disponível, foi uma
grande inovação feita por uma comunicação rápida e barata. Então vieram os
spams e, de repente, a inovação não foi considerada tão grande. Isso
significava ter que filtrar mensagens irrelevantes, enganosas e por vezes
ofensivas. A mesma corrupção em uma grande ideia está ocorrendo com a
publicação acadêmica de acesso aberto. Esta criação de mais de uma década
atrás, ajudou a inspirar um movimento social que mudou publicações
acadêmicas para os melhores custos reduzidos, e o acesso às últimas
pesquisas, expandido-o em todo o mundo. Então vieram as editoras
83
predatórias, que publicam revistas falsificadas para explorar o modelo de
acesso aberto, no qual o autor paga. Estas editoras predatórias visam enganar
os pesquisadores, especialmente aqueles sem experiência em comunicação
científica, montaram sites que se assemelham aos das legítimas editoras on
line, mas publicam revistas de questionável ou franca baixa qualidade.
Estas editoras, segundo Beall (2012b), estão localizadas no Paquistão,
na Índia e na Nigéria. Algumas delas solicitam os manuscritos mas não
mencionam a taxa de autor exigida. Mais tarde, após o trabalho ser aceito e
publicado, os autores são faturados com as taxas, normalmente no valor de
US$ 1.800. Os cientistas freqüentemente repassam seus direitos autorais,
como parte do processo de submissão (contra o espírito do livre acesso) e, por
isto, sentem-se incapazes de retirar o artigo e enviá-lo à outro lugar. Há
periódicos dispostos a aceitar quase todos os artigos, desde que o autor esteja
disposto a pagar a taxa. Na Índia, novos editores ou revistas predatórias
surgem a cada semana, e estão aparecendo devido a necessidade de publicar
de centenas de milhares de cientistas.
Portanto, o problema, segundo Beall (2012b), não é apenas com as
editoras, os próprios cientistas também são culpados. Muitos estão tomando
atalhos antiéticos e pagando para a publicação de trabalhos plagiados ou autoplágio. Para competir no mercado, legítimos editores de acesso aberto estão
sendo forçados a prometer tempos mais curtos de submissão para a
publicação, o que enfraquece o processo de revisão por pares, que leva tempo
para ser feito de forma adequada. Para resolver o problema, os cientistas
devem resistir à tentação de publicar rapidamente e facilmente. Algumas
destas editoras predatórias podem ser descobertas sem muito esforço porque
seus sites estão cheios de erros gramaticais e listam contatos falsos. Beall
(2012a) diz que em 2012 haviam 23 editoras, e em 2013 o numero ultrapassou
225.
A
lista
é
atualizada
no
blog
Scholarly
Open
Access
(http://scholarlyoa.com).
A inserção dos repositórios abertos no movimento do software livre e o
relacionamento destes repositórios com o Google e com os padrões
tecnológicos, ambos responsáveis pela geração das externalidades de redes
dos repositórios, é ilustrado na Figura 9 abaixo, conforme descrito neste
capítulo.
84
FIGURA 9 - AS EXTERNALIDADES DE REDE DOS REPOSITÓRIOS DIGITAIS ABERTOS
Fonte: O autor, 2013.
Síntese conclusiva:
Embora os repositórios abertos tenham apresentado esta externalidade
de rede negativa, com a proliferação crescente de editoras e periódicos que
deturpam o conceito do open access no mercado das publicações, procurou-se
mostrar que no cômputo geral, as externalidades positivas são predominantes,
visto que existem centenas de repositórios de instituições conhecidas e
respeitadas no mundo todo. Os repositórios abertos continuam sendo o meio
pelo qual os pesquisadores podem publicar de forma alternativa e adequada
para o meio acadêmico e científico, dentro da filosofia do open access. Cabe
aos pesquisadores verificar a procedência de uma editora ou periódico antes
de decidir submeter seu artigo. No próximo capítulo serão abordadas as ações
por parte das editoras do oligopólio, contrárias as publicações de acesso aberto
e ao Google, e também as ações de pesquisadores em todo o mundo, contra o
controle que as editoras do oligopólio detêm sobre as publicações científicas e
sobre o fator de impacto destas publicações.
85
8
UMA ALTERNATIVA DE CONTRAPOSIÇÃO AO OLIGOPÓLIO DAS
EDITORAS CIENTÍFICAS
Até há alguns anos atrás só existiam no mercado das publicações os
instrumentos de medição do impacto pertencentes ao oligopólio das editoras.
Entretanto, como contraposição a esta situação, foram surgindo no mercado
novas ferramentas com disponibilização livre e gratuita na internet, para a
medição do impacto das publicações abertas e que permitem questionar se o
maior índice de impacto permanece nas publicações sob o domínio do
oligopólio, ou se atualmente as publicações abertas alcançaram visibilidade e
impacto suficientes para fazerem frente a este oligopólio. Da mesma forma, os
repositórios digitais abertos, ao contarem com o Google Scholar para trazer a
tona para os leitores o seu conteúdo, começam a preocupar as editoras
científicas que mantêm o oligopólio das publicações. Esta preocupação se
materializou especialmente nas ações tomadas contra o movimento do open
access e contra o Google, conforme será visto neste capítulo.
8.1
ÍNDICE DE IMPACTO DAS PUBLICAÇÕES PRIVADAS VERSUS
PUBLICAÇÕES ABERTAS
A literatura sobre o indíce de impacto das publicações abertas, e com
comparações entre o impacto das publicações abertas e fechadas, e sobre as
métricas usadas para esta comparação, ainda é incipiente. Os estudos
encontrados, que serão abordados a seguir, referem-se à análises pontuais,
como a comparação do impacto das publicações existentes, tanto no
repositório da Thomson quanto no ArXiv, o boicote dos pesquisadores ao fator
de impacto da Thomson, e o ranking de publicações abertas medido pelo
Google.
Para Ruiz, Greco e Braile (2009, p. 275)
o FI como uma simples medida de qualidade das revistas, ao longo
do tempo passou a ser utilizado como uma ferramenta acadêmica de
avaliação de produtividade e também para obtenção de fundos.
Assim, governos e agências de fomento de diversos países passaram
a utilizar o FI como instrumento de decisão para alocação de recursos
aos pesquisadores. Em suma, tornou-se um guia de política científica.
86
De acordo com Butler (2008) a internet, como uma base de dados
aberta, está permitindo aos usuários gerar estatísticas de citação de trabalhos
de pesquisa publicados gratuitamente. O acesso aberto está cooperando com
gigantes como a Elsevier, colocando dados de suas publicações na base do
Scopus, um banco de dados de resumos criado pela Elsevier em 2004. A
Elsevier também detém o banco de dados The SCImago Journal & Country
Rank, que faz a análise dos dados contidos no Scopus, relativa a mineração
dos dados das universidades de Granada, Extremadura, Carlos III e Alcalá de
Henares, todas na Espanha. Este banco de dados classifica periódicos e
países que utilizam métricas de citação como o H Index, e também inclui uma
nova métrica: o SCImago Journal Rank (SJR). É difícil comparar os resultados
das análises do SJR com outros fatores de impacto, porque os bancos de
dados sobre os quais cada um se baseia são diferentes.
A Web of Science da Thomson, base de dados de resumos, abrange
cerca de 9.000 revistas e a Scopus mais de 15.000. A Thomson tem desfrutado
de um monopólio sobre os números de citações por ano, e seus produtos de
assinatura incluem o Web of Science, o Journal Citation Report e o Essential
Science Indicators. Entretanto, encontram-se em debate com a Thomson
pesquisadores que querem uma maior transparência sobre a forma como as
suas métricas de citação são calculadas e sobre os conjuntos de dados
utilizados (BUTLER, 2008). Em um editorial publicado no Journal of Cell
Biology, em dezembro, Mike Rossner8, chefe da Rockefeller University Press, e
colegas, disseram que suas análises dos bancos de dados fornecidos pela
Thomson apresentaram valores diferentes para as métricas daqueles
publicados pela empresa. E a Thomson lançou um fórum Web para responder
formalmente a este editorial9.
Segundo Butler (2011) a Google e a Microsoft estão lançando as
ferramentas gratuitas, Google Scholar Citations e Microsoft Academic Search,
que permitem aos pesquisadores analisar estatísticas de citações, visualizar
redes de pesquisa e acompanhar os campos de pesquisa mais produtivos. Os
sistemas podem ser atraentes para cientistas e instituições que não
conseguem pagar plataformas de métricas existentes, tais como a Web of
8
M. Rossner et al. J. Cell Biol., v. 179, 1091-1092, 2007.
9
Ver http://scientific.thomson.com/citationimpactforum
87
Knowledge da Thomson Reuters e o banco de dados Scopus da Elsevier.
Segundo ele, o Google Scholar já indexou muito mais da literatura do que a
Microsoft, ou a Web of Knowledge ou o Scopus. Entrevistado por Butler (2011)
Anurag Acharya, engenheiro do Google por trás do Google Scholar e de seu
novo sistema de métricas, diz que considera satisfatório que os logs do
servidor do Google Acadêmico revelem o uso difundido por pesquisadores nos
países mais pobres, onde os serviços comerciais são muitas vezes
indisponíveis.
Ayçaguer (2012) ressalta que o Google Scholar Metrics (GSM) inclui
artigos de periódicos dos sites indexados pelo Google Scholar, qualquer que
seja a língua em que foram escritos, bem como documentos apresentados em
encontros e preprints, e exclui patentes, livros e dissertações. A lista GSM
abrange revistas científicas geradas em qualquer área do conhecimento. Em
agosto de 2012, duas revistas cubanas apareceram na lista das 100 mais
destacadas do mundo publicadas em castelhano, e ambas sendo do campo da
saúde: a Revista Cubana de Salud Pública (30º lugar) e a Revista Cubana de
Información en Ciencias de la Salud, ACIMED (47º lugar). Isto mostra não
haver dúvida de que o mundo está constantemente em movimento
cienciométrico. Os recursos convencionais vertebrados em torno do que foi o
ISI, e agora entrincheirados nas regras impostas pela Thomson Reuters são
insuficientes para facilitar o intercâmbio entre cientistas de língua estrangeira e
medir o seu impacto com transparência. Nem o Google Scholar e o h index, ou
a combinação de ambos os recursos, fazem uma solução ótima para o desafio
complexo de medir o impacto de uma revista. Mas eles proporcionam um
mecanismo mais útil no processo de descolonização técnico-científica do que
qualquer outro recurso disponível.
Em 2004, James Pringle, vice-presidente de desenvolvimento,
mercados acadêmicos e governo, da Thomson ISI, USA, fez um estudo sobre o
fator de impacto de todo o conteúdo do Web of Science, de acesso fechado e
de acesso aberto. À época, a base continha 8.509 revistas de acesso fechado
e 191 revistas de acesso aberto (HARNAD; BRODY, 2004). Segundo Pringle
(2004), foi feita uma seleção rigorosa e somente as revistas diretamente
acessíveis na internet, sem nenhum custo, se enquadraram no conceito de
acesso aberto, e destaca entre elas os diferentes tipos de revista como a BMJ,
88
com uma longa história e prestígio, que migrou para este novo modelo de
publicação aberta, e o Brazilian Journal of Microbiology, revista de importância
regional que usa o acesso aberto como uma forma de expandir a consciência
global, porque existem vários caminhos para tornar o acesso aberto, e os
objetivos de cada editor podem ser diferentes.
Como resultados do estudo, aponta que o acesso aberto não significa
necessariamente mais citações nessas revistas, nem equivalem a menos. Isso
porque o aumento do número de leitores potenciais da revista não altera o
valor fundamental e a relevância de um artigo numa revista, para o trabalho de
um pesquisador em particular. Se qualquer modelo de acesso escolhido
permite que a revista possa ser lida por todos ou pela maioria de seu públicoalvo, a audiência julgará a sua relevância. Revistas de acesso aberto podem
ter impacto semelhante a outras revistas e potenciais autores não devem temer
a publicação nessas revistas apenas por causa de seu modelo de acesso.
Além disso, não parece que a expansão do número de leitores em potencial,
por si só, necessariamente transformam o impacto de uma revista.
Entretanto, Harnad e Brody (2004) mostram um posicionamento
contrário ao de Pringle. Para eles, o resultado apresentado por Pringle, que
revistas de acesso aberto (OA) e de acesso não aberto tem igual impacto, não
é realista, visto que a comparação foi feita entre apenas 2% de revistas OA
indexadas pelo ISI (191), contra 98% de revistas ISI não OA (8.509). Brody et
al. (2004) usaram o banco de dados de citação ISI, em CD-ROM, com
referências de 7.000 revistas de 1991 à 2001, e o conteúdo do arXiv.org. O
CD-ROM ISI continha os metadados e as referências de 14 milhões de artigos,
e o banco do arXiv.org, em janeiro de 2004, continha 260.000 textos completos
de e-prints. Deste total, 95.012 artigos foram encontrados tanto na base de
dados ISI quanto na base de dados ArXiv, e com eles foi efetuada a
comparação do impacto, conforme aparece na Figura 10.
89
FIGURA 10 - ÍNDICES DE IMPACTO DE CITAÇÃO DO ACESSO ABERTO VS O ACESSO
FECHADO
EM
TODOS
OS
CAMPOS
DA
FÍSICA,
NO
PERÍODO
COMPREENDIDO ENTRE OS ANOS DE 1992 E 2001
Fonte: BRODY
et al. 2004.
A Figura 10 mostra o número total de artigos em periódicos indexados
em Física pelo ISI, atualmente Thomson ISI, pelo período de 1992 à 2001, em
cinza; o percentual destes artigos que foram disponibilizados em OA pelo
próprio autor, em verde, e a relação entre o número de citações para os artigos
OA sobre o número de citações para os artigos não-OA, em vermelho. Para
Harnad e Brody (2004) o número de citações dos artigos OA vêm crescendo e
tudo indica que os dados de 2002 e 2003 irão aumentar ainda mais essa
relação, considerando que os maiores efeitos ocorrem dentro dos três
primeiros
anos
de
publicação
em
disciplinas
científicas,
e
tanto
a
conscientização quanto a visibilidade de artigos OA também estão aumentando
ano a ano. O acesso não é uma condição suficiente para citação, mas é uma
condição necessária. O OA aumenta drasticamente o número de potenciais
usuários de um determinado artigo adicionando os usuários que de outra forma
não seriam capazes de acessá-lo porque sua instituição não poderia arcar com
90
o pagamento da revista no qual ele apareceu e, portanto, o OA só faz aumentar
tanto o uso quanto o impacto.
Em 16 de dezembro de 2012, durante a reunião anual da American
Society for Cell Biology (ASCB), foi lançada a Declaração de San Francisco
sobre a Avaliação da Pesquisa (San Francisco Declaration on Research
Assessment), conhecida como DORA, e assinada por mais de 150
pesquisadores e 75 instituições acadêmicas como a American Association for
the Advancement of Science. De acordo com o site da Declaration on Research
Assessment (2013), esta declaração foi uma resposta à necessidade urgente
de melhorar as maneiras pelas quais a produção da pesquisa científica é
avaliada por agências de fomento, instituições acadêmicas e outras partes.
Teve como recomendação geral o não uso de métricas baseadas em revista,
tais como o Journal Impact Factors (Thomson Reuters), como medida
substituta da qualidade dos artigos de pesquisa individuais, para avaliar
contribuições do cientista individual, ou na contratação, promoção ou nas
decisões de financiamento, e, no mesmo sentido, teve recomendações
específicas destinadas à agências de fomento, instituições acadêmicas,
editores, organizações que fornecem métricas, e pesquisadores individuais.
Existem também modelos híbridos no que se refere à análise do índice
de impacto. Isto ocorre quando um repositório aberto tem seu fator de impacto
controlado por uma editora privada. Um exemplo disso é o Journal of Artificial
Intelligence Research (JAIR). De acordo com seu site, o Journal of Artificial
Intelligence Research (2013) foi fundado em 1993 como um dos primeiros
periódicos científicos eletrônicos e é indexado pelas bases de dados INSPEC,
Science Citation Index e MathSciNet. A revista abrange todas as áreas da
inteligência artificial e é de distribuição gratuita na internet. Existem vários
outros exemplos de modelos híbridos, visto que a base de dados Web of
Science (WOS) da Thomson Reuters, sobre a qual é feito o fator de impacto do
JCR, atualmente contém 12.000 revistas, incluindo revistas de acesso aberto
como a PLos One (WEB OF SCIENCE, 2013); e a SciELO, que colocou na
base Web of Knowledge da Thomson Reuters 650 títulos, e mais de 4 milhões
de referências citadas, criando o SciELO Citation Index, que usará o fator de
impacto da Thomson para análise do impacto das citações do seu repositório
aberto (THOMSON REUTERS, 2013).
91
8.2
A SIMBIOSE ENTRE OS REPOSITORIOS DIGITAIS ABERTOS E O
GOOGLE COMO UMA ALTERNATIVA DE CONTRAPOSIÇÃO AO
OLIGOPÓLIO DAS EDITORAS CIENTÍFICAS
O oligopólio das publicações científicas criou um Projeto de Lei
Americano contra o acesso aberto The Library of Congress (2013), entraram
com uma queixa formal junto à União Européia contra o Google pela sua
dominância como buscador (KEESE, 2011), e moveram uma ação judicial
contra a implementação do Google Books (SENEFF, 2012). Do outro lado,
pesquisadores fazem boicote à editora Elsevier (GOWERS'S, 2013), e ao fator
de impacto da editora Thomson Reuters (DECLARATION ON RESEARCH
ASSESSMENT, 2013). Isto mostra que existem novos modelos de negócios no
mercado, implementados pelo movimento do acesso aberto e pelo Google, que
constituem uma alternativa para a publicação científica, e que começa a
preocupar os detentores do oligopólio, pela ameaça que representam.
Segundo o relatório da European Commission (2006), o mercado está
numa fase de transição, em que o modelo tradicional de assinatura ainda é
dominante, e onde a viabilidade e a sustentabilidade do novos modelos de
negócios ainda é incerto. Em um momento em que a experimentação deve ser
incentivada, é crucial avaliar o risco de que a vantagem natural de posse, e a
dependência da cadeia tradicional (autor - editor - biblioteca - leitor) podem
permitir que os operadores históricos alavanquem sua posição atual de uma
forma que pode ser prejudicial à concorrência. Avalia-se que estas questões
devam concentrar-se primeiro em políticas de preços e, em seguida, sobre as
várias dimensões do acesso aos resultados das pesquisas. Os financiadores
podem contribuir, exigindo de seus pesquisadores financiados, que eles
depositem seus artigos publicados em arquivos abertos, ou seja, em autoarquivamento em todos os domínios, e não apenas nos domínios em que os
autores têm longa tradição de troca de e-prints ou são sensíveis a uma ampla
divulgação e visibilidade dos artigos. A fim de maximizar a difusão e o acesso,
o auto-arquivo pode ser feito logo após a publicação.
Quanto ao futuro em longo prazo do modelo tradicional, onde editores
cumprem ambas as funções de certificação e de difusão, os repositórios vem
mudar este panorama quando a certificação nos periódicos produzidos pelas
92
instituições que os mantém é feita por meio do trabalho editorial e da revisão
por pares, da própria comunidade acadêmica destas instituições, e quando o
Google cumpre o papel da difusão. Neste sentido, o relatório da European
Commission (2006) aponta que existem pelo menos duas maneiras pelas quais
a certificação e a difusão podem ser desagregadas: repositórios e serviços de
navegação. Os repositórios podem ser usados para depositar artigos eprints
publicados, como é o caso, por exemplo, do PubMed Central, onde papers
tendo sido beneficiados por financiamento do National Institutes of Health (NIH)
são depositados um ano após a publicação. Neste caso, a certificação é
fornecida pela editora antes do artigo ser depositado. Os repositórios também
são usados para arquivar preprints ou manuscritos, e não há certificação
explícita, exceto através da medição do número de dowloads de um
determinado artigo.
Em paralelo, a disponibilidade de eprints permite que outros
empresários possam oferecer um serviço de navegação e o candidato mais
conhecido é o Google Scholar. A qualidade deste serviço prestado aos
usuários depende se o usuário chegará ao artigo completo. Isto por sua vez,
depende se os organismos de financiamento de pesquisa forçam que a
pesquisa, financiada com recurso público, seja livremente acessível após um
curto período, e se o autor repassou o seu direito autoral ao editor. Serviços de
navegação podem, portanto, fornecer uma outra maneira de distribuir artigos
avulsos certificados ou não e, como tal, aumentar o bem-estar total. Para cada
uma destas estratégias a sua viabilidade requer que o certificador no caso dos
repositórios, ou o distribuidor no caso dos serviços de navegação, possa obter
um resultado positivo de retorno sobre o investimento. Entretanto, não está
claro se os modelos de negócios que poderiam gerar tais retornos positivos,
como por exemplo a publicidade paga para os serviços de navegação, não
iriam criar suas próprias distorções. A troca de dados e sua integração nos
grandes repositórios apresentam hoje grandes desafios em TIC (EUROPEAN
COMMISSION, 2006).
William
Timothy
Gowers,
matemático
britânico
professor
da
Universidade de Cambridge, e ganhador da medalha Fields da American
Mathematical Society, postou em seu blog, em 21 de janeiro de 2012, uma
crítica em protesto às práticas comerciais da editora Elsevier. Em seu blog,
93
Gowers’s (2013) diz que não participará mais das publicações da editora, e
lista as práticas de negócios da Elsevier que condena: a) cobrança de preços
muito elevados, muito acima da média; b) o uso do método conhecido como
agrupamento (pacotes), onde em vez de dar as bibliotecas a escolha de quais
revistas deseja assinar, oferece a elas a escolha entre uma grande coleção de
revistas (que a Elsevier escolhe) ou nada. Tendo em conta que as bibliotecas
têm orçamentos limitados e não podem assinar tudo, não são as únicas
prejudicadas por este método, mas outros editores, o que é, naturalmente,
parte da motivação para o esquema; c) se as bibliotecas tentam negociar
melhores ofertas, a Elsevier é implacável sobre cortar o acesso a todos os seus
periódicos; e d) a Elsevier dá suporte à medidas como a Research Works Act,
projeto de lei americano que tenta parar o movimento do Open Access para
pesquisas financiadas pelo governo federal. Ainda, a Elsevier apoia a Stop
Online Piracy Act (SOPA) e a Protect IP Act (PIPA), tendo pressionado
fortemente para a existência deles.
Este boicote de Gowers’s à Elsevier tornou-se um viral no meio
acadêmico e em 04 de fevereiro de 2012, o The Economist chamou este
movimento de Primavera Acadêmica (Academic Spring) (THE ECONOMIST,
2012). O site The Cost of Knowledge (2013) é onde os pesquisadores entram
para assinar o boicote assinalando o que pretendem se abster de contribuir
com a Elsevier: publicação, arbitragem ou trabalho editorial. Atualmente 13.832
pesquisadores de todas as áreas do conhecimento e de várias partes do
mundo já assinaram o boicote. Erik Engstrom, presidente-executivo da Reed
Elsevier, disse à Dennis Johnson, co-fundador e co-editor da Melville House
Books, que a reação do núcleo acadêmico, contra a divisão de publicações
científicas do grupo, foi baseada em distorções e mal-entendidos porque a
empresa alcançou resultados anuais ligeiramente acima das expectativas
(JOHNSON, 2012).
De acordo com o site da Biblioteca do Congresso Americano, The
Library of Congress (2013) o Projeto de Lei denominado H.R.3699 - Research
Works Act, de 16 de dezembro de 2011, contra o acesso aberto, diz que
nenhuma agência federal poderá adotar, implementar, manter, continuar, ou se
dedicar a qualquer política, programa ou outra atividade que: a) cause, licencie
ou autorize a divulgação em rede de qualquer trabalho de pesquisa do setor
94
privado sem o consentimento prévio do editor desse trabalho; ou b) exige de
qualquer autor real ou potencial, ou o empregador de um autor real ou
potencial, o parecer favorável à disseminação em rede de um trabalho de
pesquisa do setor privado.
Outro fator de tensão entre as editoras do oligopólio e pesquisadores é
relativa à mineração de dados por programas de computador, chamada de
data-mining. Segundo Van Noorden (2013), em 22 de maio de 2013,
pesquisadores e bibliotecários se retiraram das negociações da Comissão
Européia sobre este assunto porque as editoras, baseadas no argumento do
copyright, não permitem a mineração em suas bases de dados fechadas.
Enquanto pesquisadores e bibliotecários esperam usar o data-mining para
rastrear os milhares ou milhões de artigos e outros conteúdos de pesquisa
online, tanto em acesso fechado quanto em acesso aberto, fazer a extração
dos dados e com eles construir uma base única de dados de pesquisa, ou
poder estabelecer padrões de associações, como por exemplo entre genes e
doenças, as editoras temem que o seu conteúdo possa ser redistribuído
gratuitamente, o que faz com que bloqueiem os programas de mineração de
dados, mesmo para instituições que pagaram pelo acesso às suas bases de
dados.
Para Crow (2002) o modelo dos repositórios institucionais de acesso
aberto ameaça os modelos de negócios baseados em assinatura existentes e a
receita de muitas editoras acadêmicas. A cadeia do modelo de publicação
tradicional, de valor integrado, permite aos editores manter níveis de preços
que seriam impossíveis de sustentar em um ambiente desagregado, menos
monopolista. A natureza do conteúdo acadêmico torna cada artigo e cada
revista um monopólio virtual, garantindo ainda mais a posição de preço do
editor. Abrir o acesso ao conteúdo em si, e traduzir o conteúdo em uma
mercadoria livre através de uma rede de repositórios digitais inter-operáveis,
interrompe radicalmente este modelo de negócio. O futuro da indústria
comercial de revistas acadêmicas vai depender de como os editores irão
responderão à perda de conteúdo e do canal exclusivo, forçada por repositórios
de acesso aberto e por um ambiente de mercado que pesa todos os
componentes da cadeia de valor editorial contra serviços gratuitos análogos.
95
Quanto as editoras de sociedades, no entanto, segundo Crow (2002),
os repositórios institucionais e outros mecanismos de acesso aberto somente
irão ameaçar a sobrevivência dos periódicos acadêmicos se derrotarem as
posições de marca das revistas de sociedades estabelecidas, e se as métricas
de impacto do artigo individual substituírem fatores de impacto de periódicos
nas decisões de progressão acadêmica. Enquanto uma editora comercial teria
dificuldade de cobrar uma taxa de inscrição para um periódico disponível
gratuitamente on-line, os editores de sociedades reposicionando os benefícios
da adesão dos membros podem mostrar-se capazes de permitir a
disponibilidade do artigo da revista via repositórios de acesso aberto, sem
experimentar cancelamentos substanciais de adesão ou atrito de receitas.
Talvez o neo exemplo contemporâneo desse tipo de processo, o que
até agora não foi alcançado em um negócio, é o projeto Google Book Search.
Desde 2004, o Google começou um ambicioso programa de digitalização de
livros, obtendo um litígio com organizações de direitos de autores e editoras em
2005. No entanto, em 2006, o Google assinou um acordo com cinco bibliotecas
de pesquisa (Stanford, Harvard, Chicago, Michigan e Oxford Bodelian) para
digitalizar suas coleções. Portanto, ainda há possibilidades de organização
dentro da esfera pública de garantir que as TIC permitam melhorar o acesso
aberto aos resultados dos milênios de criatividade humana gravada em textos
(SENEFF, 2012).
A Figura 11 abaixo, procura sintetizar as ações que as editoras
moveram contra o acesso aberto dos repositórios e contra o Google, e os
boicotes ao oligopólio que os pesquisadores assinaram, cansados de contribuir
gratuitamente com as editoras ao mesmo tempo em que assistem o aumento
abusivo do preço das assinaturas e dos artigos que eles mesmos produziram.
96
FIGURA 11 - AS AÇÕES DO OLIGOPÓLIO PARA IMPEDIR A PROLIFERAÇÃO DOS
REPOSITÓRIOS
ABERTOS
VERSUS
OS
BOICOTES
DOS
PESQUISADORES AO OLIGOPÓLIO
Fonte: O autor, 2013.
Síntese conclusiva:
Atualmente, a grande diferença no mercado das publicações científicas
para os leitores, é se as revistas estão disponíveis em acesso fechado e pago,
ou em acesso aberto e gratuito. Ou seja, se ele deve pagar ou não pelo texto
que deseja ou precisa ler. As editoras comerciais ainda detém o oligopólio das
revistas científicas porque detém os canais de distribuição, as assinaturas dos
pacotes feitos pelas bibliotecas acadêmicas e, principalmente, porque mantém
mecanismos de buscas em seus repositórios fechados que garantem alta
precisão nos resultados e, ainda, porque mantém os altos índices de citação de
suas revistas por controlarem todo o ciclo da publicação. Entretanto, os
97
repositórios digitais abertos, aqueles que são mantidos pelas instituições de
ensino e pesquisa, em simbiose com o Google, podem quebrar o oligopólio.
Porque as instituições que mantêm estes repositórios são as que detêm em
seus quadros funcionais os pesquisadores/autores e que, portanto, podem
cuidar de todo processo editorial, desde a produção do texto até a publicação
no repositório aberto, e assim disponibilizar todo o conteúdo científico
produzido, com controle de qualidade inquestionável, e de forma gratuita,
enquanto as editoras do oligopólio cobram preços exorbitantes pelo mesmo
produto. Estes repositórios abertos contam com o serviço gratuito do Google,
tanto em relação aos mecanismos de busca, que hoje implementam o
protocolo OAI de busca, quanto em relação ao índice de impacto. Portanto, se
as políticas governamentais que instituem que os resultados das pesquisas
desenvolvidas com recursos públicos devem ser disponibilizadas em acesso
aberto, atualmente vigentes em vários países, se tornarem efetivas no meio
acadêmico, e se expandirem, as editoras científicas do oligopólio serão
obrigadas a rever seu modelo de negócios para sobreviverem em longo prazo
neste mercado que encontra-se em mutação.
98
9 CONCLUSÃO
Este trabalho analisa o funcionamento da estrutura de mercado das
publicações científicas, e como os repositórios digitais abertos se tornaram
uma alternativa viável para o reequilíbrio deste domínio. De fato, a simbiose
entre os serviços prestados pelos grandes motores de busca e os ideais
defendidos pelos movimentos de software livre e de acesso aberto criaram um
ambiente tão favorável, que o panorama do mercado científico se alterou
completamente em menos de 15 anos. Esses movimentos deram-se em
primeiro lugar pela fixação dos grandes buscadores como elemento
centralizador
da
recuperação
dos
trabalhos
científicos,
garantindo
a
possibilidade de se recuperar informação de qualidade através de uma
varredura exaustiva da Web. Ao mesmo tempo surgiram, à partir dos
movimentos de software livre, os movimentos de acesso aberto que
ofereceram à comunidade científica software de boa qualidade para o
arquivamento de conteúdo. As instituições acadêmicas passaram a criar
rapidamente grandes repositórios de conteúdo científico de qualidade.
Em um segundo momento os software de arquivamento aberto fixaram
padrões de interoperabilidade de arquivos científicos que foram rapidamente
assimilados pelos grandes buscadores. Com esses novos padrões os grandes
buscadores, além de acrescentar visibilidade ao conteúdo científico aberto,
passaram a reconhecer e destacar este conteúdo, obtido através dos padrões
abertos dos grandes repositórios, administrados pela comunidade acadêmica.
O terceiro e ultimo movimento fixa novos índices de impacto calculado à partir
de todo o conteúdo científico disponível na internet, em oposição aos
tradicionais índices de impacto controlados pelo oligopólio e restritos às
grandes editoras. O ciclo formado pela geração, recuperação e qualificação da
informação científica que durante mais de um século foi privilégio das editoras
passou a ser reproduzido na internet aberta, fazendo uso de uma imensa
quantidade de informação científica disponibilizada gratuitamente pelas
grandes instituições acadêmicas.
O mercado das editoras científicas é caracterizado por editoras com
fins lucrativos e editoras sem fins lucrativos, aquelas de instituições
acadêmicas ou sociedades. As editoras com fins lucrativos dominam este
99
mercado de forma altamente concentrada, onde poucas delas dividem bilhões
de dólares ao ano. Os pesquisadores participam de praticamente todo
processo de produção das revistas científicas, sem entretanto receber por isto.
Suas instituições são responsáveis pela manutenção dos seus salários e pelos
recursos destinados às bibliotecas para manutenção das assinaturas das
revistas produzidas pelas editoras, ao mesmo tempo em que as editoras
apenas organizam os serviços e recebem o lucro. Existem muitas barreiras à
entrada, não só para a concorrência, como também para os autores e para os
leitores.
Por deter o poder de mercado, as editoras fornecem um grande
número de títulos de revistas, na forma de um pacote de alguns títulos de alto
impacto junto com vários títulos menos relevantes, cuja aquisição os usuários
das bibliotecas não solicitaram. Essa prática obriga as bibliotecas a pagarem
por uma coleção cujo uso pode não justificar o alto preço pago. Essas revistas
obtém um alto impacto porque as mesmas editoras que publicam os periódicos
científicos, medem os índices de impacto de suas próprias publicações, num
círculo vicioso.
Assim, as editoras do oligopólio, detém o poder completo do mercado
das publicações científicas da seguinte maneira:
a) detém o direito autoral ou copyright dos autores - embora existam
algumas diferenças de conceito, legislação e tratamento de um país
para outro, no caso dos periódicos do oligopólio, o direito autoral ou
copyright é repassado do autor para a editora quando o artigo é
aceito para publicação;
b) controlam os canais de distribuição - colocam representantes em
todo o mundo e chegam às bibliotecas acadêmicas, seu maior
cliente, para vender seu pacote de periódicos;
c) as
bibliotecas
repassam
os
periódicos
comprados
aos
pesquisadores, promovendo seu uso;
d) os pesquisadores lêem o conteúdo dos periódicos e o citam;
e) as editoras obtém um alto índice de citações para seus periódicos.
Desta forma é fechado o ciclo do controle da publicação dos
periódicos, e do impacto de citação dos mesmos.
100
O lançamento do Google Scholar e do índice de impacto do Google
vieram impulsionar ainda mais a visibilidade do conteúdo dos repositórios
abertos. Sendo o Google o buscador mais usado do mundo, pelas ferramentas
que disponibiliza de forma gratuita na internet, e sendo os repositórios digitais,
abertos para a busca e o acesso, a simbiose entre os dois só trouxe benefícios
ao conteúdo científico mundial, aquele que é produzido nas instituições de
ensino e pesquisa e disponibilizado pelos repositórios. O crescimento dos
repositórios
provocou
vários
movimentos.
Por
um
lado
as
editoras,
preocupadas com este crescimento, formalizaram ações como o Research
Works Act contra o acesso aberto, ao mesmo tempo em que buscaram formas
de inserir o conteúdo dos repositórios abertos nas suas bases de dados ou
repositório fechado, para usar seus motores de busca a fim de recuperar o
conteúdo dos repositórios abertos, e usar suas métricas para medir o impacto
do conteúdo destes repositórios.
E, ainda, as editoras, preocupadas com a dominância do Google como
buscador, formalizaram junto à União Européia queixa formal contra ele por
manipular o resultado das buscas, colocando seus produtos na prioridade dos
resultados e assim prejudicando-as. Do outro lado, os pesquisadores de várias
partes do mundo, cansados de colaborar com as editoras no processo de
publicação, como produtores de conteúdo, revisores ou participantes de
conselhos editoriais, ao mesmo tempo em que assistem o aumento
desenfreado dos preços cobrados por elas e os seus altos lucros, fazem
boicote às publicações do oligopólio, como é o caso da primavera acadêmica, e
fazem boicote ao fator de impacto do oligopólio, como é o caso da declaração
DORA. Isto mostra que os pesquisadores/autores estão cansados de servir ao
oligopólio, e vislumbram a possibilidade de liberdade de expressão científica,
por meio dos repositórios digitais abertos, que trazem consigo uma forma
alternativa e transparente de editoração e difusão.
As editoras começam perceber que o mercado está mudando, e que a
alternativa do acesso aberto está quebrando as barreiras à entrada quanto a
publicação de revistas científicas, quanto a distribuição ou difusão destas
revistas, quanto ao índice de impacto destas revistas e, ainda, quanto ao
acesso à estas revistas pelos leitores. Visto que a história das publicações
científicas pelas grandes editoras tem no mínimo um século, e que os
101
repositórios abertos datam de 1991, é bem provável, diante da rápida evolução
que tiveram no mercado das publicações, que se hoje ainda não se constituem
como uma grande ameaça ao oligopólio, porque este ainda detém a maior
coleção científica sob seu poder, num futuro não muito distante poderão vir a
ser.
E o maior incentivo poderá vir das agências de fomento à pesquisa. A
Contraposição ao oligopólio das publicações científicas será mais efetiva se
estas agências não só exigirem, por meio de política pública, que os
pesquisadores disponibilizem o resultado de seu trabalho, financiado com
recurso público, em repositórios abertos que sigam o modelo open access de
publicação, mas que também levem em conta na avaliação da produção
científica os índices de impacto efetuados sobre as publicações abertas, e não
somente o fator de impacto controlado pelo oligopólio. No Brasil, por exemplo,
a CAPES, órgão que controla a pós-graduação no país, ao mesmo tempo em
que lança editais de apoio e incentivo à publicação de periódicos digitais em
acesso aberto, mantém em sua base Qualis, de avaliação da produção
científica, o fator de impacto da Thomson Reuters como um dos quesitos,
desconsiderando os índices de impacto disponíveis livremente e que efetuam
análise de citações nas bases de periódicos, ou repositórios abertos, o que
demonstra incongruências entre os incentivos e a avaliação.
Outro fator controverso nas avaliações acadêmicas é o índice de
impacto baseado nas publicações, visto que estas também são controladas
pelo oligopólio que mantém publicações há muitas dezenas de anos e, por este
motivo, detém um volume maior de fascículos de coleções de títulos que
conseguiram se estabelecer no mercado ao longo do tempo, enquanto os
repositórios ainda estão galgando esta posição devido ao seu curto tempo de
existência. Portanto, um quesito de avaliação mais justo poderia ser o índice de
impacto dos artigos e dos autores, de forma independente ou com peso
diferente ao índice de impacto da publicação, ou seja, do título do periódico.
Embora estudos comparativos dos índices de impacto de publicações fechadas
e publicações abertas ainda sejam incipientes, os poucos estudos encontrados
mostram um crescimento contínuo de visibilidade e de número de citações às
publicações abertas em detrimento das publicações não abertas, o que mostra
que é apenas uma questão de tempo, talvez de apenas poucos anos, para que
102
as revistas abertas se tornem mais influentes, e até mesmo dominantes no
mercado das publicações acadêmico-científicas.
Como complemento a este estudo, sugere-se que sejam efetuadas
algumas outras abordagens relativas aos repositórios digitais abertos, que
poderiam vir a contribuir para seu crescimento, tais como: a) avaliação sobre o
potencial de Lock in (aprisionamento), nas tecnologias de repositórios digitais
abertos, ou seja, uma análise para verificar se as tecnologias adotadas para
construção e difusão de repositórios digitais abertos podem levar a algum tipo
de Lock in, por aspectos técnicos, econômicos ou institucionais, e assim
influenciar de maneira negativa a conservação e a disponibilidade do conteúdo
digital; b) levantamento e discussão sobre as possíveis políticas públicas
existentes para a preservação e acesso, em longo prazo, do conteúdo científico
digital, armazenado em repositórios digitais abertos, com foco nos elementos
envolvidos em termos dos interesses técnicos, políticos e econômicos,
relacionados aos padrões tecnológicos e às trajetórias das tecnologias de
armazenamento e de difusão de conteúdo digital; c) avaliação sobre o impacto
social dos repositórios digitais abertos, quanto ao fomento à pesquisa e ao
número de artigos neles publicados, provenientes de pesquisadores de países
subdesenvolvidos ou em desenvolvimento; d) levantamento dos aspectos
relativos ao incentivo à inovação promovida pelo livre acesso à literatura
científica dos repositórios digitais abertos, e a avaliação deste incentivo; e e)
considerando que a difusão e recuperação do conteúdo dos repositórios
abertos estão pautados no uso do Google pela comunidade mundial de
pesquisadores internautas, considerando que o Google se constitui em
empresa privada que detém o monopólio atual dos buscadores, considerando
que o modelo atual de negócios do Google é disponibilizar sua ferramenta de
busca de forma gratuita para o usuário final e, finalmente, considerando que a
internet precisa manter seus padrões abertos e precisa manter seu modelo de
negócios atual que implica na cobrança ao usuário final uma única vez pelos
provedores de banda larga, e que estes provedores não podem cobrar dos
provedores de conteúdo pelo trânsito de seus pacotes de dados pelas rede,
modelo chamado de neutralidade da rede (Net Neutrality), se torna
fundamental que haja uma discussão sobre os possíveis impactos mundiais
103
que poderão ocorrer sobre os repositórios digitais abertos, caso a neutralidade
da rede internet venha a ser quebrada.
104
REFERÊNCIAS
ALPEROVITZ, G.; DALY, L. Apropriação indébita: como os ricos estão
tomando a nossa herança comum. São Paulo: Senac, 2010.
ALVESTRAND, H.; LIE, H. W. Development of core internet standards: the
work of IEFT and W3C. In: BYGRAVE, L. A.; BING, J. (Ed.). Internet
governance: infrastructure and institutions. New York: Oxford University, 2009.
p. 126-146.
ArKiv. Disponível em: <http://arxiv.org/>. Acesso em 27/09/2013.
ARTHUR, W. B. Competing technologies, increasing returns and lock-in by
historical events. The Economic Journal, Oxford, v. 99, n. 394, p. 116-131,
Mar. 1989.
AXELROD, R.; MITCHELL, W.; THOMAS, R. E.; BENNETT, D. S.;
BRUDERER, E. Coalition formation in standard-setting alliances. Management
Science, Hanover, v. 41, n. 9, p. 1493-1508, Sept. 1995.
AYÇAGUER, L. C. S. El índice-H y google acadêmico: uma simbiosis
cienciométrica inclusiva. Acimed, Ciudade de la Habana, v. 23, n. 2, p. 308322, 2012.
BEALL, J. Beall’s list of predatory publishers 2013. Dec. 2012a. Disponível
em: <http://www.sci.rmutt.ac.th/wpcontent/uploads/filebase/Research/Beall%27s%20List%20of%20Predatory%20
Publishers%202013.pdf>. Acesso em: 07/09/2013.
BEALL, J. Predatory publishers are corrupting open access. Nature, London, v.
489, p. 179, Sept. 2012b.
BERNERS-LEE, T.; FISCHETTI, M. Weaving the web: the original design of
the World Wide Web by its inventor. New York: HarperCollins, 2000.
BORNMANN, L.; MARX, W. The h index as a research performance
indicator. European Science Editing, Reading, v. 37, n. 3, p. 77-80, 2011.
105
BOYLE, J. The public domain: enclosing the commons of the mind. New
Haven: Yale University, 2008.
BRASIL. Lei n. 9.610, de 19 de fevereiro de 1998. Altera, atualiza e consolida a
legislação sobre direitos autorais e da outras providências. Disponível em:
<http://www.planalto.gov.br/ccivil_03/Leis/L9610.htm>. Acesso em: 05/07/2013.
BRIN, S.; PAGE, L. The anatomy of a large-scale hypertextual web search
engine. 1998. Disponível em:
<http://infolab.stanford.edu/~backrub/google.html>. Acesso em:
07/09/2013.
BRITO, R. F. de; GUEDES, M. G.; SHINTAKU, M. Atribuição de
identificadores digitais para publicações científicas: DOI para o
SEER/OJS. Brasília: IBICT, 2013.
BRITTO, J. Cooperação interindustrial e redes de empresas. In: KUPFER, D.;
HASENCLEVER, L. (Org.). Economia industrial: fundamentos teóricos e
práticas no Brasil. 2. ed. Rio de Janeiro: Campus, 2002. p. 345-387.
BRODY, T. Citebase search: autonomous citation dabase for e-print
archives. 2003. Disponível em:
<http://eprints.soton.ac.uk/260677/1/brody_sinn03_paper.pdf>. Acesso
em: 07/09/2013.
BRODY, T.; STAMERJOHANNS, H.; VALLIÈRES, F.; HARNAD, S.; GINGRAS,
Y.; OPPENHEIM, C. The effect of open access on citation impact. 2004.
Disponível em: <http://eprints.soton.ac.uk/259941/1/OATAnew.pdf>. Acesso
em: 02/09/2013.
BRUCE CLAY, INC. The histogram of the search engine relationship chart.
Disponível em:
<http://www.bruceclay.com/serc_histogram/histogram.htm>. Acesso em:
28/08/2013.
BUTLER, D. Free journal-ranking tool enters citation market data base offers
on-the-fly results. Nature, London, v. 451, 2008. Disponível em:
<http://www.nature.com/news/2008/080102/full/451006a.html>. Acesso em:
07/09/2013.
BUTLER, D. Computing giants launch free science metrics. Nature, London, v.
476, p. 18, Aug. 2011.
106
CARBONI, G. C. Direito autoral e acesso ao conhecimento: em busca de um
equilíbrio. Revista Júris da Faculdade de Direito, São Paulo, v. 1, p. 21-46,
2009.
CARVALHO, M. M. G. do R. O repositorio aberto: recuperar, preservar e
difundir o conhecimento ―em qualquer lugar do mundo‖. 277 f. Dissertação
(Mestrado em Ciências Documentais) – Departamento de Ciências
Documentais, Universidade Autônoma de Lisboa, Lisboa, 2009.
CASTELLS, M. A galáxia internet: reflexões sobre internet, negócios e
sociedade. Lisboa: Fundação Calouste Gulbenkian, 2004.
CERVERA, P. 20 minutos. In: JORNADAS ESPAÑOLAS DE
DOCUMENTACIÓN: interinformación, 11., Zaragoza, 2009. Actas. Disponível
em: <http://www.fesabid.org/zaragoza2009/?page_id=1562>. Acesso em:
30/08/2013.
COSTAS, R.; BORDONS, M. Una visión crítica del índice h: algunas
consideraciones derivadas de su aplicación práctica. El Profesional de la
Información, Barcelona, v. 16, n. 5, p. 427-432, 2007.
CREATIVE COMMONS (CC). Disponível em:
<http://creativecommons.org/licenses/?lang=pt>. Acesso em: 30/05/2013.
CROW, R. The case for institutional repositories: A SPARC position paper.
Washington, DC: SPARC, 2002. Disponível em:
<http://scholarship.utm.edu/20/1/SPARC_102.pdf>. Acesso em: 01/06/2013.
DÁVILA QUINTERO, J. A.; NUÑEZ, L. A.; SANDIA SALDIVIA, B. E.;
TORRÉNS HEEREN, R. Los repositórios institucionales y la preservación del
patrimonio intelectual académico. Interciencia, Caracas, v. 31, n. 1. Ene. 2006.
Disponível em: <www.scielo.org.ve/scielo.php?script=sci_arttext&pid=S037818442006000100006&lang=pt>. Acesso em: 30/05/2013.
DECLARATION ON RESEARCH ASSESSMENT (DORA). Disponível em:
<http://am.ascb.org/dora/>. Acesso em: 08/09/2013.
DIBONA, C.; OCKMAN, S.; STONE, M. (Ed.).Open sources: voices from the
open source revolution. Cambridge: O’Reilly Media, 1999.
DIGITAL LIBRARY FEDERATION. Disponível em:<http://www.diglib.org/>.
Acesso em: 07/09/2013.
107
DIGITAL OBJECT IDENTIFIER (DOI). Disponível em: <http://www.doi.org/>.
Acesso em: 12/08/2013.
DsPACE. Disponível em: <http://www.dspace.org/>. Acesso em: 16/08/2013.
EGGHE, l. Theory and practice of the g-index. Scientometrics, Budapest, v.
69, n. 1, p. 131-152, 2006.
ENGELHARDT, S. V. What economists know about open source software: its
basic principles and research results. Jena Economic Papers, Jena, n. 5, p. 148, 2011.
EUROPEAN COMMISSION. Study on the economic and technical evolution
of the scientific publication markets in Europe: final report. Bruxelles:
European Commission, 2006.
FREE SOFTWARE FOUNDATION. Disponível em: <http://www.gnu.org/>.
Acesso em: 30/05/2013.
GARFIELD, E. The history and meaning of the Journal Impact Factor. JAMA:
The Journal of the American Medical Association, Chicago, v. 295, n. 1, p.
90-93, Jan. 2006. Disponível em:
<http://jama.jamanetwork.com/Issue.aspx?journalid=67&issueID=5006&directio
n=P>. Acesso em: 06/01/2013.
GHOSH, R.; SOETE, L. Information and intellectual property: the global
challenges. Industrial and Corporate Change, Oxford, v. 15, n. 6, p. 919-935,
2006.
GINSPARG, P. As we may read. The Journal of Neuroscience, Washington,
DC, v. 26, n. 38, p. 9606-9608, 2006.
GINSPARG, P. Creating a global knowledge network. MBC News and Views,
n. 1, 2000. Disponível em:
<http://www.biomedcentral.com/content/pdf/1471-8219-1-9.pdf>. Acesso
em: 07/07/2013.
GOOGLE SCHOLAR. Disponível em: <http://scholar.google.com.br/>.
Acesso em: 08/09/2013.
108
GOWERS’S WEBLOG. Disponível em:
<http://gowers.wordpress.com/2012/01/21/elsevier-my-part-in-its-downfall/>.
Acesso em: 02/09/2013.
HAHN, R.; WALLSTEN, S. The economics of Net Neutrality. Economists’
Voice, Boston, p. 1-7, Jun. 2006. Disponível em: <www.bepress.com/ev>.
Acesso em: 23/03/2013.
HARNAD, S.; BRODY, T. Comparing the impact of open access (OA) vs. NonOA articles in the same journals. D-Lib Magazine, Reston, v. 10, n. 6, p. 1-3,
Jun. 2004.
HAWKINS, R. Communication technology standards. In: DONSBACH, W.
Sample of the print version of the International Encyclopedia of
Communication in PDF Format. Washington: International Communication
Association, 2008. p. 176-180. DOI: 10.1111/b.9781405131995.2008.x.
Disponível em:
<http://www.communicationencyclopediass.com/docs/printsample.pdf>. Acesso
em: 14/10/2011.
HEFFAN, I. V. Copyleft: licensing collaborative works in the digital age.
Stanford Law Review, Stanford, v. 49, n. 6, p. 1487-1522, 1997.
HIRSCH, J. E. An index to quantify an individual’s scientific research ouput.
Proceedings of the National Academy of Science, Washington, DC, v. 102,
n. 46, p. 16569-16572, 2005. Disponível em:
<www.pnas.org/cgi/doi/10.1073/pnas.0507655102>. Acesso em: 30/05/2013.
JOHNSON, D. Head of reed Elsevier hits back at academic uprising.
Melville House, Feb. 2012. Disponível em: <http://www.mhpbooks.com/head-ofreed-elsevier-hits-back-at-academic-uprising/>. Acesso em: 07/09/2013.
JOURNAL OF ARTIFICIAL INTELLIGENCE RESEARCH (JAIR). Disponível
em: <http://www.jair.org/>. Acesso em: 10/08/2013.
KEESE, C. Desafios regulatorios em tiempos de transformación digital:
una mirada sobre publicaciones y editoras europeas. 2011. (Working paper, n.
27). Disponível em: <www.plataformademocratica.org/Publicacoes/17800.pdf>.
Acesso em: 02/05/2013.
109
KUPFER, D. Barreiras estruturais à entrada. In: KUPFER, D.; HASENCLEVER,
L. (Org.). Economia industrial: fundamentos teóricos e práticas no Brasil. 2.
ed. Rio de Janeiro: Campus, 2002. p. 109-128.
LAAT, P. B. de. Copyright or copyleft?: an analysis of property regimes for
software development. Research Policy, Amsterdam, v. 34, p. 1511-1532,
2005.
LAGOZE, C.; VAN de SOMPEL, H. The Open Archives Initiative: building a
low-barrier interoperability framework. 2001. Disponível em:
<http://www.openarchives.org/documents/jcdl2001-oai.pdf >. Acesso em:
30/05/2013.
LANDES, W. M.; POSNER, R. A. An economic analysis of copyright. The
journal of Legal Studies, Chicago, v. 18, n. 2, p. 325-363, 1989.
LARSSON, S. The path dependence of european copyright. Script-ed,
Edinburgh, v. 8, n. 1, p. 8-31, 2011.
LESSIG, L. The future of ideas: the fate of the commons in a connected world.
New York: Random House, 2001.
LEVY, S. Hackers. Beijing: O’Reilly, 2010.
LICEA JIMENEZ, I.; COLLAZO MARTÍNEZ, Y.; CESPEDES VIDAL, A. Algunas
consideraciones em torno al derecho de autor. Acimed, Ciudad de la Habana,
v. 10, n. 5, p. 5-6, 2002.
LUCE, R. E. E-prints intersect the digital library: inside the los Alamos arXiv.
Issues inScience and technology Librarianship, Chicago, n. 29, winter 2001.
Disponível em: <http://webdoc.sub.gwdg.de/edoc/aw/ucsb/ist1/01winter/article3.html>. Acesso em: 31/05/2013.
McGUIGAN, G. S.; RUSSELL, R. D. The business of academic publishing: a
strategic analysis of the academic journal publishing industry and its impact on
the future of scholarly publishing. E-JASL: Eletronic Journal of Academic
and Special Librarianship, Athabasca, v. 9, n. 3, 2008. Disponível em:
<http://southernlibrarianship.icaap.org/content/v09n03/mcguigan_g01.htm
l>. Acesso em: 02/05/2013.
110
MONBIOT, G. How did academic publishers acquire these feudal powers? The
Guardian, New York, 2011.
MORGAN STANLEY. Scientific publishing: knowledge is power. 2002.
Disponivel em: <http://www.econ.ucsb.edu/~tedb/Journals/morganstanley.pdf>.
Acesso em: 06/07/2013.
MUGNAINI, R.; STREHL, L. Recuperação e impacto da produção científica na
era Google: uma análise comparativa entre o Google Acadêmico e a Web of
Science. Encontros Bibli: Revista Eletrônica de Biblioteconomia e Ciência
da Informação, Florianópolis, n. esp., p. 92-105, 1. Sem. 2008. Disponível em:
<http://www.periodicos.ufsc.br/index.php/eb/article/view/15182924.2008v13nesp1p92>. Acesso em: 30/05/2013.
NARAYANAN, V. K.; CHENT, T. Research on technology standards:
accomplishment and challenges. Research Policy, Amsterdan, v. 41, p. 13751406, 2012.
NICKERSON, J. V.; MUEHLEN, M. The ecology of standards processes:
insights from internet standard making. Mis Quarterly, Minneapolis, v. 30, p.
467-488, 2006. Special Issue.
OpCit THE OPEN CITATION PROJECT. Reference linking and citation
analysis for open archives. [2013]. Disponível em: <http://opcit.eprints.org/>.
Acesso em: 05/09/2013.
OPEN ARCHIVES INITIATIVE (OAI). Disponível em:
<http://www.openarchives.org/>. Acesso em: 30/06/2013.
OPEN CONTENT. Open publication license. v.1.0, 8 June 1999. Disponível
em: <http://opencontent.org/openpub/>. Acesso em: 01/08/2013.
OPEN SOURCE INITIATIVE. The open source definition. v. 1.9. (Annotated).
Disponível em: <http://opensource.org/docs/definition.php>. Acesso em:
30/05/2013.
P2P FOUNDATION. Author pay model in open access publishing.
Disponível em:
<http://p2pfoundation.net/Author_Pay_Model_in_Open_Access_Publishing>.
Acesso em: 04/09/2013.
111
PINDYCK, R. S.; RUBINFELD, D. L. Microeconomia. 5. ed. São Paulo:
Prentice Hall, 2002. p. 631-664.
PORCEL ITURRALDE, M. L.; RODRÍGUEZ MEDEROS, M. Software libre: una
alternativa para las bibliotecas. Acimed, Ciudad de La Habana, v. 13, n. 6,
2005. Disponível em:
<http://biblioweb.sindominio.net/pensamiento/softlibre/softlibre.pdf>. Acesso
em: 30/05/2013.
POSSAS, M. L. As estruturas de mercado: primeira aproximação. In: ______.
Estruturas de mercado em oligopólio. 2. ed. São Paulo: Hucitec, 1990. p. 87191.
POSSAS, M. Padrões de concorrência, dinâmica das estruturas de mercado e
inovação tecnológica. In: ______. Estrutura de mercado em oligopólio. São
Paulo: Hucitec, 1985. p. 151-194.
PRINGLE, J. Do open access journals have impact? Nature Publishing
Group, 2004. Disponível em:
<http://www.nature.com/nature/focus/accessdebate/19.html>. Acesso em:
05/09/2013.
PUBLIC KNOWLEDGE PROJECT (PKP). Disponível em: <http://pkp.sfu.ca/>.
Acesso em: 02/06/2013.
PUBLISH or perish. Sept. 2013. Disponível em:
<http://www.harzing.com/pop.htm>. Acesso em: 07/09/2013.
RAYMOND, E. S. La catedral y el bazar. 1997. Disponível em:
<http://coleccion.educ.ar/coleccion/CD7/img/docs/acerca_soft/mod01/mod01_c
atedralybazar.pdf>. Acesso em: 02/08/2013.
RODRIGUEZ MEDEROS, M. La difusión de las creaciones en la era digital: el
copyleft para distribuir creaciones en la era digital. Acimed, Ciudad de la
Habana,v. 15, n. 1, 2007. Disponível em:
<http://bvs.sld.cu/revistas/aci/vol15_1_07/aci08107.htm>. Acesso em:
31/07/2013.
ROUSSEAU, R. Simple models and the corresponding h- and g-index. 2006.
Disponível em: <http://eprints.rclis.org/7501/1/Rousseau_Dalian.pdf>.
Acesso em: 07/09/2013.
112
RUIZ, M. A.; GRECO, O. T.; BRAILE, D. M. Fator de impacto: importância e
influência no meio editorial, acadêmico, e científico. Revista Brasileira de
Cirurgia Cardiovascular, São Paulo, v. 24, n. 3, p. 273-278, 2009.
SAYÃO, L. F. Interoperabilidade das bibliotecas digitais: o papel dos sistemas
de identificadores persistentes – URN, PURL, DOI, Handle System, CrossRef e
OpenURL. Transformação, Campinas, v. 19, n. 1, p. 65-82, 2007.
SCHREIBER, M. The influence of self-citation corrections on Egghe’s g index.
Scientometrics, Budapest, v. 76, n. 1, p. 187-200, 2008.
SENEFF, A. R. Google, acceso abierto y tecnologías de información y
comunicación (TIC) en la economía política contemporánea. Relaciones,
Zamora, n. 130, p. 157-176, primavera 2012.
SHAPIRO, C.; VARIAN, H. R. A economia da informação: como os princípios
econômicos se aplicam à era da internet. Rio de Janeiro: Elsevier, 1999.
SHIMA, W. T. Economia de redes e inovação. In: PELAEZ, V.;
SZMRECSÁNYI, T. (Org.). Economia da inovação tecnológica. São Paulo:
Hucitec: Ordem dos Economistas do Brasil, 2006. p. 333-362.
SHINE. Disponível em: <http://shine.icomp.ufam.edu.br/>. Acesso em:
07/09/2013.
SMITH, M.; BARTON, M.; BASS, M.; BRANSCHOFSKY, M.; McCLELLAN, G.;
STUVE, D.; TANSLEY, R.; WALKER, J. H. Dspace: an open source dynamic
digital repository. D-Lib Magazine, Reston, v. 9, n. 1, Jan. 2003.
STALLMAN, R. M. Software libre para una sociedad libre. Versíon 1.0. Dic.
2004. Disponível em:
<http://biblioweb.sindominio.net/pensamiento/softlibre/softlibre.pdf>.
Acesso em: 30/05/2013.
SUBER, P. Open access, impact, and demand. BMJ: British Medical Journal,
London, v. 330, p. 1097-1098, May 2005.
TASSEY, G. Standardization in technology-based markets. Research Policy,
Amsterdam, v. 29, n. 4-5, p. 587-602, Apr. 2000.
113
THE COST OF KNOWLEDGE. Disponível em:
<http://thecostofknowledge.com/>. Acesso em: 07/09/2013.
THE ECONOMIST. The prince of information: academics are starting to
boycott a big publisher of journals. Feb. 2012. Disponível em:
<http://www.economist.com/node/21545974>. Acesso em: 07/09/2013.
THE LIBRARY OF CONGRESS. H.R. 3699.IH. (Bill text, 112th Congress, 20112012). Disponível em: < http://thomas.loc.gov/cgi-bin/query/z?c112:H.R.3699>.
Acesso em: 08/09/2013.
THOMSON REUTERS. Disponível em: <http://thomsonreuters.com/>. Acesso
em: 06/07/2013.
TORVALDS, L. The Linus edge. In: DIBONA, C.; OCKM, S.; STONE, M. (Ed.).
Open sources: voices from the open source revolution. Cambridge: O’Reilly
Media, 1999. p. 51-55.
VAN NOORDEN, R. Tensions grow as data-mining discussions fall apart.
Nature: International Weekly Journal of Science, London, v. 498, n. 7452,
2013. Disponível em: <http://www.nature.com/news/tensions-grow-as-datamining-discussions-fall-apart-1.13130>. Acesso em: 22/09/2013.
VERCELLI, A. Creative commons y la profundidad del copyright. 2002.
Disponível em: <http://eprints.rclis.org/9970/1/profcopy.pdf>. Acesso em:
30/05/2013.
WEB OF SCIENCE. Disponível em: <http://thomsonreuters.com/web-ofscience/>. Acesso em: 08/09/2013.
WEBOMETRICS RANKING OF WORLD UNIVERSITIES.Disponível em: <
http://www.webometrics.info/>. Acesso em: 08/09/2013.
WILLINSKY, J. Open journal systems: an example of open source software for
journal management and publishing. Library Hi Tec, Bingley, v. 23, n. 4, p.
504-519, 2005.
Download

ligia eliana setenareski - Programa de Pós