A AVALIAÇÃO
VALIAÇÃO EXTERNA COMO INSTRUMENTO DA GESTÃO
EDUCACIONAL NOS ESTADOS
RELATÓRIO FINAL
GAME/FAE/UFMG
Com apoio da Fundação Vitor Civita
Agosto/2011
Realização:
Parceria:
1
© 2011. Fundação Victor Civita. Todos os direitos reservados.
A Fundação Victor Civita, que tem por missão contribuir para a melhoria da qualidade
da Educação Básica no Brasil, produzindo publicações, sites, material pedagógico,
pesquisas e projetos que auxiliem na capacitação dos professores, gestores e demais
responsáveis pelo processo educacional, implantou uma área de estudos com o
objetivo de levantar dados e informações que auxiliem as discussões sobre práticas,
metodologias e políticas públicas de Educação.
Para acompanhar outros trabalhos, visite o nosso site www.fvc.org.br/estudos.
EQUIPE DA FUNDAÇÃO VICTOR CIVITA
DIRETORIA EXECUTIVA
Angela Cristina Dannemann
COORDENAÇÃO PEDAGÓGICA
Regina Scarpa
REVISTA NOVA ESCOLA E GESTÃO ESCOLAR
Gabriel Grossi
Paola Gentile
ESTUDOS, PESQUISAS E PROJETOS
Mauro Morellato
ESPECIALISTAS CONVIDADOS PARA
APRECIAÇÃO DO RELATÓRIO PRELIMINAR
Antônio Bara Bresolin (Coordenador Fundação
Itaú Social)
Bernardete Gatti (Fundação Carlos Chagas)
Clara Etiene Lima de Souza (Coordenadora da
Avaliação da Educação Básica / Inep)
Mozart Neves Ramos (Todos pela Educação)
Ruben Klein (Consultor Fundação Cesgranrio)
Adriana Deróbio
Sandra Maria Zakia Lian Sousa (USP e Unicid)
Tufi Machado Soares (Universidade Federal de
Juiz de Fora)
Wanda Engel (Superintendente Instituto
Unibanco)
2
© 2011. Fundação Victor Civita. Todos os direitos reservados.
UNIVERSIDADE FEDERAL DE MINAS GERAIS
Clélio Campolina Diniz
Reitor
FACULDADE DE EDUCAÇÃO
Samira Zaidan
Diretora
GRUPO DE AVALIAÇÃO E MEDIDAS EDUCACIONAIS
Ângela Imaculada Loureiro de Freitas Dalben
Coordenadora
EQUIPE DE PESQUISA
Nigel Brooke
Maria Amália de A. Cunha
Matheus Faleiros
3
© 2011. Fundação Victor Civita. Todos os direitos reservados.
SUMÁRIO
Apresentação
06
1.
Objetivos
11
2.
Métodos
12
3.
A Expansão da Avaliação Educacional
14
3.1.
4.
A Expansão dos Sistemas Estaduais de Avaliação
Accountability e as Avaliações High-Stakes
25
39
4.1
Sistemas de Incentivos
45
4.2.
Sistemas de Responsabilização na América Latina
50
5.
Sistema Classificatório para os Diferentes Usos da Avaliação Educacional
55
6.
O Uso da Avaliação na Gestão da Educação nos Estados
70
6.1
Avaliação de Programas, Monitoramento, Planejamento e Pesquisa
70
6.1.1
Avaliação de Programas
70
6.1.2
Monitoramento
77
6.1.3
Planejamento
82
6.1.4
Pesquisa
85
6.2
Para Informar as Escolas sobre a Aprendizagem dos Alunos e Definir as Estratégias de
Formação Continuada
87
6.2.1
Políticas de Formação Continuada Baseadas nos Resultados
101
6.2.2
O Currículo Básico
105
6.3
Para Informar ao Público
112
6.4
Para a Alocação de Recursos
123
6.5
Para Políticas de Incentivos Salariais
133
6.5.1
Investigações em Loco
142
6.5.2
Discussão
164
4
© 2011. Fundação Victor Civita. Todos os direitos reservados.
6.6
Como Componente da Política de Avaliação Docente
168
6.7
Para a Certificação de Alunos e Escolas
177
7.
Considerações Finais
182
8.
Referencias Bibliográficas
189
ANEXO 1
Organização dos arquivos da pesquisa em Google Docs
199
ANEXO 2
Entrevistados
200
ANEXO 3
Ambiente NVIVO. Queries/Políticas de Incentivos por Estado
201
5
© 2011. Fundação Victor Civita. Todos os direitos reservados.
Apresentação
Cada vez mais presente nos jornais e em outros meios de comunicação, a
discussão da avaliação educacional permite que o público brasileiro se conscientize
não só da complexa realidade da aplicação das avaliações padronizadas em larga
escala mas também dos resultados do ensino em diferentes níveis e localidades e em
comparação com outros países. O tema dos testes enfrentados por alunos de diversas
idades – e até por jovens e adultos que há tempo deixaram de frequentar a escola – já
ultrapassa os eventos de especialistas e se torna um assunto capaz de cativar as
manchetes. Talvez o caso mais emblemático seja o do Enem e as suas dificuldades de
sigilo e logística. Porém, ao longo dos últimos anos também houve múltiplos debates
públicos em torno do indicador nacional de desenvolvimento da Educação, o Ideb, o
Exame Nacional de Desempenho de Estudantes, Enade, o novo Exame Nacional para
Certificação de Competências de Jovens e Adultos, Encceja, e iniciativas do Congresso,
como o projeto de lei (PLS 319/08) do senador Cristovam Buarque para conceder o 14º
salário aos profissionais de escolas que conseguirem elevar seu Ideb em 50% e o
projeto do deputado Ronaldo Caiado para obrigar as escolas públicas a expor na
entrada do estabelecimento uma placa com seu Ideb. As comparações internacionais,
principalmente as do Programa Internacional de Avaliação de Alunos, Pisa, também
suscitaram questionamentos que permitem perceber que os resultados fornecidos
pelas avaliações educacionais estão se firmando cada vez mais como a definição oficial
da qualidade da Educação oferecida pelas escolas.
Refletindo o crescente interesse na avaliação, nos indicadores derivados dela e na
sua relação com a política educacional, o projeto do Plano Nacional de Educação em
discussão no Congresso contém várias indicações para o uso da avaliação externa ao
longo da próxima década. Fala da importância de “usar o Ideb para avaliar a qualidade
do ensino, com base em uma avaliação nacional do rendimento escolar”, de “aplicar
exame periódico específico para aferir a alfabetização de crianças”, de “aprimorar os
instrumentos de avaliação da qualidade do ensino fundamental e médio”, de “usar o
Pisa como parâmetro externo”, de “aferir o grau de analfabetismo de jovens e adultos”
e de “avaliar a qualidade da Educação profissional técnica de nível médio”.
6
© 2011. Fundação Victor Civita. Todos os direitos reservados.
Como os jornais, o projeto do PNE também se concentra nas políticas de avaliação
da esfera federal. Apesar de conferir vários deveres específicos aos estados e
municípios, como aprovar leis para disciplinar a gestão democrática da Educação,
instalar conselhos escolares, prever licenças para a pós-graduação de professores e
nomear diretores com base em critérios técnicos, todas as atribuições no campo da
avaliação educacional feitas pelo PNE são do governo federal. Em nenhum momento, o
PNE atribui funções específicas em relação à avaliação da aprendizagem do ensino
fundamental e médio aos governos subnacionais, mesmo sendo essas as instâncias
com responsabilidade preferencial por esses níveis escolares, segundo a LDB.
A falta de clareza em relação às obrigações dos estados e municípios e se essas
instâncias deveriam ser responsabilizadas ou não pela avaliação externa dos seus
alunos refletem certa ambiguidade do próprio Ministério de Educação perante o
crescimento dos sistemas subnacionais de avaliação. Desde a criação do Saeb, em
princípio da década de 1990, as iniciativas dos estados em construir suas próprias
ferramentas de avaliação têm sido vistas ora como uma expressão compreensível da
sua autonomia administrativa constitucional, ora como um desperdício de recursos,
dada a existência de sistemas nacionais com coberturas e características técnicas
capazes de fornecer as informações de que os gestores estaduais precisam. A ausência
de incentivos federais e de cooperação contínua entre as instâncias governamentais na
área de avaliação, a não ser no empréstimo de itens do Saeb1, talvez reflita a falta de
uma aceitação integral pelo Ministério da importância dos sistemas de avaliação
subnacionais e até de um sentimento de rivalidade provocada pela intrusão dos
1
Na página de perguntas frequentes sobre o Saeb e Prova Brasil do site do Inep
(http://www.INEP.gov.br/web/saeb-e-prova-brasil/perguntas-frequentes) a resposta dada à pergunta
Com o Saeb e Prova Brasil o Governo Federal pretende acabar com os sistemas Estaduais e Municipais
de Avaliação?, leia-se a seguinte resposta: As avaliações federais, as estaduais e as municipais são
independentes. A Prova Brasil e o Saeb são conduzidos nacionalmente pelo Governo Federal, enquanto
as avaliações estaduais e municipais podem ter metodologia própria e são concebidas e realizadas pelos
governos estaduais e municipais. Em muitos casos, há a cooperação técnica entre os governos federal,
estadual e municipal, ou seja, há congruência entre algumas avaliações estaduais com a Prova Brasil e o
Saeb. Um dos objetivos da Prova Brasil e do Saeb é estimular a cultura da avaliação, fomentando, assim,
a implementação de avaliações estaduais e municipais. Nesse sentido, o Inep pode auxiliar, sob certas
condições, os estados e municípios a estruturarem e levarem adiante suas avaliações por meio do seu
Banco Nacional de Itens.
7
© 2011. Fundação Victor Civita. Todos os direitos reservados.
estados em terreno antes exclusivamente federal. Em função desses sentimentos,
consolidou-se a opinião que os estados deveriam apenas complementar o que a União
já faz, e não repetir a avaliação das mesmas disciplinas nos mesmos anos escolares
para não desperdiçar recursos. Esse posicionamento não leva em consideração o
interesse dos estados em controlar todas as fases de produção e divulgação de
informação sobre as escolas, evitando os atrasos que acometem o Inep, e pode
encobrir as dúvidas remanescentes a respeito da conveniência dos estados
desenvolverem seus próprios sistemas. A expansão das avaliações subnacionais parece
refletir justamente a necessidade de controlar mais detidamente as etapas que
envolvem o processo de avaliação e, assim o fazendo, traçar um diagnóstico mais
contextual da aprendizagem dos alunos para, com base nisso, elaborar instrumentos e
estratégias talvez mais eficazes.
A falta de atenção do PNE para a função avaliadora dos governos estaduais e
municipais pode refletir essas mesmas dúvidas. Por outro lado, o silêncio do PNE em
relação a um instrumento tão fundamental para o planejamento e a gestão dos
sistemas de Educação pode também refletir simplesmente a ausência de informação
sobre a real extensão e diversidade das atividades atuais dos estados e municípios no
campo da avaliação. As críticas à suposta subutilização dos resultados da avaliação
externa e a sugestão de que as Secretarias de Educação têm pouca capacidade para
aproveitar as informações levantadas, a não ser para oferecer sugestões pedagógicas
aos professores, parecem ultrapassadas perante a crescente sofisticação dos sistemas
estaduais e indicam mais uma vez a necessidade de atualizar os nossos
conhecimentos.
O presente estudo pretende remediar essa lacuna ao mostrar o papel cada vez
mais importante das avaliações subnacionais na composição da política educacional.
Mesmo não chegando sempre aos jornais, há indícios suficientes de que está em curso
uma mudança importante na penetração e diversificação da avaliação educacional em
nível dos estados e municípios de porte maior ao ponto de muitas das inovações nesse
campo estarem acontecendo não mais na esfera federal, mas em nível subnacional. As
avaliações da aprendizagem na fase de alfabetização, a criação de instrumentos
8
© 2011. Fundação Victor Civita. Todos os direitos reservados.
padronizados para finalidades de diagnóstico individual e o uso da avaliação para
políticas de incentivos salariais seriam apenas três exemplos. Cada vez mais os estados
estão assumindo políticas educacionais que têm como pressuposto a existência de
informações detalhadas sobre a aprendizagem dos alunos e cuja execução requer o
uso cada vez mais variado e sofisticado dessas informações. Ou seja, os estados
também estão galvanizados para uma nova geração de instrumentos de avaliação e de
uma variedade cada vez maior de políticas de intervenção calcadas em informação
sobre o desempenho dos alunos. Portanto, na descrição dos esforços de todos os
sistemas para melhorar a qualidade do ensino, torna-se indispensável captar os
avanços no uso dos resultados das avaliações educacionais também em nível
subnacional.
Entretanto, o objetivo do estudo não é exclusivamente descritivo. É preciso
também entender as consequências da expansão da avaliação subnacional para o
desenvolvimento da Educação. O fato de os estados estarem assumindo novas
políticas de avaliação de escolas e professores com base nos resultados dos alunos não
encontra aprovação total e há a necessidade de pesar as evidências. Outras políticas,
como a alocação de recursos com base nos resultados das escolas, podem parecer
menos problemáticas, mas os critérios empregados podem variar e as consequências
também. Há a necessidade, portanto, de submeter as novas políticas de gestão a um
processo de análise para determinar seus prováveis efeitos. Com esse olhar, derivado
em parte de pesquisas e em parte das opiniões dos próprios envolvidos, torna-se
possível responder a perguntas como: as políticas de gestão baseadas nos resultados
dos alunos são sempre bem-sucedidas? Quais os impactos de políticas baseadas na
avaliação de alunos para a melhoria da Educação? Dado o que sabemos dos efeitos
colaterais, os estados estão empregando as avaliações educacionais da forma mais
adequada?
Para poder contribuir para essa discussão, é necessário, primeiro, entender os
antecedentes dessa expansão. O processo pelo qual os estados começaram a montar
sistemas de avaliação educacional e, em seguida, políticas de gestão derivados dos
produtos desses sistemas não foi aleatório. Em diferentes graus, foram influenciados
9
© 2011. Fundação Victor Civita. Todos os direitos reservados.
pelo movimento de reforma externo e interno chamado de neoliberal, que a partir da
década de 1990 estabeleceu a qualidade do ensino como o objetivo primordial da
política educacional e definiu os resultados escolares como seu indicador principal.
Precisamos também estudar em alguma profundidade o elemento mais crítico do
modelo de avaliação que foi se alastrando pela região nessa época. Estamos nos
referindo ao componente de accountability, que se estabeleceu como uma alavanca
nas mãos dos gestores interessados em criar novos incentivos para motivar a mudança
na Educação. Para entender como os gestores brasileiros estão aproveitando esse
conceito, precisamos explicitar o significado do conceito nas suas origens, avaliar as
políticas que empregam diferentes versões de accountability e mostrar a
probabilidade de sucesso dessas políticas ao serem incorporadas ao leque de opções
do gestor educacional brasileiro.
O fato de haver origens comuns não significa que as políticas seguidas por cada
estado que optou por implantar um sistema próprio de avaliação são todas iguais.
Mesmo havendo semelhanças, dentro das opções para a utilização dos resultados das
avaliações, os critérios e propósitos podem variar. Para distinguir entre as diferentes
políticas de avaliação, precisa-se criar um sistema classificatório capaz de dar conta da
diversidade ao mesmo tempo em que categorize as políticas de acordo com os
propósitos dos gestores. Sem esse esforço classificatório, as políticas acabam sendo
discutidas estado por estado como se a sua distribuição geográfica fosse a razão pela
investigação. Com uma classificação por tipo de política, por outro lado, pode-se
contrastar as políticas dos estados e deixar mais nítidas as diferenças existentes entre
as diversas versões de uma mesma política.
Após a explicação do sistema classificatório, será possível entrar no assunto
principal do estudo, que é expor e analisar as diversas políticas seguidas pelos
governos estaduais e alguns municípios de porte maior, principalmente das capitais,
que empregam a avaliação educacional na busca da melhoria da Educação. Essas
políticas de uso dos resultados dos sistemas de avaliação representam uma
ferramenta poderosa quando bem entendidas suas potencialidades e limitações.
10
© 2011. Fundação Victor Civita. Todos os direitos reservados.
1.
Objetivos
De forma sintética, os objetivos deste estudo são:
i.
Descrever, por meio do emprego de sistema classificatório próprio, as
diferentes maneiras em que os governos estaduais e municipais usam os resultados
das avaliações externas na condução da política educacional.
ii.
Mediante a coleta de informações secundárias, fornecer uma sinopse mais
atualizada da variedade das políticas de gestão que fazem uso dos resultados da
avaliação externa.
iii.
Com base em pesquisas nacionais e internacionais, e os subsídios oferecidos
por especialistas e gestores, fazer uma análise de cada política de gestão para
determinar se representam um aproveitamento apropriado das informações
disponíveis e se contribuem para a política de melhoria da qualidade da Educação.
iv.
Como objetivo último, oferecer subsídios para a formulação e reformulação de
políticas públicas que fazem uso dos resultados dos sistemas de avaliação educacional.
11
© 2011. Fundação Victor Civita. Todos os direitos reservados.
2.
Métodos
O estudo foi planejado em duas partes. A primeira se concentrou na coleta, de
todas as fontes secundárias possíveis, de todas as informações disponíveis sobre a
avaliação educacional em nível subnacional. Havia limites de tempo e de pessoal e
dentro desses parâmetros descobriu-se que a fonte mais importante foi, de longe, a
internet e os sites patrocinados pelos próprios governos estaduais e municipais.
Organizou-se um banco de dados para o registro de informações e armazenamento de
documentos por estado e pela natureza oficial ou não oficial da informação. O
ambiente usado para esse banco de dados foi o Google Docs (veja Anexo 1). Criou-se
também um sistema classificatório para todos os diferentes usos da avaliação
padronizada (veja seção 5) e com base nesse sistema desenvolveu-se um instrumento
que sintetizava a informação por tipo de política de gestão por cada estado ou
prefeitura. Essa ficha funcionou como catálogo para todas as informações secundárias
coletadas.
A segunda fase se concentrou no aprofundamento das ideias que surgiram na
primeira fase e na elucidação de exemplos de políticas de gestão cujas informações
tinham chegado de forma incompleta ou que ainda suscitavam interesse especial.
Nessa fase, foram realizadas 20 entrevistas semiestruturadas com gestores, técnicos e
especialistas em avaliação em sete estados diferentes (veja Anexo 2). Mediante essas
entrevistas, esperava-se caracterizar melhor as políticas de gestão mais comuns e
descobrir indicações da sua eficácia. As entrevistas foram gravadas, transcritas e
posteriormente analisadas dentro do ambiente fornecido pelo NVivo 8 (veja Anexo 3).
Esse aplicativo também permitiu a organização das opiniões dos entrevistados de
acordo com as categorias do sistema classificatório.
Pela natureza do estudo, que é mais um levantamento para fins classificatórios do
que um retrato de todos os exemplos nos diversos cantos do país, não será possível
oferecer uma medida da frequência de uso das diferentes políticas de gestão
encontradas. Por ter um propósito mais analítico, serão enfatizadas as características e
qualidades das políticas encontradas, e não sua distribuição ou importância em termos
12
© 2011. Fundação Victor Civita. Todos os direitos reservados.
geográficos. Serão empregados exemplos de diferentes estados e municípios, mas sem
insinuar que esses são os exemplos únicos ou necessariamente os mais bem acabados.
13
© 2011. Fundação Victor Civita. Todos os direitos reservados.
3.
A Expansão da Avaliação Educacional
Entre os elementos que contribuíram para a expansão da avaliação externa como
um instrumento da gestão educacional nos diversos níveis dos sistemas educacionais
ao longo das últimas décadas, encontram-se dois fatores considerados primordiais
pela literatura especializada: a) a disseminação de um modelo de reforma educacional
na década de 1990 calcado na avaliação educacional e voltado para a melhoria da
qualidade; e b) a incorporação pelos governos de metodologias de gestão baseadas em
critérios de eficiência e de planejamento estratégico e voltadas para a melhoria nos
resultados dos serviços públicos. No caso dos governos subnacionais brasileiros, devese acrescentar um terceiro fator: c) o incentivo criado pela inauguração de um
indicador nacional de desenvolvimento educacional e pela liderança do MEC ao fixar o
foco nos resultados e no uso da avaliação educacional entre as diretrizes principais do
Plano de Metas Compromisso Todos pela Educação.
a) Reforma educacional. A torrente de mudanças educacionais múltiplas e
simultâneas nas diversas regiões do mundo na década de 1990 não foi aleatória. As
semelhanças entre as reformas dos diferentes países, como se estivessem seguindo
um receituário, denunciavam uma história de origens comuns. As origens imediatas
podem ser encontradas, em parte, nos eventos internacionais que galvanizaram os
formuladores das políticas educacionais e também no papel dos bancos de
desenvolvimento, as agências de assistência bilateral e até as ONGs internacionais na
disseminação mundial das propostas de reforma. Em nível mais conceitual, precisa-se
de uma análise da lógica da globalização e da sua relevância para a compreensão dos
fenômenos educacionais.
Usando a região da América Latina como um exemplo, Gajardo (2000) mostra a
semelhança notável nos objetivos das reformas simultâneas de 19 países. Na maioria
desses países, são especificados os objetivos gerais de descentralizar a gestão,
melhorar a qualidade, a equidade e a eficiência dos sistemas, oferecer maior
autonomia e também cobrar maior responsabilidade da escola, investir mais e melhor
14
© 2011. Fundação Victor Civita. Todos os direitos reservados.
na formação do professor e conectar a escola às demandas da sociedade. Quando as
reformas educacionais dos diferentes países são categorizadas de acordo com seus
objetivos mais específicos, pode-se ver claramente o quanto as reformas seguiram os
mesmos rumos ao longo do continente. No entanto, é no caso da implantação de
novos sistemas de avaliação padronizada que a verdadeira uniformidade das propostas
educacionais é revelada. Nesse caso, observa-se que nada menos que 13 países da
região, incluindo o Brasil, adotaram sistemas de avaliação entre 1990 e 1998. No
quadro da autora que identifica o ano de implantação desses sistemas, as únicas
exceções são o Chile, que criou o Simce no final da década anterior, e Cuba, um caso à
parte, que já tinha um sistema próprio desde a década de 1970 (GAJARDO, 2000).
Devemos procurar a explicação das semelhanças e simultaneidade das reformas
em dois níveis. Num primeiro momento, há que reconhecer o efeito das múltiplas
reuniões multilaterais e ministeriais e o esforço das agências de desenvolvimento em
forjar o novo consenso para levar a Educação ao topo da agenda. Antes das outras
reuniões e conferências, cabe mencionar a Conferência Mundial sobre Educação da
Unesco de Jomtien, na Tailândia, que no princípio da década reuniu delegados de 155
países para fixar diretrizes para a transformação dos sistemas de Educação. Os
delegados criaram história ao adotar a Declaração Mundial de Educação para Todos,
que estabelece a Educação como um direito humano fundamental e define como
obrigação de todo sistema satisfazer às necessidades básicas de aprendizagem de toda
a sua população. Além da chamada principal de universalizar o ensino fundamental até
o final da década, foram tomadas decisões de privilegiar as questões da equidade, de
dar ênfase aos resultados da aprendizagem, de criar ambientes voltados para a
aprendizagem e de tornar a Educação um instrumento de desenvolvimento econômico
e social.
Incentivados pelo novo consenso e ativados pelas inúmeras demandas dos países
em desenvolvimento, os bancos internacionais se tornaram os financiadores da
reforma educacional na maioria dos países da região. O Banco Mundial adotou as
declarações de Jomtien e moldou uma série de estratégias consideradas eficazes na
realização desses objetivos, incluindo o fortalecimento da autonomia das escolas e a
15
© 2011. Fundação Victor Civita. Todos os direitos reservados.
criação de sistemas de avaliação de aprendizagem. Diversos estados brasileiros foram
beneficiários desse receituário, incluindo Minas Gerais, São Paulo, Paraná e Ceará.
Num segundo nível, a explicação do consenso a favor da reforma educacional
envolve a referência à nova ordem econômica mundial. Na opinião de diversos
autores, o que alimentava o entusiasmo crescente com os temas educacionais e
movimentava os ministros e os bancos de desenvolvimento eram as mudanças na
organização da economia global (GAJARDO, 2000; KRAWCZYK, 2000; LIMA ;AFONSO,
2002). Essa nova ordem significava a abertura das economias nacionais à concorrência
em escala global e ao livre movimento de investimentos e tecnologia. Nesse novo
cenário de integração e de concorrência no plano econômico e de redemocratização
no plano político, cabia aos países a reforma de seus sistemas educacionais para
garantir a competitividade. Nesse debate, é inconfundível a ideia de que a reforma
educacional
fazia parte de uma
estratégia
econômica para alavancar
a
competitividade. Fala-se da centralidade adquirida pela Educação na preparação das
novas gerações para o trabalho, para a criação das competências demandadas pela
nova estrutura de empregos e pelas novas atividades produtivas. Entende-se que essas
demandas provocadas pela globalização da competição seriam mais bem atendidas
após serem implantadas as reformas dos sistemas educacionais.
Nas entrelinhas dessa reforma educacional, aparece a conexão entre a
competitividade internacional, a produtividade individual e a melhoria na qualidade da
Educação. Se antes ela foi considerada apenas como um direito social, as reformas da
década de 1990 deixaram claro que os governos enxergavam a qualidade como um
ingrediente necessário à modernização e ao desenvolvimento e os sistemas de
avaliação como os guardiões dos esforços de melhoria. Os modelos disponíveis, e tão
habilmente propagados pelos organismos internacionais, foram as reformas instituídas
na Grã-Bretanha e nos Estados Unidos a partir da década de 1980. Ambas serviram
para elevar o status da avaliação educacional. No primeiro caso, foram implantados o
currículo nacional e um sistema próprio para sua avaliação. No segundo, deu-se
cobertura para o uso cada vez mais frequente de sistemas de avaliação para exigir
16
© 2011. Fundação Victor Civita. Todos os direitos reservados.
competências mínimas como requisitos para receber o diploma de Ensino Médio e
para impulsionar reformas no currículo e na qualidade do ensino.
A quantificação dos resultados da escola ocupa a posição central no novo modelo
de gestão educacional e eleva a avaliação ao status não só de fornecedor de
informações quantitativas mas também de pedra fundamental para diversas políticas
orientadas para a melhoria nos resultados. Nos Estados Unidos, o grande estímulo a
favor dessa nova orientação veio com o relatório lançado em 1983 pela comissão
criada pelo governo de Ronald Reagan para estudar a situação da Educação naquele
país. Chamado Uma Nação em Risco, o relatório causou um furor ao fazer uma série de
previsões sombrias sobre o próprio futuro do país devido à baixa qualidade do ensino
das suas escolas. Na parte reservada às recomendações, o relatório trata primeiro dos
conteúdos curriculares e argumenta a favor do “fortalecimento” dos requisitos para a
concessão do diploma de Ensino Médio em termos de anos de estudo. Na seguinte
leva de recomendações, apresenta-se a ideia que o nível de exigência para cada
conteúdo precisa subir ao mesmo tempo em que se criem em todos os estados os
sistemas de testes de desempenho para “certificar” o nível de aprendizagem dos
alunos. Com essas orientações, foi definida a peça fundamental da reforma
educacional das próximas décadas tanto nos Estados Unidos como em outros países.
Trata-se do uso da avaliação externa como um instrumento da reforma
educacional para a divulgação das mudanças desejadas e para o monitoramento dos
avanços conseguidos. Uma Nação em Risco deu credito à ideia da reforma baseada em
padrões. Na sua essência, essa mudança colocou o desempenho dos alunos no centro
das atenções como o objetivo primordial do trabalho da escola e legitimou o uso das
avaliações externas para medir a eficácia da escola e dos professores no cumprimento
dessa tarefa. As consequências que foram sendo associadas aos resultados dos alunos
de determinada escola ou professor, incluindo o pagamento ou não de incentivos,
sinalizam a transferência do ônus pelos esforços de melhoria em direção à escola e
deram sentido à palavra que virou sinônimo das reformas – accountability.
A reforma da Inglaterra se inspirou e reforçou essa mesma tendência. Ao criar um
currículo nacional com estrutura fortemente disciplinar, o governo de Margaret
17
© 2011. Fundação Victor Civita. Todos os direitos reservados.
Thatcher estabeleceu as condições para estruturar um sistema de avaliação externa
que pela primeira vez permitiria a comparação de desempenho tanto de alunos como
de escolas. Com base nesse sistema para medir e publicar o desempenho dos alunos
nos anos finais de cada etapa chave do currículo, foram criados, primeiro, o sistema de
ranqueamento de escolas por meio das chamadas league tables2 e, posteriormente, as
metodologias mais sofisticadas de valor agregado que, ao controlar pela aprendizagem
anterior e condição socioeconômica dos alunos, permitem comparações mais
autenticas entre as escolas (GRAY ;WILCOX, 1995).
b) Reforma da gestão pública. A reforma educacional da Grã-Bretanha, que tanto
contribuiu para a criação da agenda dos organismos internacionais, não foi um
fenômeno só setorial, isolado do pensamento político do governo como um todo. O
partido conservador de Margaret Thatcher, que tomou o poder em 1979, estabeleceu
uma série de prioridades inspiradas em ideias liberais norte-americanas e adotadas
para combater a influência do pensamento socialista, que permeava as políticas
públicas. Entre as prioridades, adotou-se um programa econômico liberal e
incorporou-se um novo modelo de serviço público baseado em ideais de livre
mercado. Chamado posteriormente de New Public Management, a reforma do estado
na Grã-Bretanha ao longo da década de 1980 se desenvolveu em três dimensões. A
dimensão mais gerencialista se caracterizou por uma ênfase na produtividade e
eficiência do aparato governamental. Uma segunda dimensão, atenta às necessidades
da população consumidora, procurou a melhoria na qualidade e efetividade dos
serviços públicos, enquanto a preocupação com a accountability e a transparência
refletia a procura por um modelo de governança mais democrático (ABRUCIO, 2006).
Influenciado por atitudes favoráveis ao livre mercado, o destaque desse modelo foi a
criação de uma administração pública voltada mais para o controle dos resultados dos
programas e serviços do que o controle das normas e dos procedimentos mais
2
Literalmente, tabelas de ligas de futebol. Ranqueavam-se as escolas em Tabelas de Desempenho de
Escolas como se fossem times de futebol.
18
© 2011. Fundação Victor Civita. Todos os direitos reservados.
associados aos modelos de planejamento central. Nesse contexto, fazia todo sentido
não só enfraquecer as amarras administrativas e financeiras entre as autoridades
educacionais locais e as escolas como também criar um currículo nacional oficial e um
sistema de avaliação educacional correspondente, a ser usado no monitoramento e no
controle da qualidade das escolas.
Segundo Segatto (2011), os instrumentos desse modelo de estado são a
horizontalização de estruturas, a flexibilização da gestão de pessoal, a criação de
relações contratuais entre o órgão central e as instâncias descentralizadas e, acima de
tudo, o fortalecimento dos mecanismos de avaliação de desempenho (SEGATTO,
2011). O controle a posteriori dos resultados supõe a autonomia para as organizações
que executam a política (PETERS, 2008), que por sua vez pressupõe a flexibilização da
administração pública, a adoção de metas claras e a construção de métodos eficazes
para a avaliação de desempenho das unidades inferiores e a aplicação de sanções para
os que não alcançam os resultados contratados (CLAD, 2000).
A reforma do estado mediante a assimilação das novas práticas de gestão pôde
ser observada também nos Estados Unidos e em vários países da América Latina. Nos
Estados Unidos, foi aprovado em 1993 o Government Performance and Results Act,
que estabeleceu o planejamento estratégico e a mensuração do desempenho das
agências do governo federal. A partir de 1997, cada agência governamental precisa
declarar sua missão estratégica, seus objetivos de longo prazo e suas metas anuais de
desempenho. Essas últimas são expressas em termos de indicadores de desempenho
para ajudar as agências governamentais a melhorar seu trabalho e facilitar a
comunicação com o público (MUNIZ ;SILVEIRA; BECHELAINE, 2010). Na Argentina, o
Sistema de Informação, Avaliação e Monitoramento de Programas Sociais foi criado
pelo governo federal em 1995 para cumprir funções similares e no Chile o governo tem
usado um sistema de acompanhamento de indicadores de desempenho desde 1994.
A gradual adoção desse modelo de gestão em nível subnacional no Brasil começou
com o fim da inflação e a crise financeira dos estados, em 1995. Segundo Abrucio e
Gaetani (2006), a privatização dos bancos estaduais, a renegociação das dívidas em
termos menos favoráveis, a Lei Kandir e uma série de outros regulamentos para
19
© 2011. Fundação Victor Civita. Todos os direitos reservados.
enquadrar as finanças subnacionais obrigaram os governos estaduais a reduzir gastos e
procurar maior eficiência (ABRUCIO; GAETANI, 2006). Ou seja, a busca pela eficiência
nas políticas governamentais começou com o Plano Real e o cerceamento das práticas
financeiras predatórias dos estados, que antes usavam a inflação como uma forma de
resolver seu déficit fiscal.
Ao mesmo tempo, o planejamento estratégico ganhou impulso com base em duas
iniciativas do Governo Federal: o Estudo dos Eixos Nacionais de Integração e
Desenvolvimento, em 1997, e o Plano Plurianual 2000-2003, denominado Avança
Brasil, que desdobrou o anterior e o organizou em programas referenciados a
resultados. Esses programas continham objetivos, públicos-alvo, metas, indicadores e
procedimentos e normas para a avaliação dos programas:
A avaliação de programas orientada para resultados insere-se nesse
contexto, com a aferição da efetividade das ações do Governo. Nesse
sentido, os planos anuais estabeleceram níveis de desempenho projetados
através de indicadores, que deveriam ser quantificáveis e mensuráveis, que
deveriam ser avaliados em razão do atingimento dos níveis de
desempenho projetados ou dos objetivos programáticos. (MUNIZ;
SILVEIRA; BECHELAINE, 2010)(p. 35)
Nos anos seguintes, essas práticas de planejamento e gestão com base em
resultados se disseminaram por vários estados, incluindo Minas Gerais, Espírito Santo,
Rio de Janeiro, Mato Grosso e Santa Catarina (PORTO; SILVEIRA, 2010). De modo geral,
esses estados adotaram uma lógica de gestão que se assemelhava ao planejamento
estratégico do setor privado. O modelo seguido se baseava em uma análise dos
ambientes externo e interno para depois construir uma visão do futuro de longo e
médio prazo, desdobrado a seguir em objetivos, estratégias e indicadores de
desempenho. A convergência com o planejamento de empresas e organizações do
setor sem fins lucrativos reflete as origens do modelo e a sua afinidade com os ideais
de livre mercado.
20
© 2011. Fundação Victor Civita. Todos os direitos reservados.
Inspirado nas iniciativas do Governo Federal e nas experiências internacionais,
Minas Gerais foi um dos primeiros estados a incorporar o modelo de gestão por
resultados e oferece um exemplo da afinidade entre os propósitos da avaliação
educacional e as exigências das novas políticas. Na primeira fase, iniciada em 2003, os
planejadores produziram o Plano Mineiro de Desenvolvimento Integrado, que serviu
como a visão do futuro para o período até 2020. Os cenários futuros evidenciaram a
necessidade da reorganização e modernização do setor público estadual por meio do
chamado Choque de Gestão. Para criar a ponte entre os cenários futuros e as ações do
secretariado, foram criados 30 projetos estruturadores e depois os programas setoriais
para compor o plano plurianual do governo para o período até 2006. Para definir os
objetivos de seus programas para o ensino fundamental e médio, a Secretaria da
Educação optou por uma bateria de indicadores, entre os quais as proficiências médias
dos alunos de 3º, 5º e 9º anos e 3º ano do Ensino Médio. Derivados do sistema
estadual de avaliação, Simave, essas proficiências oferecerem uma forma concreta de
fixar metas com base em resultados finalísticos, quando a maioria das Secretarias só
oferecia indicadores de processo.
Na segunda fase de implantação do novo modelo de gestão, chamada Estado para
Resultados, ficou ainda mais evidente o uso do Simave para atender aos requisitos dos
planejadores. Como grandes estratégias para a criação de critérios comuns para a
reorganização e modernização do serviço público, foram aprimorados o sistema de
avaliação de desempenho de todos os servidores e também o Acordo de Resultados.
Esse último, uma metodologia para fixar metas de desempenho para todas as
instâncias das Secretarias e pagar uma bonificação em caso de cumprimento dessas
metas, encontrou na Secretaria de Educação o melhor exemplo de como calcular com
exatidão os resultados esperados. A orientação política a favor da melhoria dos
resultados dos serviços públicos achou no sistema de avaliação educacional as
respostas desejadas. Ao mesmo tempo, o sistema de avaliação se desdobrou e
penetrou em todos os programas da Secretaria em resposta a um ambiente de
planejamento francamente propício ao uso de objetivos e metas quantificáveis. Essa
afinidade entre um modelo de gestão para resultados e os sistemas de avaliação
21
© 2011. Fundação Victor Civita. Todos os direitos reservados.
educacional será retomada em seção posterior. Por enquanto, basta enfatizar a sua
importância para o uso crescente da avaliação educacional pelas Secretarias de
Educação e o uso dos produtos dessa avaliação para o planejamento.
c) Liderança do MEC. O Sistema Nacional de Avaliação do Ensino Básico criado
pelo Inep no princípio da década de 1990 está na raiz de todos os sistemas estaduais
de avaliação. Pela criação do precedente e pela aprendizagem técnica oferecida pelo
Saeb, o Governo Federal exerceu uma influência forte na criação dos sistemas
estaduais. Quando o Banco Mundial ofereceu financiamento para as reformas
educacionais de estados como Paraná, Minas Gerais e Ceará, na década de 1990, já
havia o exemplo de um sistema de avaliação em funcionamento, mesmo só amostral,
e alguma confiança por parte dos estados que seria possível reproduzir a experiência
do Inep em nível estadual.
Apesar do inegável efeito indutor do Saeb, a influência do Ministério na definição
e diversificação dos sistemas estaduais só foi sentida de novo a partir da definição da
política educacional do segundo governo Lula, com a criação do Ideb e o foco nos
resultados do Decreto Nº 6.094, de 24 de abril de 2007. A Prova Brasil, criada em 2005,
não teve a mesma influência indutora que o Saeb, justamente por ser uma avaliação
censitária de todos os alunos de 5º e 9º anos e ser entendida pelos seus idealizadores
como uma fonte suficiente de informação, capaz de suprir as necessidades dos estados
e municípios. Mesmo restrita às zonas urbanas, às escolas de ensino fundamental com
mais de 20 alunos e ser bianual, a Prova Brasil de fato fornece um retrato valioso do
funcionamento do sistema de ensino fundamental no país.
Foi a partir da criação do Ideb, em 2007, que a Prova Brasil encontrou sua
verdadeira vocação. Pela inclusão da média de desempenho dos alunos, juntamente
com uma medida de fluxo em uma fórmula que permite expressar a qualidade da
escola em um único número numa escala de 1 a 10, foi possível potencializar os
resultados da Prova Brasil e criar pela primeira vez uma discussão nacional sobre a
direção e velocidade da melhoria da Educação. Por meio do Ideb, portanto, a Prova
22
© 2011. Fundação Victor Civita. Todos os direitos reservados.
Brasil começou a exercer um poder de persuasão sobre os rumos da Educação nos
estados e municípios, permitindo que o Ministério recuperasse sua ascendência sobre
a política educacional. Como diz Vidal e Vieira:
Há uma aceitação incondicional do Ideb. O índice passou a ser o elemento
norteador, por excelência, da política municipal de Educação. A gestão da
Educação municipal gira em torno da melhoria do Ideb nas escolas, e para
isso, as SMEs procuram estabelecer mecanismos de monitoramento das
escolas. (VIDAL; VIEIRA, 2011)(p. 12)
Ao mesmo tempo, o Ideb forneceu um modelo para os estados com sistemas
próprios de avaliação e capacidade de enxergar o valor em captar em um único índice
a situação de cada turma e de cada escola para o planejamento e a gestão do sistema.
Resta saber se o Ideb levará outros estados a criar sistemas próprios de avaliação para
poder ter indicadores próprios com base em informações mais detalhadas e mais
frequentes. A evidência que os 15 estados que implementaram sistemas de avaliação
conseguiram promover uma elevação da proficiência média em matemática dos
alunos da 4ª série entre 1997 e 2005 maior do que os outros estados também deverá
servir de incentivo (OLIVEIRA, 2007).
O pensamento por trás dos passos do MEC e do Inep na criação primeiramente de
uma avaliação censitária nacional e, em seguida, de um indicador que sintetizava a
qualidade do ensino, ficou expressa no Decreto Nº 6.094, que implementou o Plano de
Metas Compromisso Todos pela Educação. Essa legislação, uma peça central na
estratégia do Ministério de estabelecer uma espécie de cruzada nacional a favor da
qualidade da Educação e galvanizar os estados e municípios em torno de um conjunto
de metas, explicitou as principais estratégias do Ministério para a melhoria dos
resultados das escolas. As três primeiras metas davam a avaliação educacional como o
instrumento preferido e especificavam os resultados dos alunos como o parâmetro e o
objetivo dos esforços de melhoria:
Art. 2º A participação da União no Compromisso será pautada pela
realização direta, quando couber, ou, nos demais casos, pelo incentivo e
23
© 2011. Fundação Victor Civita. Todos os direitos reservados.
apoio à implementação, por Municípios, Distrito Federal, Estados e
respectivos sistemas de ensino, das seguintes diretrizes:
I - estabelecer como foco a aprendizagem, apontando resultados concretos
a atingir;
II - alfabetizar as crianças até, no máximo, os oito anos de idade, aferindo
os resultados por exame periódico específico;
III - acompanhar cada aluno da rede individualmente, mediante registro da
sua frequência e do seu desempenho em avaliações, que devem ser
realizadas periodicamente;
No segundo capítulo do mesmo decreto, o Ministério estabeleceu o Ideb como a
forma de aferir a qualidade da Educação básica e como o indicador a ser usado na
verificação do cumprimento das metas fixadas no termo de adesão ao Compromisso
Todos pela Educação. Com um único artigo, o MEC parecia querer encerrar uma
discussão de décadas sobre a melhor maneira de definir e medir a qualidade da
Educação e optou por uma solução de fácil compreensão. A partir de 2007, os
resultados dos alunos, medidos por sistemas de avaliação externa, se tornaram o
objetivo da política educacional e o parâmetro a ser usado para medir o sucesso do
governo na condução dessa política. Em recente relatório do Centro de Gestão e
Estudos Estratégicos sobre o legado dos anos Lula, escrito em parceria com a
Secretaria de Assuntos Estratégicos da Presidência da República, os autores escrevem:
Modelado pelos patamares dos países da OCDE, o Ideb estabeleceu
objetivos para o país, para cada sistema de ensino e cada escola, de modo
a que, em 2021, venhamos a atingir o nível educacional dos países
desenvolvidos em termos de proficiência em Linguagem e Matemática.
Teve o mérito de combinar resultados importantes, pois é desejável que os
níveis de proficiência melhorem e aumentem os percentuais de aprovação.
(OLIVEIRA; GADELHA, 2010) (p. 79)
O instrumento escolhido para ajudar os municípios a adotarem as metas e
trabalharem seriamente a favor da melhoria do Ideb foi o Plano de Ações Articuladas –
24
© 2011. Fundação Victor Civita. Todos os direitos reservados.
PAR. Esse plano, baseado em diagnóstico feito com a ajuda do MEC, seria a base de um
convênio pelo qual o Ministério exerceria o “monitoramento da execução do convênio
ou termo de cooperação e do cumprimento das obrigações educacionais fixadas no
PAR [...] com base em relatórios ou, quando necessário, visitas da equipe técnica” (Art.
11). Nas entrelinhas, leia-se o Ideb e a ideia de que os municípios aceitavam os
recursos do Ministério com a condição de implantar mudanças e promover a melhoria
da qualidade medida pelo novo indicador. Esse sistema de accountability, uma
novidade nas relações entre níveis de governo na área da Educação, só servia para
enfatizar uma vez mais a importância a ser atribuída aos resultados de desempenho
dos alunos e à necessidade de estar sempre monitorando a aprendizagem. Não é de
surpreender que em pouco tempo o Ideb tenha se tornado uma questão política para
os gestores da Educação em nível estadual e municipal e a avaliação educacional um
elemento da maior relevância na definição de prioridades governamentais. O Ideb
marca um divisor de águas na forma de fazer política educacional e uma mudança
radical nos critérios a serem empregados na avaliação do trabalho da escola e dos
responsáveis pelos sistemas de Educação.
3.1.
A Expansão dos Sistemas Estaduais de Avaliação
O Quadro 1, apresentado na página 37, mostra a evolução dos sistemas estaduais
de avaliação educacional no Brasil. Os primeiros estados a criarem sistemas próprios
são Ceará e Minas Gerais, em 1992. O governo do Ceará cria o Sistema Permanente de
Avaliação da Educação Básica em Ceará (Spaece), que se mantém até hoje, contando
com algumas mudanças durante os anos. Em Minas Gerais, foi criado o Programa de
Avaliação do Sistema Estadual de Ensino de Minas Gerais, que posteriormente se
tornou o sistema atual: o Sistema Mineiro de Avaliação da Educação Pública (Simave).
Essas primeiras iniciativas abrangeram testes de português e matemática no ciclo
Básico (3ª série) e na 8ª série, no caso do primeiro, e, no segundo, foram aplicados,
anualmente, testes de português e matemática para os alunos de 4ª e 8ª séries do
25
© 2011. Fundação Victor Civita. Todos os direitos reservados.
Ensino Fundamental, entre os anos de 1992 e 1996, sendo posteriormente realizado a
cada dois anos para que não coincidisse com as provas do Saeb.
O ano de 1992 também foi marcado pela implantação da Avaliação da Jornada
Única, pela Secretaria de Educação do estado de São Paulo. O projeto era verificar os
efeitos da jornada única nos anos do ciclo básico, de 1ª a 8ª série. Houve o
acompanhamento longitudinal de 3.600 alunos do Ciclo Básico de 60 escolas da região
metropolitana de São Paulo entre 1993 e 1995. Esse estudo teve grande importância,
na medida em que permitiu identificar “alunos-fantasmas”, matriculados sem estarem
cursando, e por verificar que o desempenho dos alunos das chamadas Escolas-Padrão
era semelhante ao observado nas demais modalidades de escola da rede estadual de
ensino, o que ocasionou a extinção das Escolas-Padrão (OLIVEIRA, 2007).
Esse processo culminou com a implantação do Sistema de Avaliação do
Rendimento Escolar (Saresp) em 1996. Os objetivos eram fornecer um perfil de
realização dos alunos que pudesse ser utilizado pelos professores para que tomassem
conhecimento do padrão de desempenho dos alunos, além do objetivo de identificar
os pontos críticos no processo de ensino e aprendizagem na Educação pública do
estado de São Paulo. O Saresp permanece com uma avaliação anual desde então, sem
interrupções.
A avaliação do Programa de Avaliação do Sistema Estadual de Ensino de Minas
Gerais foi realizada anualmente de 1992 a 1998, avaliando diferentes séries escolares
de um ano para o outro. Os objetivos do programa contemplavam principalmente a
avaliação do desempenho dos alunos das escolas estaduais referentes a aspectos dos
conteúdos curriculares, o levantamento de dados e informações que possibilitassem
políticas de intervenção para o desenvolvimento do processo de ensino-aprendizagem,
oferecer subsídios para os professores conduzirem com maior efetividade o processo
de ensino e permitir que a Secretaria de Educação como um todo direcionasse suas
ações (OLIVEIRA, 2007).
O estado do Paraná também criou um sistema próprio de ensino na metade dos
anos 1990. O Programa de Avaliação do Sistema Educacional do Paraná foi aplicado
26
© 2011. Fundação Victor Civita. Todos os direitos reservados.
pela primeira vez em 1995, na 4ª série do Ensino Fundamental, com testes de
português e matemática. Em 1996, foram aplicados testes na 8ª série do ensino
fundamental em ciências, história e geografia, além dos conhecimentos em português
e matemática, e português e matemática para o 2º ano do Ensino Médio. Já em 1997 e
1998, avaliaram-se, nos dois anos, a 4ª e 8ª séries do Ensino Fundamental e as
habilidades em língua portuguesa, matemática e ciências. O objetivo geral do
programa era obter informações gerais sobre o nível de conhecimento e habilidades
dos alunos da Educação básica do estado.
Também, na década de 1990, houve experiências de avaliação nos estados de
Mato Grosso do Sul e Rio Grande do Sul. De 1993 a 1997, foram realizadas avaliações
pontuais pelo Núcleo de Avaliação Educacional do estado do Mato Grosso do Sul de
algumas séries a cada ano nas escolas estaduais, mostrando um interesse maior em
fazer o diagnóstico do sistema do que o monitoramento do progresso. Em 1993,
15.000 alunos da 8ª série do Ensino Fundamental foram testados. Em 1994, 31.700
alunos da 5ª série do Ensino Fundamental e 1.364 alunos dos cursos de magistério. Em
1995, 26.000 alunos da 5ª série do Ensino Fundamental e 13.500 da 8ª. Em 1996,
alunos da 4ª série do curso do Cefam e da 3ª série do Curso do Ensino Médio da Escola
Hérculos Maymone, no total de 1.250 alunos. Em 1997, 12.000 alunos do 3º ano do
Ensino Médio foram testados. Já no estado do Rio Grande do Sul, houve avaliações nas
mesmas séries nos anos de 1996, 1997 e 1998. Contudo não se obtiveram maiores
informações dessas avaliações (LOPES, 2007).
No final dos anos 1990 e no princípio da nova década, observa-se que vários
estados começam a criar o seu próprio sistema de avaliação educacional, enquanto
outros aprimoram a parte técnica da avaliação, utilizando novos instrumentos e
procedimentos estatísticos. Pode-se dizer que um grande marco nas avaliações
educacionais no Brasil se dá com a utilização da metodologia de análise e
interpretação dos dados, chamada Teoria de Resposta ao Item (TRI). A utilização dessa
27
© 2011. Fundação Victor Civita. Todos os direitos reservados.
técnica é realizada pela primeira vez em 1995, no terceiro ciclo de avaliação do Saeb3.
Com base nessa técnica e nas novas Matrizes Curriculares de Referência, foi construído
um banco de itens para o quarto ciclo do Saeb, em 1997, utilizado até hoje.
Em 1999, com uma parceria entre MEC, Inep e Secretaria de Educação do Acre, é
realizada, de modo censitário, a avaliação dos alunos da 4ª série do Ensino
Fundamental nesse estado. A parceria realizou nova avaliação em 2003, também de
forma censitária, com os alunos de 8ª série do Ensino Fundamental e 3º ano do Ensino
Médio, além dos alunos de 4ª série do Ensino Fundamental novamente. Houve uma
orientação às escolas baseada nos resultados da avaliação. O retorno para as escolas
se deu por meio de relatórios individualizados e produzidos no estado, que foram
apresentados em seminários com diretores e coordenadores pedagógicos.
O ano de 1999 também é o início do Programa de Avaliação Externa da Secretaria
de Educação da Bahia, que aplica os primeiros testes em 2001. Esse programa se
dividiu em três eixos principais: 1. Avaliação de desempenho, com a aplicação de
testes de língua portuguesa e matemática a alunos de 4ª e 8ª séries, além de
questionários contextuais, aos alunos das escolas públicas dos municípios conveniados
ao Programa Educar para Vencer; 2. Avaliação da Aprendizagem, que teve início em
2001, com a aplicação de testes de matemática a alunos de 1ª e 2ª séries do Ensino
Fundamental das escolas públicas urbanas de 130 municípios baianos, e prosseguiu em
2002, com a aplicação a alunos de 1ª a 4ª série em 273 municípios; 3. O terceiro eixo
seria a criação de uma agência permanente de avaliação independente para dar
continuidade às avaliações de desempenho criadas pela Secretaria de Educação da
Bahia. Contudo, observou-se o fim do sistema de avaliação da Bahia já no ano de 2004.
Os resultados das avaliações foram divulgados por meio de relatórios e reuniões entre
os responsáveis pela avaliação e secretários municipais de Educação, diretores e
professores das escolas públicas.
3
As avaliações anteriores do Saeb se realizaram em 1990 e 1993.
28
© 2011. Fundação Victor Civita. Todos os direitos reservados.
Em 2000, houve a Avaliação das Escolas Públicas do Maranhão, numa parceria
com a Fundação Cesgranrio. Foram avaliados, de forma censitária, os alunos da 4ª
série do Ensino Fundamental da rede estadual. Em 2001, houve nova avaliação no
estado, de forma censitária para as escolas estaduais, e amostral para as escolas
municipais, destinada a alunos de 4ª e 8ª séries do Ensino Fundamental e 3º ano do
Ensino Médio. Em 2001, houve uma avaliação no Tocantins nos mesmos moldes da
realizada em 2001 no Maranhão, numa parceria do Inep com a Fundação Cesgranrio.
Em todos os casos, foram realizados testes de português e matemática. Os resultados
foram tratados pela metodologia adotada pelo Inep/MEC, com a análise estatística
baseada na TRI.
As avaliações estaduais em Minas Gerais e Paraná não se realizam em 1999. No
ano 2000, o Programa de Avaliação do Sistema Educacional do Paraná passa a utilizar a
TRI para o tratamento de seus resultados de modo a compatibilizar o produto das
avaliações com a escala e resultados do Saeb, também produzidos com esse método.
Em 2001, também não há avaliação. O ano de 2002 é o último a ter uma avaliação
estadual no Paraná. Além dos testes de língua portuguesa, foram incluídos ciências e
matemática para 4ª e 8ª séries, efetuados desde 1997, e testes de língua portuguesa,
matemática, física, química e biologia para o 3º ano do Ensino Médio.
Já em Minas Gerais, após a interrupção da avaliação em 1999, é criado em 2000 o
Sistema Mineiro de Avaliação da Educação Pública (Simave). Os objetivos principais de
sua criação foram avaliar todos os alunos estaduais da 4ª série, no primeiro ano do
ciclo intermediário, da 8ª série, no segundo ano do ciclo avançado, além do 3º ano do
Ensino Médio por meio do Programa de Avaliação da Rede Pública da Educação Básica
(Proeb). Posteriormente, a partir de 2005, é criado o Pro-Alfa para avaliar as séries
iniciais de alfabetização, os primeiros anos de aprendizagem escolar. O Simave em sua
origem já estabelece como unidade de análise o item do teste cognitivo, incorporando
também a metodologia de análise estatística da TRI com o objetivo de explorar os
resultados obtidos e possibilitar a comparação dos mesmos ao longo dos anos. O
Simave, tanto por meio do Proeb quanto do Pro-Alfa, é aplicado anualmente até os
dias de hoje.
29
© 2011. Fundação Victor Civita. Todos os direitos reservados.
Outro estado que passou por modificações em seu sistema de avaliação foi o
Ceará. A partir de 2001, o Spaece passou a aplicar os testes via internet. Os alunos
incluídos nas amostras por série respondiam aos testes em telessalas equipadas com
computadores. Nos três anos de 2001 a 2003, o programa passou a denominar-se
Spaece-Rede. A partir de 2001, o Spaece é aplicado anualmente até os dias de hoje,
possibilitando uma avaliação padronizada do progresso da Educação básica sem
interrupções. Em 2007, foi criado o Spaece-Alfa para avaliar a aprendizagem dos
alunos nas séries iniciais de alfabetização. O CAEd ficou responsável pela avaliação,
que ocorre anualmente desde então, usando uma metodologia baseada em itens
calibrados.
Em 2000, foi criado o Sistema de Avaliação Educacional de Pernambuco (Saepe),
em parceria entre a Secretaria de Educação de Pernambuco, a Unesco e o Inep, por
meio de um acordo de cooperação técnica. Inicialmente, foram aplicados testes de
leitura para os alunos de 2ª série e língua portuguesa, matemática e ciências para
alunos de 4ª e 8ª séries do Ensino Fundamental. No 3º ano do Ensino Médio, não foi
aplicada a prova de ciências. Também foram aplicados questionários contextuais para
escolas, diretores, professores, alunos e pais. O Saepe foi aplicado novamente em
2002, depois em 2005 e, desde 2008, é aplicado anualmente, pelo modelo CAEd, com
testes padronizados e a utilização da TRI.
Também no ano de 2000, foi criado o Programa de Avaliação da Educação Básica
(Paebes) pela Secretaria de Educação do Espírito Santo com o intuito de avaliar a
qualidade da Educação pública nos níveis fundamental e médio e, com base nos
resultados, implementar políticas e ações educacionais que visem a melhoria dos
processos de ensino-aprendizagem. Em 2004, o Paebes foi aplicado novamente com
nova metodologia pautada em Matrizes de Referência para a construção de itens, a
utilização da Teoria Clássica dos testes e da Teoria de Resposta ao Item (TRI), sendo
disponibilizados relatórios para as escolas e para os pais e um relatório geral. A
terceira avaliação aconteceu em 2008 e desde então o Paebes segue sendo aplicado
anualmente pelo CAEd.
30
© 2011. Fundação Victor Civita. Todos os direitos reservados.
O sistema de avaliação própria do estado do Rio de Janeiro foi criado pela
Secretaria de Educação também em 2000, baseado na implantação do programa Nova
Escola e aplicado em 2000, 2001, 2003, 2004 e 2005. Esse programa avaliava as escolas
se baseando em testes de português e matemática para alunos de 4ª e 8ª séries do
Ensino Fundamental e 3º ano do Ensino Médio. Também eram avaliados o fluxo
escolar dos alunos, em termos de aprovação, reprovação e abandono, e a gestão
escolar, na forma da assiduidade dos profissionais que trabalham na escola, relação
com a comunidade, correção da prestação de contas e a gestão com a matrícula. O
Programa Nova Escola também continha uma política de incentivo salarial para os
professores e demais profissionais da escola por meio de uma gratificação
proporcional aos objetivos alcançados pelas escolas, dentro de uma gradação de cinco
níveis de desempenho, variando de 5 a 25 pontos. A partir de 2008, a Secretaria de
Educação do Rio de Janeiro criou um novo sistema de avaliação, o Sistema de
Avaliação da Educação do Estado do Rio de Janeiro (Saerj), com o intuito de realizar
uma análise do desempenho dos alunos do ensino fundamental e médio, buscando
aprimorar os instrumentos para melhorar a Educação básica no estado. Desde então, o
Saerj é realizado anualmente por meio do modelo CAEd, com a utilização de Matrizes
de Referências, TRI e produção de boletins.
Em 2011, o estado do Rio implantou o Saerjinho, um teste diagnóstico para os
alunos de 5º e 9º anos do Ensino Fundamental e das três séries do Ensino Médio das
escolas estaduais de ensino regular. Os testes de língua portuguesa e de matemática
são aplicados ao final de cada bimestre. O objetivo é acompanhar mais de perto o
rendimento dos estudantes, detectando de maneira mais ágil as dificuldades de
aprendizagem das competências e habilidades propostas no Currículo Mínimo.
Em 2001, Goiás e Alagoas também iniciaram seus próprios sistemas de avaliação.
Em Alagoas, foi criado o Sistema de Avaliação Educacional de Alagoas (Saveal), visando
dar um panorama da realidade educacional do estado, e com base nele construir
indicadores básicos de qualidade que direcionasse as políticas para o fortalecimento
das escolas. A aplicação abrangeu todos os alunos das escolas públicas da 4ª série do
Ensino Fundamental. A segunda aplicação do Saveal ocorre em 2005, com o apoio da
31
© 2011. Fundação Victor Civita. Todos os direitos reservados.
Unesco. Os testes foram aplicados para alunos de 4º e 8º anos do Ensino Fundamental,
com a aplicação de provas de português e matemática. Há a previsão de que o Saveal
se realize este ano. Já a Secretaria de Educação de Goiás implantou o Sistema
Integrado de Avaliação do Estado de Goiás (Saego) para comparar a Educação no
estado com os níveis nacionais, buscando aperfeiçoar a Educação no estado. Foram
aplicados testes de língua portuguesa e matemática aos alunos de 4ª e 8ª séries do
Ensino Fundamental e 3º ano do Ensino Médio de forma censitária. O Saego foi
aplicado novamente em 2002 e 2004.
Em 2003, após a experiência de avaliação em meados da década de 1990, a
Secretaria de Educação do Mato Grosso do Sul, por meio de seu Núcleo de Avaliação
Educacional, implantou o Sistema de Avaliação da Educação do Mato Grosso do Sul
(Saems), tendo o CAEd como agência avaliadora. Os princípios que nortearam o
programa foram: a centralidade da escola, pela produção de indicadores de
desempenho por meio da aplicação de testes a alunos de 4ª, 8ª séries do Ensino
Fundamental e 3º ano do Ensino Médio, produzidos por unidade escolar, oferecendo
diagnóstico do trabalho por elas produzidos; participação, por meio de oficinas de
discussão da elaboração dos instrumentos de avaliação e a posterior produção de
itens; gestão consorciada, por meio da participação compartilhada entre Inep,
Secretaria Estadual de Educação, Universidade Estadual do Mato Grosso do Sul e CAEd
do sistema de avaliação em diferentes níveis; equidade, como ideal de promoção
política; publicidade, por meio da divulgação dos resultados às escolas e comunidades
em geral; e independência, no sentido de especialidade mais técnica sem caráter
político partidário. O Saems foi aplicado também nos anos de 2005, 2007, 2008, 2009 e
há a previsão de que seja aplicado este ano.
O estado do Amazonas também implementou uma avaliação das escolas públicas
em 2003, uma parceria entre a Secretaria Estadual de Educação e o Inep/MEC. A
avaliação foi feita nos moldes do Saeb. Houve treinamento dos professores,
elaboração do banco de itens e produção das provas. Foram avaliados alunos de 2ª, 4ª
e 8ª séries do Ensino Fundamental e 3º ano do Ensino Médio. Contudo a equipe
estadual responsável pela avaliação teve dificuldades de trabalhar com a TRI e optou
32
© 2011. Fundação Victor Civita. Todos os direitos reservados.
pela utilização da teoria clássica dos testes. Em 2008, a Secretaria Estadual de
Educação criou o Sistema de Avaliação do Desempenho da Educação do Amazonas
(Sadeam), com o objetivo de ter um monitoramento contínuo da Educação no estado e
planejar ações para melhorá-la. O Cespe foi responsável pela avaliação no estado.
Foram avaliados alunos de 5º ao 9º anos do Ensino Fundamental, 3º ano do Ensino
Médio e EJA. O Sadeam continua em funcionamento, sendo aplicado anualmente
desde então, utilizando em sua metodologia a Teoria Clássica e a TRI.4
Em 2004, foi implantado o Exame de Avaliação da Educação Básica do Estado do
Sergipe (Exaeb-SE) dentro do Sistema de Avaliação Periódica de Desempenho (Saped).
Houve avaliações em 2004, 2005 e 2006 com um exame aplicado anualmente a alunos
da 5ª à 8ª série do Ensino Fundamental e alunos do Ensino Médio do Ensino Médio das
escolas públicas estaduais. A avaliação foi amostral, mas contemplou todas as
unidades escolares, turmas e disciplinas no estado. Contudo não há muita informação
sobre esse sistema de avaliação, sobre os instrumentos e a metodologia utilizados,
sobre o tratamento de resultados e a divulgação. O que se sabe é que os relatórios
foram devolvidos para as escolas e os diretores (LOPES, 2007).
Após as avaliações externas realizadas em 1996, 1997 e 1998, o Rio Grande do Sul
implantou seu próprio sistema de avaliação em 2005: o Sistema do Rendimento
Escolar do Rio Grande do Sul (Saers), com objetivo de obter dados e informações sobre
o desempenho educacional dos alunos no que concerne ao seu desenvolvimento
cognitivo e, com isso, possibilitar a correção de políticas públicas na área. Foram
avaliados alunos de 2ª e 5ª séries do Ensino Fundamental, em relação à leitura, escrita
e matemática, de forma censitária, em escolas urbanas e rurais de duas
coordenadorias da rede estadual e em escolas municipais de 75 municípios. Também
4
Pela utilização de ambas as teorias na produção de materiais, o estado de Amazonas poderia se tornar
um estudo de caso para testar a hipótese que quando os Estados e municípios convertem suas
metodologias para a TRI, eles perdem uma parte da capacidade de avaliar os processos de
aprendizagem. Pela falta de familiaridade com a noção de proficiência e as conhecidas dificuldades de
fazer uma interpretação das escalas, sugere-se que o avanço técnico da avaliação que traz vantagens em
outras áreas possa também estar associado à perda de compreensão dos resultados.
33
© 2011. Fundação Victor Civita. Todos os direitos reservados.
foram aplicados questionários contextuais a alunos, professores e diretores. Em 2007,
segundo ano de aplicação do Saers, além das séries citadas também foram avaliados
alunos do 1º ano do Ensino Médio. Trabalhou-se, metodologicamente, com a Teoria
Clássica e com a Teoria de Resposta ao Item. O Saers foi aplicado em 2009 e 2010,
sendo interrompido após esse último ano de avaliação depois da mudança de governo.
Em 2008, além da criação do Sadeam, também foram implementados os sistemas
de avaliação do Piauí e do Distrito Federal. A Prova Piauí foi aplicada somente em 2008
até o momento. Desenvolvida pela Secretaria de Educação do Estado, a Prova Piauí
teve como objetivos, além de avaliar o desempenho do aluno no estado e realizar
políticas de intervenção com base no diagnóstico, também minimizar os índices de
evasão e repetência na Educação pública do estado. Os alunos de 3ª, 4ª, 7ª e 8ª séries
do Ensino Fundamental e 2º e 3º anos do Ensino Médio de todas as escolas públicas do
estado foram avaliados em testes de língua portuguesa e matemática.
Já a Secretaria de Educação do Distrito Federal implantou em 2008 a primeira
avaliação do Sistema de Avaliação do Desempenho das Instituições Educacionais do
Sistema de Ensino do Distrito Federal (Siade), ficando ela a cargo da Fundação
Cesgranrio. A proposta é avaliar 2ª, 4ª, 6ª e 8ª séries do Ensino Fundamental em
relação a redação, matemática e ciências e a 3ª série do Ensino Médio, em que a
avaliação de ciências seria substituída por testes de química, física e biologia. Novos
conteúdos, como história, geografia, filosofia e sociologia, também têm previsão de
serem avaliados. Desde 2008, o Siade é realizado anualmente na rede pública e na
rede privada, quando solicitado ou em função do recredenciamento. São
disponibilizados matrizes de referência e guia de itens. A metodologia contempla a
utilização da TRI e o desenvolvimento de índice próprio para monitorar as escolas.
Após as avaliações esparsas de 1999 e 2003, realizadas em parceria com o
Inep/MEC, a Secretaria de Educação do Acre criou em 2009 o Sistema Estadual de
Avaliação da Aprendizagem Escolar (Seape) com o intuito de fazer um diagnóstico do
sistema de ensino estadual e atuar como instrumento de monitoramento das políticas
públicas implementadas pelo estado. O CAEd é o responsável pelo Seape. São
avaliados, anualmente, alunos de 4ª e 8ª séries do Ensino Fundamental e 3º ano do
34
© 2011. Fundação Victor Civita. Todos os direitos reservados.
Ensino Médio das escolas estaduais e municipais do estado. São elaborados e
discutidos os itens da prova e posteriormente analisados com base na TRI. São
disponibilizadas também as matrizes de referência.
Pelo progressivo aumento da cor verde do Quadro 1, mostrando o crescimento
dos sistemas estaduais de avaliação, percebe-se que esses sistemas já se tornaram
aspectos fixos do panorama educacional do país. Os estados que ainda não têm são
minoritários e alguns dos que já tiveram, mas por diferentes motivos suspenderam seu
funcionamento, mostram a intenção de recuperá-los. A reformulação da metodologia
dos sistemas estaduais no princípio da década passada e a incorporação da TRI é o
divisor de águas na evolução recente da avaliação. A partir desse momento, um
número maior de estados se dispõe a experimentar com a criação de sistemas
próprios. No entanto, é só a partir da metade da década passada que os sistemas se
tornam mais permanentes, menos suscetíveis aos reveses políticos dos primeiros anos
da década de 1990 e mais sólidos em termos técnicos e metodológicos. Quase não se
escutam mais as dúvidas expressadas pelos professores e outros profissionais a
respeito da utilidade da avaliação externa. Como relatado por um dos técnicos
responsáveis pela implantação de um dos sistemas mais recentes, o do Distrito
Federal, a aceitação é geral:
...Desde que ele foi constituído, desde que se ouvir falar do Siade, a
expectativa foi muito grande, e desde sua primeira publicação até hoje
todo mundo se interessa, e se interessa de maneira positiva, pais, alunos, a
própria casa, profissionais. Tanto é que a gente trabalha do lado da
ouvidoria e a gente não teve uma reclamação sequer da avaliação em
nenhum aspecto, seja logístico, seja de material, seja da sua aplicação, dos
próprios conteúdos, né? (Técnico: SEE/DF)
Antes que se crie a noção que o avanço da avaliação foi um processo tranquilo,
sem solavancos nem retrocessos, é importante destacar a falta de continuidade das
políticas de avaliação mesmo nos estados com os sistemas mais consolidados. Nisso a
avaliação refletiu as dificuldades evidentes em outras dimensões da política
educacional, incluindo a fragmentação, falta de documentação e descontinuidade por
35
© 2011. Fundação Victor Civita. Todos os direitos reservados.
conta de rivalidades políticas. Devido à tendência de ver a política educacional como
questão partidária e as conhecidas resistências aos processos de avaliação externa por
parte de alguns segmentos dos professores, não foi incomum nas décadas passadas a
paralização dos sistemas de avaliação por certo tempo e até por períodos longos.
Pode-se dizer que a falta de continuidade pela ausência de consensos suprapartidários
sobre os rumos da política educacional prejudicou a evolução da avaliação educacional
e deixou marcas.
Talvez o exemplo mais marcante de um sistema de avaliação que ficou suspenso
em consequência de resistências políticas é o de Paraná. Esse sistema foi paralisado
em 2002 e continua sem previsão de retomada. A recente paralização do Saers, no Rio
Grande do Sul, pode também sinalizar um novo retrocesso caso o novo governo não
recupere a confiança no valor de avaliações estaduais regulares. Por outro lado, o caso
de Minas Gerais parece oferecer exemplo dos benefícios de um sistema que manteve
sua continuidade e que se consolidou justamente pela capacidade de fornecer
informações consistentes e comparáveis, independentemente da coloração partidária
do secretário. Com essa continuidade, uma política educacional que se fundamenta
nos resultados das avaliações e outros produtos do sistema de informações da
Secretaria pôde ser implantada gradativamente, permitindo uma consolidação mais
consensual e segura.
36
© 2011. Fundação Victor Civita. Todos os direitos reservados.
Quadro 1. Sistemas Estaduais de Avaliação Educacional 1992-2011
Região
Estado
NO
AC
1992
1993
1994
1995
1996
1997
1998
1999
2000
2001
AC
2002
2003
2004
2005
2006
2007
2008
2010
2011*
SEAPE
AC
AM
AM
2009
SADEAM
PA
RR
*
RO
AP
TO
NE
PAM
MA
AEP
SAD?
AEP
SIMADE?
PROVA
PIAUÍ
PI
*
SPAECE
CE
SPAECE
ALFA
RN
PB
SAEPE
PE
SAVEAL
AL
EXAEB
SE
PAE
BA
CO
MT
MS
SAEMS
NAE
*
SAEGO
GO
SIADE
DF
SE
MG
ES
AVA-MG
SIMAVE
PROALFA
PAEBES
37
© 2011. Fundação Victor Civita. Todos os direitos reservados.
PNE
RJ
SAERJ
SAERJINHO
SU
SP
SARESP
PR
AVA
SC
SAERS
RS
AC - Avaliação Escolas Públicas do Acre (1999 e 2003) Parceria Inep-Mec
AEP - Avaliação Escolas Públicas Cesgranrio
AC - Avaliação Escolas Públicas do Amazonas (2003) Parceria Inep-Mec
AVA - Programa de Avaliação do Sistema Educacional do Paraná
EXAEB-SE – Exame de Avaliação da Educação Básica do Estado de Sergipe
NAE – Núcleo de Avaliação Educacional do Mato Grosso do Sul
PAEBES - Programa de Avaliação da Educação Básica do Espírito Santo
PAE - Projeto de Avaliação Externa
PAM – Projeto de Avaliação do Maranhão
PNE – Programa Nova Escola
PROVA PIAUÍ
SAD – Sistema de Avaliação de Desempenho (dúvida se é nos mesmos moldes dos
outros)
SADEAM – Sistema de Avaliação de Desempenho Educacional do Amazonas
SAEGO – Sistema de Avaliação da Educação de Goiás
SAEMS – Sistema de Avaliação da Educação Básica do Mato Grosso do Sul
SAEPE – Sistema de Avaliação Educacional de Pernambuco
SAERJ – Sistema de Avaliação da Educação do Estado do Rio de Janeiro
SAERS – Sistema de Avaliação do Rendimento Escolar do Rio Grande do Sul
SARESP – Sistema de Avaliação do Rendimento Escolar do Estado de São Paulo
SAVEAL – Sistema de Avaliação de Alagoas
SEAPE – Sistema Estadual de Avaliação da Aprendizagem Escolar
SIADE – Sistema de Avaliação de Desempenho das Instituições Educacionais do
Distrito Federal
SIMADE – Sistema Maranhense de Avaliação de Desempenho
SIMAVE – Sistema Mineiro de Avaliação (SIMAVE – PROEB DESDE 2000 /
PROALFA DESDE 2005)
SPAECE – Sistema Permanente de Avaliação da Educação Básica do Ceará
* A referência de 2011 é para estados que vão iniciar ou retomar a avaliação educacional neste ano com base em informações não oficiais. Para os estados com sistemas
de avaliação consolidados, supõe-se que haja a continuidade no ano corrente. O estado do Paraná sinaliza com a volta de seu sistema de avaliação no segundo semestre
de 2012.
38
© 2011. Fundação Victor Civita. Todos os direitos reservados.
4.
Accountability e as Avaliações High-Stakes
A ideia de usar a avaliação educacional com o propósito de focar as atenções nos
resultados e, mediante diferentes estímulos ou medidas coercitivas, promover ou
induzir mudanças nos professores e nas escolas não é uma política nova. Em 1863, o
parlamento britânico estabeleceu um sistema de financiamento educacional que
durante quase 30 anos fixava os salários dos professores de acordo com os resultados
dos alunos em provas orais aplicadas pelos inspetores escolares (RAPPLE, 1994).
Portanto, políticas de accountability efetivadas por meio do uso de provas high-stakes
para determinar o pagamento de professores com base nos resultados dos alunos têm
no mínimo 150 anos.
Em tempos modernos, a associação entre resultados e consequências,
principalmente no uso de provas finais para determinar a graduação do Ensino Médio
nos Estados Unidos, data da década de 1970. Porém o uso mais recente de políticas
que responsabilizam as escolas pelos seus resultados, coroado por uma legislação
federal naquele país que no princípio da década passada estipulava metas de
proficiência para todos os grupos e ameaçava fechar escolas que não as alcançavam,
tem levado a prática da accountability a um patamar de exigência nunca antes
experimentado.
O descontentamento público com a qualidade da Educação na década de 1970
nos Estados Unidos se derivava do aparente fracasso dos programas de Educação
compensatórios, das diferenças marcantes nos resultados dos grupos raciais, da falta
de empregabilidade dos jovens e da sensação geral de que o diploma de Ensino Médio,
tradicional símbolo de uma Educação completada, já não estava significando grande
coisa. O que nasceu desse caldo foi o movimento a favor das “competências mínimas”
e a ideia de que todo aluno deveria passar por testes para certificar se efetivamente
satisfazia às exigências mínimas para aquele curso ou ano de estudo. A mudança de
ênfase de insumos escolares para resultados escolares foi acompanhada por uma
política de estabelecer a satisfação das competências mínimas como requisito para
receber o diploma de Ensino Médio e, até 1985, 33 dos 50 estados já estipulavam esse
39
© 2011. Fundação Victor Civita. Todos os direitos reservados.
requisito em lei (HAERTEL; HERMAN, 2005). Para evitar problemas políticos causados
pelo aumento no número de egressos do Ensino Médio sem diploma, o nível de
exigência foi mantido relativamente baixo, e a ênfase em competências mínimas ou
básicas, preservada. Se havia accountability, nesse momento era mais pelas cobranças
feitas aos distritos escolares para que cumprissem as resoluções dos governos
estaduais e aos professores para cumprissem as normas da profissão (ANDERSON,
2005).
Foi a criação de metas de proficiência com consequências para as escolas,
incorporadas em lei no Texas e em outros estados ao longo da década de 1990, que
levou a política de accountability a um patamar ainda desconhecido. O novo sistema
continuou de olho nos resultados das avaliações, mas seguia um raciocínio diferente,
derivado de um clima político que traçava paralelos entre a Educação e o mundo dos
negócios e refletia uma teoria explícita de ação a respeito da melhoria do desempenho
dos alunos que enfatizava a motivação dos professores, alunos e gestores. Apesar de
pesquisadores demonstrarem que o sistema de accountability implantado no Texas
não trazia nenhum benefício para os latinos (VALENZUELA, 2005), era quase inevitável
que se tornasse o modelo para a legislação federal quando o governador George Bush
Jr. se elegeu presidente.
A legislação federal, aprovada pelo congresso em 2001, recebeu o nome de
Nenhuma Criança Deixada para Trás, ou NCLB (sigla em inglês). O NCLB aumentou
significativamente as obrigações dos estados na aplicação de avaliações, estipulou
metas de accountability para escolas, distritos e estados e legislou sobre o “progresso
anual aceitável” para todos os alunos e subgrupos de alunos por nível socioeconômico,
raça, língua materna e necessidade especial (LINN; BAKER; BETEBENNER, 2002). A
avaliação anual foi estendida para entre a 3ª e a 8ª série, juntamente com
recomendações para a formulação de padrões curriculares, e as metas para todos os
alunos alcançarem proficiência até o ano de 2014 foram acompanhadas de uma série
de provisões caso a escola não cumpra a sua tarefa. Essas variavam desde o direito dos
pais de levarem seus filhos para outras escolas até o fechamento e “reconstituição” da
40
© 2011. Fundação Victor Civita. Todos os direitos reservados.
escola que não alcançasse o progresso anual adequado por anos consecutivos
(HAERTEL; HERMAN, 2005).
O objetivo da legislação era de pressionar as escolas públicas, principalmente as
consideradas de desempenho fraco, a melhorar seu rendimento de acordo com
parâmetros padronizados nas diferentes áreas do currículo e para os diferentes
subgrupos de alunos (MALEN; RICE, 2004). Segundo Fuhrman (2005), esse propósito
tinha vários pressupostos: que o desempenho dos alunos nas provas fosse o objetivochave da escola e o sistema de accountability devesse ser construído em torno dele;
que o desempenho pudesse ser medido de forma precisa; que as consequências
motivassem professores e alunos; que o efeito geral pudesse ser um ensino de
qualidade e um nível superior de desempenho; e que os efeitos colaterais e
indesejados fossem mínimos (FUHRMAN, 2003).
Esses pressupostos demonstram o quanto os novos sistemas de accountability
são polêmicos e indicam, portanto, a necessidade de fazer múltiplas perguntas para
poder avaliá-los em todas as suas dimensões. Não é suficiente perguntar se os alunos
estão aprendendo mais. Há a necessidade de determinar se essa aprendizagem
significa progresso educacional para todos (SUNDERMAN, 2008), se os sistemas de
avaliação são válidos e justos e se há formas de melhorá-los para que a aprendizagem
avance mais (FUHRMAN, 2003). E, mesmo quando se toma a aprendizagem como
critério, há de perguntar também se os alunos que estão sendo mudados para outras
escolas por força da legislação estão sendo beneficiados. A esse respeito, uma
pesquisa indica que a proximidade e disponibilidade de escolas de notas altas são
fatores preponderantes na capacidade de os sistemas de accountability e a política de
dar a liberdade de escolha de escola aos pais impactarem os resultados dos alunos,
mas que ainda essas condições não são frequentes (HASTINGS, 2007).
As pesquisas que demonstram que há ganhos na aprendizagem são várias. Jacob
(2002) encontrou ganhos imediatos no desempenho em matemática e leitura logo
após a introdução da política de accountability nas escolas públicas de Chicago, em
comparação com as tendências anteriores e também em comparação com outros
distritos urbanos do Meio-Oeste. Porém os ganhos identificados foram provocados por
41
© 2011. Fundação Victor Civita. Todos os direitos reservados.
melhorias nas habilidades específicas medidas pelos testes e na motivação dos alunos
e não houve ganhos equivalentes em testes estaduais low-stakes, sem consequências
para os alunos (JACOB, 2002). O autor também notou que os professores responderam
estrategicamente aos incentivos, classificando alunos como portadores de
necessidades especiais, retendo alunos na série anterior aos testes e procurando
lecionar em áreas curriculares não sujeitas aos testes.
Esses comportamentos são observados em outras pesquisas que mostram que,
quando há resultados positivos, indicando ganhos aparentes na aprendizagem dos
alunos após a implantação de sistemas de accountability, esses resultados podem
também ser explicados por outros fenômenos. O mais comum dessas explicações
alternativas é fornecido pela exclusão de alunos de desempenho mais baixo que, por
retenção ou por abandono, são removidos da coorte. Se esses alunos tivessem
continuado entre os alunos testados, teriam anulado o ganho médio do grupo
(NICHOLS; GLASS; BERLINER, 2005). Outra explicação é fornecida pelo comportamento
“gaming” dos próprios estados perante as exigências de melhorias anuais. Diversos
autores (LINN; BAKER; BETEBENNER, 2002; CAREY, 2007) encontram evidência de
afrouxamento dos padrões de conteúdos, do rigor dos testes e do nível de exigência
dos estados. Em consequência, o percentual de alunos que alcançam o nível
considerado satisfatório ou proficiente nas avaliações estaduais ao final do Ensino
Médio pode variar de um estado a outro e de um ano a outro sem que isso signifique
uma diferença substantiva na qualidade do ensino.
A diversidade dos parâmetros das avaliações estaduais tem levado muitos
pesquisadores a abandonarem a taxa de graduação do Ensino Médio como uma
medida de progresso na aprendizagem e abraçar como indicador independente os
resultados da Avaliação Nacional de Progresso Educacional – Naep, a maior e mais
conhecida avaliação padronizada de 4ª e 8ª séries. Apesar de alguns não encontrarem
uma relação significativa entre os resultados do Naep e os resultados medidos pelos
testes estaduais high-stakes (AMREIN; BERLINER, 2002), a maior parte da pesquisa
subsequente mostra essa conexão. As pesquisas de Carnoy e Loeb (CARNOY; LOEB,
2002) e de Braun (BRAUN, 2004) são exemplos de como dados transversais parecem
42
© 2011. Fundação Victor Civita. Todos os direitos reservados.
apoiar a conclusão que os testes high-stakes de fato promovem desempenhos
melhores. Essas e outras evidências têm influenciado os formuladores das políticas
educacionais dos estados, como de Nova York:
Exames com consequências atreladas, como a proibição de se graduar da
escola de Ensino Médio, fornecerão os incentivos para os estudantes
estudarem e trabalharem mais para passar. Mesmo não sendo conclusiva,
a grande maioria dos estudos mostra a existência de uma relação e
estamos confiantes em concluir que a existência de exames high-stakes
geralmente leva a um desempenho acadêmico mais alto (NYSED, 2004) (p.
3).
No entanto, outras pesquisas mostram que os avanços medidos pelo Naep
podem também ser ilusórios. Em pesquisa na Flórida para compreender os avanços
dos alunos da 4ª série no teste de matemática do Naep de 2005 em comparação aos
alunos de outros estados, Haney (2006) comprova que o festejado resultado foi reflexo
indireto do aumento na taxa de reprovação em 2003-2004. Além do mais, os alunos
obrigados a repetirem a 3ª série foram desproporcionalmente alunos de grupos
minoritários, o que levou a uma redução igualmente falsa na diferença entre as médias
dos diferentes grupos raciais.
O que causou a queda dramática na diferença entre os grupos raciais nos
resultados Naep na Flórida? A análise da transição entre as séries com base
em informações de matrícula torna bastante clara a resposta [...] as
análises da matrícula por grupo racial (negro, hispânico e branco) deixa
claro que quando a Flórida começou, em 2003-2004, a aumentar a
repetição na 3ª série, eram desproporcionalmente crianças negras e
hispânicas (de 15 a 20% tiveram que repetir), em comparação com crianças
brancas (cerca de 4 a 6% tiveram que repetir a 3ª série. (HANEY, 2006) (p.
6).
Devido à importância atribuída à redução das diferenças entre os grupos raciais
na legislação NCLB e no processo de monitoramento anual do progresso de todos os
43
© 2011. Fundação Victor Civita. Todos os direitos reservados.
grupos em direção à meta comum, chama a atenção a conclusão do pesquisador de
que os resultados baseados em amostras de alunos por série, como da Naep e a
maioria dos testes estaduais, sempre mascararão as desigualdades do sistema.
Enquanto a atenção se concentra nas diferenças de desempenho dos grupos raciais em
determinada série, a verdadeira diferença se revela no progresso dos diferentes
grupos no sistema educacional (HANEY, 2006).
Outra parte significativa da bibliografia mostra que não só não há resultados
positivos mas que também as provas high-stakes chegam a fazer mal ao processo
educativo. Nichols (2005) não encontra a evidência de um efeito positivo de provas
high-stakes, enquanto Malen (2004) demonstra como versões de sistemas de
accountability high-stakes podem diminuir a capacidade das escolas com mais
dificuldades de melhorarem seus resultados, mesmo na presença de recursos
adicionais (MALEN; RICE, 2004; NICHOLS; GLASS; BERLINER, 2005). Outros efeitos
colaterais incluem a redução na criatividade e no entusiasmo dos professores devido
às demandas pouco razoáveis a que estão sujeitos e que os levam a abandonar a
profissão (JOHNSON; JOHNSON, 2002), e a tendência dos professores de ensinar para
o teste, e dessa forma inflar artificialmente os resultados dos alunos, ao mesmo tempo
em que se descuidam das atividades e áreas curriculares não sujeitas ao
monitoramento (VOLANTE, 2004).
Muitos dos estudos acessados concluem que o accountability como política
pública que promete mudanças substanciais fica aquém do prometido (MANNA, 2010)
ou produz resultados superficiais e contraditórios. O termo superficial se refere à
descoberta que, enquanto os testes high-stakes parecem motivar os professores e
gestores a mudarem sua prática, as mudanças tendem a ser antes meros ajustes
superficiais no conteúdo ensinado e no preparo dos alunos para as provas do que
melhorias permanentes na prática de ensino. Ainda mais problemático, a informação
fornecida pelas avaliações em larga escala serve mais para medir o progresso da escola
ou do sistema do que para guiar o ensino, de modo que a política é bem menos
substantiva do que se costuma pensar. Enquanto serve para indicar as fragilidades das
44
© 2011. Fundação Victor Civita. Todos os direitos reservados.
escolas, oferece pouco em termos de informação e orientação para a formulação de
respostas pedagógicas (SUPOVITZ, 2009).
Os resultados também são conflitantes. Em meta-análise de 49 estudos das
relações entre testes high-stakes e práticas docentes, Au (2007) encontra tendências
contraditórias. Os efeitos mais visíveis são a redução do conteúdo para os tópicos dos
testes, a fragmentação dos conhecimentos em pedaços relacionados aos testes e o
aumento nas práticas de ensino centradas no professor. Por outro lado, em
determinados momentos, os testes high-stakes têm levado a uma expansão no
currículo, à integração de diferentes áreas curriculares e ao uso de estilos de ensino
mais cooperativos, centrados nos alunos. Os achados contraditórios da pesquisa
sugerem que o impacto da política de testes high-stakes sobre a prática do professor
esteja condicionado pela própria natureza dos testes e pela relação deles com o
currículo (AU, 2007).
Talvez por esse motivo existam autores que pensam que os sistemas de
accountability como o NCLB possam ainda promover mudanças positivas. Anderson
(2005) argumenta que, para um sistema de accountability produzir resultados de
aprendizagem ao mesmo tempo em que atende às necessidades legais e profissionais
do corpo docente, ele precisa satisfazer alguns requisitos, entre os quais a necessidade
de expressar uma completa harmonia de propósitos e instrumentos (ANDERSON,
2005). Para esse e outros autores, a conceito usado é o do alinhamento dos objetivos,
do currículo, do ensino, dos recursos e das avaliações. Sem esse alinhamento, que
começa com um consenso em torno de um currículo-padrão e se estende para dentro
da sala de aula por meio do currículo ensinado, não há sistema de avaliação que possa
oferecer alguma orientação para a prática do professor ou fornecer as bases para uma
distribuição justa de prêmios.
4.1 Sistemas de Incentivos
Outro assunto levantado pelos novos sistemas de accountability diz respeito à
própria teoria dos incentivos e seu impacto no comportamento dos professores. Por
45
© 2011. Fundação Victor Civita. Todos os direitos reservados.
causa da polêmica sobre os novos sistemas de “pagamento por resultados” e de
incentivos salariais nos Estados Unidos, existe uma literatura já considerável sobre
esse tópico, que nos ajudará a especular sobre os possíveis efeitos dos sistemas de
incentivos salariais para professores sendo implantados no Brasil e seus impactos no
resultado dos alunos.
Quando a pesquisa se concentra na comparação dos resultados dos alunos de
acordo com a presença ou não de sistemas de pagamento de incentivos, a tendência
nos Estados Unidos e em outros países como Índia e Israel é mostrar que os alunos
têm desempenho superior quando seus professores estão aptos a receberem algum
bônus. Usando dados de um experimento natural em um distrito escolar onde uma
escola de Ensino Médio adotou um sistema de incentivos e outro não, Eberts e colegas
não conseguiram mostrar que houve impacto na média dos alunos, mas constataram
que a proporção de alunos evadidos diminuiu significativamente (EBERTS;
HOLLENBECK; STONE, 2000). Figlio e Kenny (2006), por outro lado, com base na
Pesquisa Longitudinal Nacional sobre Educação (NELS), encontraram resultados
melhores em escolas com sistemas de incentivos, mas pela natureza dos dados não
puderam descartar a possibilidade de esse resultado ter sido causado pela adoção dos
sistemas de incentivos pelas melhores escolas (FIGLIO; KENNY, 2006). Resultados mais
convincentes foram encontrados por Winters em estudo do sistema de incentivos de
Little Rock, Arkansas, onde os alunos dos professores incluídos no programa obtiveram
ganhos substanciais (WINTERS, 2008) e Atkinson, na Inglaterra, onde o ganho equivalia
a aproximadamente 40% de um ano escolar por aluno (ATKINSON, 2009). O estudo de
Lavy de professores de inglês e matemática incluídos em programa de premiação por
aumentos no resultados dos alunos no exame de ingresso ao Ensino Médio mostrou
ganhos na proporção de alunos prestando o exame, nas médias e na taxa de
aprovação, causados por mudanças no ensino, nos cuidados dos professores com os
alunos e o tempo gasto fora do horário escolar (LAVY, 2009). Mesmo representando
somente 3% do salário anual, os incentivos oferecidos no estado indiano de Andra
Pradesh foram suficientes para melhorar os resultados dos alunos em 0,28 e 0,16
46
© 2011. Fundação Victor Civita. Todos os direitos reservados.
desvios-padrão
em
matemática
e
língua
após
dois
anos
do
programa
(MURALIDHARAN; SUNDARARAMAN, 2009).
Outros autores são menos otimistas e enfatizam possíveis efeitos negativos dos
sistemas de incentivos, incluindo a erosão da motivação intrínseca inerente à docência
pela motivação extrínseca mais instrumental. Springer (2009) menciona a perda do
ambiente colaborativo e a instalação de interesses mais competitivos ao mesmo
tempo em que critica a incapacidade dos testes de retratar a complexidade multitarefa
do trabalho do professor (SPRINGER, 2009). Relatório da Corporação Rand também
fala da possibilidade de efeitos negativos na moral dos professores, no espírito de
colaboração entre membros da equipe e no desempenho dos alunos (RAND, 2009). Os
trabalhos que não detectam ganhos entre os alunos de professores incluídos em
programas de incentivos observam o efeito de pequenas variações no próprio desenho
dos programas e a necessidade de envolver os interessados no processo de
formulação (PRINCE, 2008 ).
Quando a pesquisa faz a distinção entre sistemas de incentivos individuais e
sistemas de incentivos coletivos, pagos a todos os integrantes da equipe escolar
independentemente se foram ou não os professores dos alunos testados, os
resultados se tornam mais relevantes para a situação brasileira. Com a exceção do
prêmio para os professores alfabetizadores de Sobral, os incentivos brasileiros são
coletivos, pagos, mediante fórmulas diversas, à coletividade escolar com justificativas
que geralmente explicitam o propósito de motivar a equipe inteira e evitar possíveis
divisões causadas pelos incentivos individuais. Os motivos também são práticos. Como
detalhado por Ahn e Vigdor, pela concentração da avaliação em poucas áreas
curriculares e em só algumas séries escolares geralmente são poucos os professores
cujos alunos são efetivamente testados, mesmo nos Estados Unidos, (AHN; VIGDOR,
2010). Outro problema é a distribuição não aleatória de alunos entre as turmas e a
consequente distribuição enviesada de resultados e incentivos entre os professores. O
terceiro problema, a ser discutido em relação ao uso de novas metodologias de valor
agregado para a avaliação docente, é que os instrumentos de avaliação e os métodos
estatísticos para determinar a relação entre os resultados dos alunos e o trabalho do
47
© 2011. Fundação Victor Civita. Todos os direitos reservados.
professor ainda sofrem de flutuações aleatórias e outras imprecisões que dificultam
seu uso para incentivos individuais.
Apesar das aparentes vantagens do incentivo coletivo, a pesquisa não
demonstra o mesmo impacto. Muralidharan mostra que, enquanto as duas
modalidades de incentivo produziram impactos similares no primeiro ano, a partir do
segundo ano os incentivos individuais superaram os outros (MURALIDHARAN;
SUNDARARAMAN, 2009). Goodman e Turner, por outro lado, mostram pouco impacto
para incentivos de grupo pagos de acordo com o cumprimento de metas pela escola.
Em pesquisa conduzida no sistema público de Nova York, foram criadas diversas
medidas de resultados, incluindo esforço docente, desempenho dos alunos em
matemática e leitura e práticas de sala de aula. Foi detectada a prática de free-riding,
em que os professores cujos alunos não foram testados beneficiaram-se do trabalho
dos outros, mas sem esforço próprio, o que reduziu significativamente o efeito dos
incentivos do programa. Em escolas com um número menor de professores, os
incentivos levaram a uma melhora significativa na frequência dos professores, mas
essa mudança não se traduziu em ganhos nos resultados dos alunos (GOODMAN;
TURNER, 2010).
Talvez não seja tão difícil entender esses resultados. No caso dos incentivos
individuais, o professor que não ganha o bônus terá condição de modificar seu
comportamento com base no modelo oferecido por outros professores da mesma
escola que receberam o incentivo. Nesse caso, há uma conexão possível entre o
sistema de incentivos e a mudança pretendida na prática dos professores menos
produtivos. No caso do incentivo de grupo, essa conexão não existe. O professor que
pertence a uma escola que não recebe o bônus não tem em quem se modelar para
produzir um comportamento ou prática docente diferente. Da mesma forma, a escola
que ganha o bônus coletivo não recebe indicação das práticas consideradas bemsucedidas e deve encarar o pagamento mais como um adicional ou um 13º salário do
que propriamente um incentivo para o aprimoramento do ensino da escola.
O resultado de que o incentivo de grupo talvez tenha impactado a motivação do
professor, medida por sua frequência ou assiduidade, sugere que os sistemas
48
© 2011. Fundação Victor Civita. Todos os direitos reservados.
brasileiros que condicionam o pagamento do bônus ao cumprimento de um número
mínimo de dias de serviço estejam no caminho certo. Nesses casos, os efeitos das duas
condições, a do cumprimento das metas e a dos dias de serviço, se somam em favor de
um impacto dobrado. Resta saber se no caso brasileiro o efeito da melhoria na
frequência do professor se traduz em avanços na aprendizagem dos alunos. Os
resultados de Nova York não encorajam otimismo a esse respeito.
Publicação recente do Comitê sobre Incentivos e Accountability Baseado em
Testes na Educação Publica, do National Research Council dos Estados Unidos, pode
nos ajudar a concluir essa discussão a propósito dos resultados de pesquisas sobre os
efeitos dos incentivos salariais em outros países (HOUT; ELLIOTT, 2011). Nessa
metapesquisa, que classifica e avalia um número seleto de trabalhos da última década,
os autores estabelecem uma série de critérios para a exclusão de estudos que por
motivos metodológicos não atingem um grau satisfatório de confiabilidade. O primeiro
critério é que os estudos precisam de grupo de controle, para poder provar que os
incentivos são efetivamente a causa das mudanças na aprendizagem. O segundo
critério obriga o uso de um teste independente low-stakes para medir o efeito dos
incentivos sobre a aprendizagem. Pelo conhecido efeito de “inflação” de resultados
nos testes usados para determinar o pagamento de bonificações, os autores insistem
que este mesmo teste não pode ser usado como a medida usada pela pesquisa para
aferir o impacto da política. O terceiro critério exclui os estudos transversais que
comparam os resultados de escolas incluídas e não incluídas em programas de
incentivos que não controlaram pelos critérios de inclusão.
São 11 os estudos que satisfazem os critérios e oferecem uma base para
conclusões confiáveis, cinco dos Estados Unidos e seis de outros países. Nos Estados
Unidos as pesquisas mostram que os programas de incentivos não tem influenciado os
níveis de desempenho dos alunos de forma significativa. O efeito médio varia de -0,02
a 0,06 desvio padrão quando os programas são avaliados pelo uso de testes low-stakes
de controle. Os estudos em outros países, incluindo os estudos já mencionados de
Muralidharan e Sundararaman na Índia e Lavy em Israel, os efeitos são maiores, com
49
© 2011. Fundação Victor Civita. Todos os direitos reservados.
um efeito médio de 0,08 d.p., mas com extremos na Índia, de 0,22 d.p., no caso de
escolas com incentivos individuais, e 0,15 d.p., nas escolas de incentivos coletivos.
Os autores relutam em chegar a conclusões gerais pelo fato de ainda existirem
muitos desenhos de políticas de incentivos ainda sem experimentação e muita
variação entre os desenhos já testados. Mesmo assim, eles acreditam que os
benefícios são bem menores do que o esperado e pouco convincentes perante o
tamanho do desafio para melhorar os resultados das escolas. Observam que os custos
são altos, o que não deveria ser uma razão para deixar de investir em outras políticas
de melhoria, potencialmente mais eficazes.
4.2. Sistemas de Responsabilização na América Latina
Depois das reformas educacionais da década de 1990 e a incorporação dos
sistemas de avaliação padronizada como instrumentos de gestão, a questão do acesso
cedeu lugar à aprendizagem e à melhoria dos resultados escolares como objetivos
principais dos sistemas educacionais da América Latina. Na esteira desse movimento,
grandemente facilitado pelas agências das Nações Unidas e outros órgãos
multilaterais, também foi incorporada a discussão sobre o uso dos resultados dos
sistemas de avaliação para induzir mudanças no mesmo sentido que os sistemas de
accountability nos Estados Unidos.
A primeira barreira a superar era a tradução correta da palavra accountability. Em
inglês, a palavra expressa dois conceitos, um relacionado com a prestação de contas e
a outra com a ideia da responsabilização. Quando aplicada especificamente à escola, a
noção de prestação de contas significa a cobrança legítima de um serviço público de
qualidade em troca da manutenção da escola com recursos públicos oriundos dos
impostos pagos pela população. Em jogo está o direito do cidadão de esperar bons
serviços, medidos em termos da aprendizagem dos alunos, se esses são sustentados
pelos dólares ou reais dos contribuintes. O segundo significado da palavra é
inseparável e consequência do outro, mas expressa a ideia que o público tem o direito
de demandar que a escola assuma sua responsabilidade direta pelos resultados de
50
© 2011. Fundação Victor Civita. Todos os direitos reservados.
seus alunos. Accountability, portanto, significa uma cobrança por bons resultados e a
demanda de que cada um dos atores envolvidos assuma a sua responsabilidade na
produção desses resultados (BROOKE, 2006; CORVALÁN; MCMEEKIN, 2006; FERRER,
2006; MCMEEKIN, 2006).
No contexto latino-americano, em que a consciência do contribuinte é menos
cultivada e não há o mesmo rigor ou sentimento de posse em relação a tudo o que é
público, foi o elemento da responsabilização que tomou precedência na hora de
esboçar uma tradução (BROOKE, 2006; BROOKE, 2008). A própria discussão da política
pública pode ter sido prejudicada pela precipitação dos autores em optar por uma
tradução incompleta, mas não há alternativa prática à vista. Entre os dois significados,
parece que a responsabilização é o termo que mais exprime o sentimento de que a
escola precisa ser lembrada das suas responsabilidades.
O pioneiro da responsabilização na América Latina é o Chile. O Sistema Nacional
de Avaliação dos Estabelecimentos Subvencionadas (Sned) desse país é acionado a
cada dois anos, desde 1996, para distribuir prêmios às escolas com os melhores
resultados no Simce e dessa forma estabelecer consequências para o trabalho dos
professores. Segundo Mizala e Romaguera (2003, 2005), essa política, dirigida a todas
as escolas que recebem financiamento público com o objetivo explícito de aumentar a
motivação dos professores, oferece prêmios às escolas com as médias mais altas na
avaliação bianual do Simce, em comparação a escolas de características e nível
socioeconômico similares. Adicionalmente, o sistema de premiação se transforma em
orientação para os pais ao entregar informação à comunidade escolar sobre a
qualidade das escolas mediante comparações em diversas dimensões do ensino
(MIZALA; ROMAGUERA, 2003). Em cada região, as melhores escolas são premiadas até
alcançar 25% dos alunos matriculados, o que na prática significa aproximadamente
20% das escolas e 27% dos professores. A lei estipula que 90% do montante recebido
seja distribuído entre os professores e o restante distribuído de acordo com as
prioridades de cada escola. Em 2005, o valor distribuído para cada professor equivalia
entre 5 e 7% do salário anual, mas a legislação mais recente efetivamente duplica esse
valor, além de aumentar a proporção da matrícula regional que será coberta pelos
51
© 2011. Fundação Victor Civita. Todos os direitos reservados.
“prêmios de excelência” de 25 para 35% (MIZALA; ROMAGUERA, 2005; VEGAS;
UMANSKY, 2005). Apesar de existirem sistemas de incentivos em outros países da
América Latina, como Bolívia e El Salvador, o Sned do Chile era o único que enfatizava
principalmente os resultados dos alunos no cálculo do indicador final de desempenho,
juntamente com alguns indicadores de processo e de igualdade de oportunidades.
Novos sistemas de responsabilização no Brasil, a serem discutidos logo a seguir,
alteram esse panorama regional.
A pesquisa sobre o impacto do Sned é dificultada pela ausência de um grupo de
comparação, já que todas as escolas com financiamento público competem pelos
prêmios, e pelo problema de endogenia sofrido pelas avaliações de impacto do Sned
que precisam usar como indicador o mesmo resultado usado pelo Sned no cálculo do
índice de desempenho da escola. A solução encontrada por Mizala e Romaguera
(2005) foi empregar um modelo de efeitos fixos, o que permitiu modelar a
heterogeneidade de cada escola e criar uma função de produção para ver o efeito do
Sned no desempenho dos alunos. Com esse método, os autores fornecem evidências
preliminares de que, quando os dados das diferentes aplicações do Sned são
comparados, há a evidência de que o incentivo tem um efeito cumulativo e positivo no
desempenho dos alunos para aquelas escolas que possuem boas chances de ganhar o
prêmio (MIZALA; ROMAGUERA, 2005). Não há efeito para a quase metade das escolas
que nunca foram premiadas.
Vegas e Umansky (2005) interpretam esses resultados como a indicação de um
problema no desenho da política. As falhas consideradas mais prováveis são: 1) que
somente uma pequena proporção dos professores sente o efeito do incentivo para
melhorar a aprendizagem dos alunos, já que a maioria ou recebe o prêmio
automaticamente ou não tem nem chance de recebê-lo; 2) que o tamanho do prêmio
é tão pequeno que os professores sentem que o esforço para melhorar o desempenho
de seus alunos não vale a pena; e 3) que o prêmio pode não estar suficientemente
ligado ao trabalho do professor (VEGAS; UMANSKY, 2005). Carnoy et al. (2004)
também levantam dúvidas a respeito da eficácia do sistema de incentivo pelo fato de
estar baseado, em parte, na diferença entre os resultados dos alunos de 4ª e 8ª séries,
52
© 2011. Fundação Victor Civita. Todos os direitos reservados.
ou seja, mediante comparações entre alunos de grupos ou coortes diferentes, em vez
de medir os ganhos intracoorte na aprendizagem dos mesmo alunos ao longo do
tempo passado na mesma escola entre a 4ª e a 8ª série (CARNOY et al., 2004). Os
autores argumentam que existe pouca evidência empírica de que os professores
respondam sistematicamente a incentivos intercoorte de 4ª e 8ª séries e que a
diferença nos resultados desses testes dependem mais de variações naturais entre as
coortes e outras flutuações aleatórias do que do nível de esforço dos professores. Os
resultados desses pesquisadores mostram que há uma relação entre as duas medidas,
mas que muitas das escolas que receberam prêmios não mostraram o mesmo
desempenho nas medidas intracoorte. Em conclusão, os autores sugerem que a
melhor estratégia da escola é concentrar-se na produção de bons resultados na 4ª e 8ª
séries nos anos dos testes do Simce, antes de se preocupar com a aprendizagem dos
alunos ao longo de seus anos na escola.
O quadro a seguir resume aspectos importantes do Sned desde a sua criação.
Observa-se que o número de escolas e professores beneficiados aumentou a partir de
2006 com a legislação que ampliou o cálculo de estabelecimentos premiados em cada
região até abranger 35% da matricula. No mesmo período, o valor por professor
premiado quase triplicou, elevando o gasto anual com a política de premiação. Em
relação à proporção do total dos gastos do Ministério da Educação com as escolas que
recebem recursos públicos, o programa de premiação aumentou 80% no período, após
a incorporação dos professores assistentes alocados nas escolas premiadas a partir de
2008. Tanto a continuidade como o aumento significativo nos gastos com o programa
indica o sucesso da política aos olhos do Ministério e do público. A definição de todas
as variáveis consideradas, a metodologia do cálculo e a lista das escolas beneficiadas
por região são divulgadas abertamente no site do Sned juntamente com a explicação
dos benefícios esperados da Subvención por Desempeño de Excelencia em termos da
motivação dos professores e a superação das escolas (CHILE, 2010).
53
© 2011. Fundação Victor Civita. Todos os direitos reservados.
Quadro 2 . Beneficiários e Recursos: SNED, 1996-2010
SNED
19961997
Estabelecimentos
selecionados
Docentes
beneficiados
Premiação por aluno/
docentes ($)
Monto anual por
docente ($)
Gasto
anual
premiação
para
docentes (Milhões de
Pesos)
Professores
assistentes
beneficiados
% Gasto SNED/Gasto
total premiações
SNED
19981999
SNED
20002001
SNED
20022003
SNED
20042005
SNED
20062007
SNED
20082009
SNED
20102011
2.274
1.815
1.699
1.863
1.829
2.236
2.597
2.656
30.600
31.400
32.600
34.400
34.380
51.600
57.700
58.597
1.015
1.050
1.217
1.246
1.779
2.917
3.205
3.640
272.622
287.777
334.919
339.493
490.630
559.734
634.161
744.833
8.342
9.036
10.918
11.678
16.867
28.883
37.807
43.645
27.000
28.455
1,8
1,85
1,02
0,87
0,9
0,84
1,03
1,62
Fonte: Sistema Nacional de Evaluación del Desempeño de los Establecimientos Educacionales
Subvencionados y de los Regidos por el Decreto Ley Nº 3166. 2010-2011. Hacia la Excelência Académica.
Ministério de Educación. http://www.sned.cl/mineduc/sned/documentos/tecnicos/FolletoDifusionSNED.pdf
54
© 2011. Fundação Victor Civita. Todos os direitos reservados.
5.
Sistema Classificatório para os Diferentes Usos da Avaliação Educacional
Em pesquisa comparativa realizada em 2006 sobre os sistemas de avaliação de
cinco estados brasileiros, os pesquisadores Sousa e Oliveira (2007) concluíram que
houve melhoras significativas no desenho técnico dos instrumentos e na confiabilidade
dos resultados. Entretanto, os pesquisadores observaram que o uso que as Secretarias
de Educação faziam dos resultados para a formulação de políticas de gestão ainda era
incipiente:
Apesar de constar dos objetivos dos sistemas de avaliação, o uso de seus
resultados por parte dos gestores é tênue ou inexistente. Nesse nível,
observa-se a tendência de que tais resultados sejam compreendidos como
apenas um indicador (a ser justaposto a outros, tais como evasão,
repetência etc.), não informando políticas específicas. O gerenciamento do
sistema apoia-se nas estruturas burocráticas não se orientando pelos
resultados de desempenho escolares. O investimento maior – humano e
recursos financeiros - é na direção da produção de informações e não em
sistemáticas que estimulem e apoiem o uso dos resultados. A noção de
accountability – tanto em seu sentido de prestação de contas à sociedade
quanto no de responsabilização – ainda é pouco explorada. (SOUSA;
OLIVEIRA, 2007)(p. 197).
Em documento de 2005, o próprio Consed parecia confirmar esta conclusão ao
afirmar que o principal uso dos resultados das avaliações externas era para a
orientação da formação continuada de professores e destacou como desafio para os
próximos anos o “melhor aproveitamento da avaliação em larga escala” (CONSED,
2005).
As explicações mais correntes pela aparente incipiência de políticas de gestão
calcadas em informações sobre o desempenho dos alunos eram três: as Secretarias
ainda não percebiam o potencial dessas informações para a formulação de políticas de
gestão de recursos e pessoal; as Secretarias estavam constrangidas de formular novas
políticas de gestão pelas resistências encontradas entre os professores; e os
55
© 2011. Fundação Victor Civita. Todos os direitos reservados.
instrumentos de avaliação usados pelas Secretarias nem sempre correspondiam aos
usos almejados pelos gestores.
Os levantamentos feitos pelos pesquisadores no ano de 2010 sobre os diferentes
usos dos sistemas estaduais de avaliação mostram que essas conclusões estão
desatualizadas. Pela expansão no número e sofisticação dos sistemas de avaliação
durante os últimos anos e pela exploração de novas formas de aproveitar as
informações geradas, constata-se a diversificação nas práticas de gestão educacional
com base nos resultados dos alunos. De forma isolada ou em conjunto com outras
informações, os resultados gerados pelos sistemas estaduais de avaliação educacional
estão sendo usados para finalidades que variam entre a criação de indicadores
estaduais de desenvolvimento educacional até a avaliação de desempenho de
diretores escolares. As Secretarias não estão sentindo os mesmos constrangimentos
do passado e estão aproveitando de diversas formas as informações geradas pelos
instrumentos e análises cada vez mais sofisticadas de uma nova geração de políticas de
avaliação. Se ainda há alguma dificuldade no uso dos instrumentos para orientar as
práticas dos professores, chamadas genericamente aqui de políticas de gestão
pedagógica, ela não tem impedido avanços na aplicação dos resultados em outras
áreas. Na maioria das vezes, essas outras áreas envolvem a classificação das escolas do
sistema com base nos resultados de português e matemática dos alunos do 5º e 9º
anos e do 3º ano do Ensino Médio. Mesmo não sendo propriamente uma avaliação da
escola, por não testar todos os alunos em todas as disciplinas e anos, as Secretarias
presumem que os resultados das disciplinas básicas nos anos finais de cada ciclo de
estudos possam oferecer uma amostra das atividades da escola que sirva de indicador
do desempenho geral da instituição. Há alguma evidência na literatura que esse
pressuposto seja valido pela alta correlação entre diferentes medidas de desempenho
acadêmico dos alunos (RUTTER et al., 1979; MORTIMORE et al., 1988).
Tanto a diversificação das políticas de gestão como a necessidade de fazer
distinções entre as novas áreas de uso das avaliações nos obrigam a procurar um
sistema classificatório que dê conta da variedade. Essa tarefa representa um desafio
pelo fato de as classificações tradicionais se ocuparem principalmente não dos
56
© 2011. Fundação Victor Civita. Todos os direitos reservados.
diferentes usos da informação, mas dos propósitos genéricos dos sistemas de
avaliação. Por exemplo, é comum a distinção entre a avaliação formativa e somativa,
sobretudo na descrição das avaliações de sala de aula, e entre a avaliação diagnóstica
e certificatória. Na avaliação formativa, procuram-se elementos para adequar o
processo de ensino ao grupo ou aos alunos que apresentam dificuldades, tendo em
vista o alcance dos objetivos propostos, enquanto a somativa é a avaliação final para
determinar em que medida as metas foram alcançadas e para classificar, selecionar,
aprovar ou reprovar. No caso da avaliação diagnóstica, conforme Ravela (2008), o
propósito explícito é o de enriquecer a qualidade das percepções e decisões sobre os
diversos atores dos sistemas (RAVELA, 2008). Nesse cenário, o nível de aprendizagem é
empregado como indicador da saúde do sistema e não traz consequências imediatas
para os alunos. A avaliação certificatória, por outro lado, tem o objetivo de estabelecer
quais dos alunos alcançaram os conhecimentos e competências considerados
necessários para serem aprovados em determinado curso ou período de estudo e
receberem o diploma ou certificado correspondente.
Em ambos os casos, é a natureza da tarefa que vai determinar a forma da
avaliação. Ou seja, o desenho do instrumento é definido pelo tipo de informação que
se precisa produzir de forma que, grosso modo, o uso da informação já é dado pela
natureza e propósito do instrumento. No caso do instrumento diagnóstico, por
exemplo, talvez nem seja necessário aplicar os testes à totalidade dos alunos nem
colocar todos os itens num único teste vultoso. Basta uma amostra de alunos e versões
paralelas do teste para ter uma radiografia da aprendizagem das diferentes matérias.
Esse é o modelo de avaliação seguido pelo Saeb. O instrumento certificatório, por
outro lado, precisa ser aplicado a todos os alunos que querem a certificação e cada
teste precisa dar conta da matéria inteira para oferecer uma medida fidedigna da
aprendizagem de cada aluno. Ravela admite que uma avaliação pode ter mais de uma
finalidade e que as diferentes finalidades não são necessariamente exclusivas, mas
lembra que “cada opção requer um determinado desenho e tem diferentes exigências
técnicas e custos” (RAVELA, 2008) (p. 12).
57
© 2011. Fundação Victor Civita. Todos os direitos reservados.
Outro tipo de classificação que reconhece a multidimensionalidade da avaliação
procura encontrar as categorias que descrevem os diferentes tipos de informação
gerada. Shulha e Cousin, por exemplo, em estudo que resumia os usos da avaliação
nos Estados Unidos no período entre 1986 e 1996, empregaram três categorias de
informação: instrumental, conceitual e simbólica (SHULHA; COUSIN, 1997). Em
esquema parecido, descrito por Soares (2002), encontramos uma tipologia que fala
das três funções genéricas dos sistemas de avaliação. A primeira é a função métrica,
de medir onde se situam os sistemas de Educação em comparação com algum
parâmetro para responder perguntas sobre possíveis avanços. A segunda função é a
analítica, ou seja, oferecer subsídios aos pesquisadores e gestores no seu trabalho de
investigar o funcionamento do sistema. A terceira, considerada a mais difícil, é a
função pedagógica, que trata do uso da avaliação como instrumento para a melhoria
do ensino (SOARES, 2002).
No caso brasileiro, fica evidente que os mesmos instrumentos estão sendo usados
com objetivos diversos de modo que a finalidade precípua ou original do instrumento
pouco esclarece sobre seus desdobramentos posteriores. Também fica evidente pelas
declarações das autoridades que as finalidades dadas como razão pela criação dos
sistemas de avaliação são muito abrangentes e, às vezes, até ultrapassam a própria
capacidade da avaliação educacional. Essas declarações incluem, por exemplo, a
finalidade de “melhorar a qualidade da Educação” ou, no caso do Saeb, “reverter o
quadro de baixa qualidade e produtividade do ensino caracterizado, essencialmente,
pelos índices de repetência e evasão escolar” (SOUSA, 2003). A classificação com base
nas finalidades oferecidas pelas autoridades como justificativas deixaria de captar as
especificidades dos diferentes usos ao mesmo tempo em que obrigaria a inclusão de
categorias fora do escopo real da avaliação.
Nesse cenário, a nossa classificação dos usos dos sistemas precisa partir de outra
lógica, a das diferentes políticas efetivamente implementadas pelas autoridades uma
vez construídas e aplicadas as diversas formas de avaliação em larga escala. Ao fazer
essa distinção, estaríamos concordando com a diferença entre finalidade e utilidade
explicitada no trabalho de Dantas sobre o uso para efeitos pedagógicos dos resultados
58
© 2011. Fundação Victor Civita. Todos os direitos reservados.
do sistema de avaliação do estado da Bahia (DANTAS, 2009). Para essa autora, a
finalidade é o objetivo expresso, enquanto a utilidade relaciona-se com a demanda de
informações por parte dos stakeholders do sistema.
Encontramos uma classificação de “utilidades” em termos de políticas de gestão
no trabalho de Shepard em que são listados sete propósitos ou políticas
governamentais (SHEPARD, 1977). O autor não objetiva definir quais os propósitos que
podem ser alcançados com os mesmos instrumentos. Pelo contrário, parece
subentendido que cada propósito significaria um instrumento diferente ou no mínimo
um desenho para a avaliação que incorporasse as utilidades previstas. Eles são:
1. Diagnóstico da aprendizagem do aluno
2. Certificação do aluno
3. Avaliação de pessoal docente, diretores e outros
4. Avaliação de programas
5. Alocação de recursos
6. Accountability5
7. Pesquisa
Para as nossas necessidades, essa lista tem dois defeitos. O primeiro reside no
desdobramento desnecessário de pesquisa e avaliação de programas. Em ambos os
casos, os resultados podem ser usados como evidência da existência de efeitos
causados por políticas, programas e até situações quase experimentais, em que há
interesse em medir os impactos de mudanças no funcionamento das escolas e na
aprendizagem dos alunos. As avaliações podem acontecer em nível estadual, municipal
ou escolar e podem ser para efeitos tanto somativos, para determinar as
consequências de determinadas políticas, como formativos, para corrigir os rumos de
programas em andamento.
O segundo defeito reside no uso da categoria accountability para classificar
determinadas avaliações de forma exclusiva. Os autores Klinger, DeLuca e Miller, na
5
A tradução deste conceito é problemática e será objeto de discussão especifica mais adiante.
59
© 2011. Fundação Victor Civita. Todos os direitos reservados.
descrição da evolução da avaliação educacional no Canadá, e Bauer, no caso dos
sistemas nacionais de avaliação na América Latina, incorrem no mesmo erro ao criar
uma distinção entre os objetivos das avaliações relacionados à accountability e os
objetivos relacionados com a seleção, classificação, premiação ou certificação
(KLINGER, 2008; BAUER, 2010). O que tem sido mostrado é que accountability no
contexto educacional significa acima de tudo a associação entre resultados de
aprendizagem e consequências, sejam para o distrito educacional, a escola, os
professores ou os alunos. O nível de influência que a autoridade educacional deseja
aplicar ao processo de indução pode ser calibrado de acordo com o tipo ou a seriedade
das consequências. Nesse contexto, é comum rotular os níveis de indução mais altos
de high stakes e os mais baixos de low stakes, usando a palavra inglesa stakes, que
significa “o valor colocado em jogo pelo apostador”. Por isso, pode haver uma política
de gestão com utilidade única, mas cujas consequências são variáveis de acordo com o
contexto e as intenções das autoridades. Dependendo desses condicionantes, as
consequências de resultados de aprendizagem baixos podem ser insignificantes ou
nulas ou podem ser extremamente prejudiciais à vida futura do aluno ou da escola.
Para dar conta dessas diferentes realidades, em que o objetivo da avaliação pode estar
associado ou não a diferentes medidas de accountability, observa-se a necessidade de
conceituar a accountability como se fosse a segunda dimensão de um sistema
classificatório bidimensional. Com isso, para todas as utilidades da avaliação,
potencialmente existe a possibilidade de agregar consequências de impacto maior ou
menor.
Uma terceira característica do esquema de Shepard, que não chega a ser um
defeito, é a inclusão do propósito “certificação de alunos”. Diferentemente de outros
sistemas, como dos Estados Unidos, os sistemas brasileiros de avaliação nunca foram
usados para determinar a aprovação dos alunos do ensino básico, salvo uma breve e
polêmica experiência no estado de São Paulo em 2001, quando o Saresp foi usado para
definir a aprovação ou reprovação de alunos ao final dos ciclos do ensino fundamental
(4ª e 8ª séries). A criação do Enem, que aos poucos assume as características de um
exame certificatório de saída do Ensino Médio na medida em que se torna requisito e
60
© 2011. Fundação Victor Civita. Todos os direitos reservados.
critério para o ingresso à universidade, alterou o panorama da avaliação federal, mas
ainda não há sinal de interesse nem a cobertura legal para a criação de avaliações
certificatórias equivalentes por parte dos estados.
No entanto, a função certificatória não pode ser eliminada do esquema
classificatório devido à possiblidade do uso dos resultados da avaliação na função
supervisora que pode exercer a Secretaria de Educação em relação às escolas de
outras redes. Nesses casos, a Secretaria pode usar os resultados da escola como
critério para autorizar ou reautorizar seu funcionamento. Para todos os efeitos, esse
uso da avaliação, mesmo pouco usual, seria de certificação.
Com as modificações sugeridas, e a inclusão de três categorias novas que logo
serão explicadas, chega-se a uma nova matriz classificatória para a tarefa de
categorizar todas as políticas dos estados que fazem uso das informações geradas
pelos seus sistemas próprios de avaliação padronizada. Chamada A Avaliação Externa
como Instrumento da Gestão Educacional: Classificação, esse sistema classificatório é
apresentado a seguir, juntamente com a definição de cada categoria:
Quadro 3. A Avaliação Externa como Instrumento da Gestão Educacional:
Classificação
Uso dos resultados da avaliação
(Política de gestão)
1
Avaliação
de
programas,
monitoramento, planejamento e
pesquisa
Sem consequências ou
consequências menores (low
stakes)
• Edurural (MEC)
• Avaliação PDE (Ceará)
• Avaliação Escolas de Referência
(PE)
Com consequências
importantes (high stakes)
• Continuidade de Head Start,
Title 1, etc. (EEUU)
• PAR (MEC)
• Prog. Escolas - Padrão (SP)
• Idedsp; Idepe; Ideam; IDE-Rio
etc.
• Gestão para resultados (MG)
2
3
Para informar as escolas sobre a
aprendizagem dos alunos e definir
as
estratégias
de
formação
continuada.
• Boletim de Resultados (PE)
Para informar ao público
• Boletim da escola (Paraná)
• Relatório Pedagógico (DF)
• Relatórios
comparativos
(Reino Unido)
• PIP (MG)
• School-choice (Chile)
• Propaganda política (MG)
4
Para a alocação de recursos
• P-900 (Chile)
• Escola Nota 10 (CE)
61
© 2011. Fundação Victor Civita. Todos os direitos reservados.
• Aprender Mais (PE)
• Escola Referência (MG)
5
Para políticas de incentivos salariais
• Índice
Municipal
de
Qualidade Educacional (CE)
• Acordo de Resultados (MG)
• Escola Nota 10 (CE)
• Bonificação
Desempenho (SP)
por
6
Como componente da política de
avaliação docente
• ADI (MG)
• Recondução
(DF)
7
Para a certificação de alunos e
escolas
• Promoção de alunos de 4ª e
8ª series. 2001. (SP)
• Aprovação
de
funcionamento de escolas
(DF)
de
diretores
1. Avaliação de programas, monitoramento, planejamento e pesquisa. A primeira
categoria do sistema classificatório reflete os objetivos explicitados pelos documentos
oficiais de todos os sistemas estaduais de avaliação em existência no Brasil. Esse uso
precípuo dos sistemas de avaliação para a avaliação de políticas e o monitoramento de
resultados é dado pelo nível de organização e abrangência dos sistemas de avaliação,
que pressupõe uma função de controle e acompanhamento. Ele também é dado pela
natureza dos instrumentos dos sistemas estaduais, derivados do padrão estabelecido
pelo Saeb. Esse sistema nacional, criado de experiências iniciais no final da década de
1980 e consolidado por meio de mudanças metodológicas em 1995, é regionalmente
reconhecido como um dos sistemas mais completos e tecnicamente sofisticados do
seu tipo. Semelhante ao sistema norte-americano Naep6, no qual foi modelado, o
Saeb coleta informação sobre o desempenho e características dos alunos nos três
pontos principais de transição do sistema de ensino básico, além de informações
contextuais de alunos, professores e diretores, de uma amostra nacional estratificada
6
O governo federal dos Estados Unidos criou a National Assessment of Educational Progress – Naep
(Avaliação Nacional do Progresso Educacional), no final dos anos 1960. A avaliação testa uma amostra
dos estudantes aos 9, 13 e 17 anos de idade em inglês e matemática. Conhecido como o Boletim Escolar
da Nação, a Naep é usado da mesma forma que o Saeb , ou seja, como parâmetro para comparar o
avanço ou retrocesso no nível de aprendizagem dos estados e dos diferentes grupos de alunos ao longo
dos anos.
62
© 2011. Fundação Victor Civita. Todos os direitos reservados.
de escolas públicas e privadas. Pela estrutura da amostra e a natureza dos dados
coletados, o Saeb e os sistemas estaduais que o imitam têm a nítida função de
radiografar o sistema e acompanhar a sua evolução ao longo do tempo. Essa segunda
atribuição foi melhorada significativamente em 1995, com a incorporação da Teoria de
Resposta ao Item na organização das provas e análise dos dados e na criação de uma
escala única de desempenho. Pela localização das proficiências dos alunos de
diferentes séries e diferentes anos de aplicação nessa mesma escala, é possível
acompanhar a evolução da aprendizagem nos diferentes níveis do sistema e ao longo
dos anos.
O uso dessa escala de resultados para efeitos de planejamento já foi realçado na
discussão sobre a implantação da gestão por resultados em muitos governos
estaduais. Uma vez estabelecida a escala para a interpretação do desempenho dos
alunos, fica evidente que as Secretarias podem estipular os avanços esperados ao
longo dos anos, por série e disciplina. A partir da criação do Ideb e a fixação de metas
para escolas, municípios e estados, a utilidade da Prova Brasil e do Saeb para efeitos
de planejamento e monitoramento foi elevada a outro patamar de qualidade. As
iniciativas dos estados de formularem indicadores próprios similares deverão ser
registradas nessa categoria.
A pesquisa do sistema pode significar o uso dos resultados das avaliações para a
análise das relações entre as características das escolas e seu desempenho em estudos
chamados de “fatores associados” ou “efeito escola”. Essa modalidade de pesquisa,
relativamente recente, foi muito influenciada pela tradição de pesquisa em eficácia
escolar e faz uso tanto dos resultados dos alunos como das informações coletados por
meio dos questionários contextuais aplicados aos professores, diretores e alunos. O
uso dos resultados para outros tipos de pesquisa, incluindo a avaliação de políticas e
programas, também pode ser incentivado pelos estados da mesma forma que o Inep
procura incentivar o uso por pesquisadores das bases de dados dos sistemas nacionais
de avaliação.
63
© 2011. Fundação Victor Civita. Todos os direitos reservados.
2. Para informar as escolas sobre a aprendizagem dos alunos e as estratégias de
formação continuada. A preocupação dos gestores com a qualidade da Educação, e o
interesse em colocar os sistemas de avaliação a serviço dos esforços de melhoria do
ensino, aflui para uma variedade de diferentes políticas pedagógicas. Essas têm em
comum a necessidade de devolver os resultados da avaliação para as escolas, em
processo comumente chamado de “devolutivo”, de modo que a instituição e seus
professores possam compreender as variações no desempenho dos alunos e perceber
formas de influenciar futuros resultados mediante mudanças nas suas práticas
pedagógicas.
Na maioria das vezes, essa política de gestão pedagógica se expressa na forma de
boletins escolares ou outros informativos contendo os resultados dos alunos para cada
ano e área curricular em estudo. A produção e a devolução dos boletins podem estar
acompanhadas de atividades estruturadas para facilitar a compreensão dos resultados
e a incorporação deles em processos autônomos de autoavaliação e planejamento
pedagógico.
A incorporação de informações aos boletins sobre outras escolas da região ou do
sistema é um aspecto relevante, na medida em que possa agregar ao processo
devolutivo um elemento de accountability. A comparação com outras escolas toca no
espírito competitivo das pessoas e sinaliza, mesmo em grau menor, que as escolas têm
alguma responsabilidade pelos resultados dos alunos. Essa conclusão deriva da
seguinte lógica: a comparação pressupõe a comparabilidade, que por sua vez
pressupõe que as escolas estejam sujeitas às mesmas condições. Sendo assim, as
diferenças entre elas não podem ser explicadas com base no que elas têm em comum,
senão nas suas características individuais, que estão sujeitas à ação dos membros das
equipes escolares. Por causa dessa lógica, torna-se importante distinguir entre os
boletins em relação às metodologias empregadas na comparação de escolas.
Outra vertente das políticas de gestão pedagógica baseadas nas avaliações
envolve a interpretação dos resultados por especialistas e membros dos serviços de
supervisão com o propósito de oferecer oportunidades de formação continuada aos
professores para tratar as dificuldades evidenciadas. Nesse caso, há o pressuposto de
64
© 2011. Fundação Victor Civita. Todos os direitos reservados.
que as dificuldades ou lacunas identificadas sejam comuns a grupos ou à totalidade
dos professores, de modo que a sua solução não resida em nível da escola.
A variedade de alternativas em termos dos objetivos, conteúdos, métodos,
logística e abrangência dessas políticas é tão grande quanto todo o panorama da
formação continuada de cada órgão. Vale a pena destacar, no entanto, que a maioria
desses esforços se concentra em questões curriculares, seja na discussão de conteúdos
já definidos, seja no debate que acompanha a reforma e a redefinição desses
conteúdos. Essa discussão se torna cada vez mais exigente na medida em que as
autoridades se convençam da necessidade de estreitar o vínculo entre o currículo
oficial, o currículo ensinado e as matrizes de referência dos instrumentos de avaliação.
3. Para informar ao público. A preparação dos boletins escolares representa uma
dimensão importante da política de divulgação dos resultados da avaliação. No
entanto, há outras dimensões que indicam a presença de outras preocupações além
da pedagógica. A divulgação junto à sociedade pode ser para efeitos de publicização
do sistema de avaliação, com o intuito de disseminar a preocupação com a qualidade e
os resultados alcançados e de angariar apoios genéricos a favor da condução da
política educacional. Mais perto das eleições, essa divulgação se torna claramente
eleitoral, indicando a relevância dos resultados do sistema educacional para a
população e a probabilidade de serem relevantes para o julgamento da eficácia do
governo. Pode-se encontrar também exemplos de disseminação menos interessada
que enxergam na divulgação uma oportunidade de democratização da informação no
cumprimento do preceito da transparência.
A política de divulgação que mais nos interessa nesse contexto é aquela
direcionada especificamente aos pais dos alunos e a outros membros da comunidade
próximos à escola. No entanto, os propósitos por trás da intenção de informar os pais
sobre os resultados das escolas de seus filhos precisam ser diferenciados. O gestor
pode querer simplesmente motivar a participação da comunidade dos pais nas
atividades da escola. Mais provável, porém, é o desejo do gestor que os pais exerçam
65
© 2011. Fundação Victor Civita. Todos os direitos reservados.
alguma influência sobre a escola com base no conhecimento detalhado dos seus
resultados.
Esse objetivo se torna ainda mais claro na presença de dados comparativos, que
estabelecem a posição exata da escola mediante algum tipo de ranqueamento ou que
fornecem informações suficientes para o usuário chegar a suas próprias conclusões
sobre o nível de desempenho dela. Esse tipo de divulgação orientada se tornou
bastante comum no Chile, nos Estados Unidos e na Inglaterra por causa da criação de
políticas de gestão que fomentam o uso de critérios de livre mercado na escolha da
escola dos filhos. De novo, há a necessidade de distinguir entre as informações
divulgadas de acordo com as metodologias empregadas na comparação das escolas.
4. Para a alocação de recursos. O emprego dos resultados dos alunos como um
dos critérios para a inclusão das escolas em programas governamentais voltados para
a melhoria ou como indicador para a simples distribuição de recursos talvez seja a
política que mais bem expressa a relação entre a avaliação e a gestão educacional.
Nesses casos, não há necessariamente propósitos de responsabilização, mas a sua
execução, na prática, pode criar dificuldades. Nos Estados Unidos, houve resistência à
prática dos estados de beneficiarem com recursos adicionais distritos mais atrasados
em termos dos resultados dos alunos por ser uma política de “premiação do fracasso”.
O contrário dessa medida, ou seja, beneficiar escolas que mais progridem, pode ser
uma alternativa, mas também sofre criticas por questões de equidade.
No caso brasileiro, pela existência de um sistema de distribuição de receitas
fiscais entre os entes federados, pode-se prever a existência de políticas de alocação
de recursos entre as instâncias governamentais de acordo com critérios que procuram
avançar a política educacional.
5. Para políticas de incentivos salariais. Essa é a categoria que contém as políticas
mais polêmicas, por reunir as iniciativas recentes de usar a avaliação padronizada
como um instrumento da reforma educacional. A lógica das políticas de gestão nessa
66
© 2011. Fundação Victor Civita. Todos os direitos reservados.
área é que o próprio sistema de avaliação pode ser colocado a serviço da mudança por
causa de uma conhecida propriedade das provas chamada em inglês de backwash.
Essa palavra descreve a capacidade da prova de sinalizar para os professores todo um
conjunto de preferências em termos de conteúdos e, pela natureza das questões, de
métodos de ensino também. Dessa forma, a prova é o mensageiro do currículo
desejado e do tipo de ensino a ser favorecido. Além disso, a prova também sinaliza o
nível de domínio esperado do aluno em termos do patamar de competência a ser
atingido. Quando a prova escolhe aleatoriamente seus elementos curriculares e testa
somente a capacidade de memorização do aluno, o backwash, com toda a
probabilidade, será negativo. Quando a matriz de referência da prova representa um
currículo oficial e os itens procuram testar competências cognitivas mais avançadas, o
efeito da prova será bem mais benéfico ao levar os professores a abraçarem o
currículo oficial e buscarem desenvolver essas mesmas competências entre os seus
alunos.
Para o gestor, o importante é a capacidade da avaliação de instigar o professor
a se preocupar com os resultados. Por mais bem pensada que seja a prova em termos
das suas características técnicas, ela provocará pouco interesse nos resultados e pouca
mudança no comportamento do professor se não tiver alguma consequência. As
provas certificatórias e outras que influenciam o futuro do aluno, seja a aprovação no
final do ano ou no final do curso, já por definição trazem consequências para os alunos
e também para os professores que se preocupam com o destino deles. Essas provas
são high-stakes, o que, na expressão inglesa, significa que há bastante a ganhar ou
perder dependendo do resultado da prova.
As autoridades podem aumentar as consequências dessas provas por meio da
fixação de metas, definição de percentuais de alunos que precisam passar ou qualquer
outra medida que tornem mais significativos os resultados da avaliação. Seriam
incluídos aqui sistemas de bonificação, premiação e também medidas administrativas
para ajudar ou fechar escolas com níveis de desempenho considerados insuficientes.
Por aumentarem o nível de responsabilidade dos professores, essas políticas
costumam ser chamadas de accountability, ou responsabilização. Seu objetivo é elevar
67
© 2011. Fundação Victor Civita. Todos os direitos reservados.
o grau de relevância dos resultados para que o ensino se beneficie do aumento no
interesse dos professores e dos efeitos backwash positivos.
As políticas de responsabilização podem ser direcionadas para os alunos, para
os professores e para as escolas. As políticas introduzidas nos Estados Unidos a partir
da década de 1980, já discutidas, mostram a tendência de se preocupar com a
disseminação de padrões curriculares mais exigentes para a graduação do Ensino
Médio. Por esse motivo, entende-se que a avaliação esteve a serviço da reforma
curricular do Ensino Médio naquele país. No caso brasileiro, as políticas de
responsabilização por meio de incentivos salariais têm outros objetivos, mas
perseguem a mesma lógica em termos da conexão entre as provas, o comportamento
dos professores e a melhoria do ensino e são desenhados para atingir o sistema como
um todo. Por isso, as políticas desse tipo não são categorizadas junto com as práticas
de gestão pedagógica. Seu raio de ação é maior e tem como alvo o padrão de
qualidade de todas as escolas do sistema.
6. Como componente da avaliação docente. Ainda mais polêmica, existe a
possibilidade de o gestor empregar os resultados dos alunos como componente da
avaliação do professor como profissional. Essa política, incomum fora dos Estados
Unidos, não faz parte da categoria anterior pelas diferenças entre a avaliação de
escolas, para efeitos do cálculo de bonificações ou qualquer outra medida temporária
para beneficiar as escolas e suas equipes, e a avaliação docente que é um processo
individual destinado a determinar mudanças permanentes na situação funcional do
professor, tipicamente promoções ou avanços salariais.
Tipicamente os sistemas de avaliação docente têm três finalidades, de reconhecer
os docentes mais qualificados e identificar os que mais precisam de ajuda, de premiar
docentes com atuação mais destacada para estabelecer novos padrões de excelência
e, finalmente, para efeitos de certificação profissional, para sinalizar os requisitos
mínimos necessários e assegurar a qualidade profissional básica antes que o professor
se torne estável. Em nenhum desses casos, o nível de desempenho dos alunos do
68
© 2011. Fundação Victor Civita. Todos os direitos reservados.
professor é um elemento indispensável no conjunto de informações utilizadas. Mesmo
assim, a discussão bastante disseminada sobre a possibilidade de inclusão dessas
informações sugere que tal tipo de política possa surgir no nosso meio a qualquer
momento (DANTAS, 2009).
7. Para a certificação de alunos e escolas.
Mesmo incomum no contexto
brasileiro, o uso dos resultados da avaliação externa para determinar se os alunos
estão aptos para receber seus diplomas/passar de ano ou se escolas são credenciadas
para o funcionamento deve constar de um sistema classificatório que pretende
esgotar todas as possíveis utilidades dessa informação para a gestão educacional.
69
© 2011. Fundação Victor Civita. Todos os direitos reservados.
6.
O Uso da Avaliação na Gestão da Educação nos Estados
Esta seção está dividida em sete partes, correspondentes às sete categorias
definidas pelo sistema classificatório. Cada parte se inicia com o levantamento
bibliográfico realizado pelos pesquisadores para descrever os diferentes tipos de
política e para extrair das pesquisas nacionais e internacionais possíveis indicações das
consequências de cada política. A seguir, abre-se a discussão para as informações
coletadas que fornecem exemplos concretos de como os estados e alguns municípios
de porte maior efetivamente utilizam os produtos de seus sistemas de avaliação.
No caso de existirem exemplos de políticas high-stakes, com base na associação
entre a política de uso dos resultados da avaliação e consequências para os envolvidos,
sejam alunos, professores ou a própria instituição escolar, o texto dará destaque ao
fato.
6.1 Avaliação de Programas, Monitoramento, Planejamento e Pesquisa
6.1.1 Avaliação de Programas. A história da consolidação da avaliação
educacional nos Estados Unidos nas décadas de 1950 e 60 está calcada na sua função
de instrumento de avaliação de programas. A demanda por instrumentos
padronizados nasceu da necessidade de avaliar os novos currículos escolares que
surgiram sob a coordenação da Fundação Nacional de Ciência após o lançamento do
Sputnik e a decisão daquele país de recuperar a qualquer custo a liderança mundial em
ciência e tecnologia. Poucos anos depois, com a Guerra contra a Pobreza, do
presidente Lyndon Johnson, foi aprovada a Lei de Educação Elementar e Secundária,
que no seu primeiro capítulo (Title 1) estabeleceu uma linha volumosa de
financiamento
para
os
estados
para
o
desenvolvimento
de
programas
“compensatórios” de apoio às crianças de famílias de baixa renda. Entre os diversos
mecanismos para garantir o uso adequado dos recursos, figurava a avaliação dos
resultados alcançados. A avaliação não era um assunto novo, mas o uso de testes
padronizados para medir o impacto das políticas públicas de combate à pobreza
70
© 2011. Fundação Victor Civita. Todos os direitos reservados.
combinava bem com a racionalidade dos novos métodos da administração pública em
processo de assimilação pelo governo Johnson (HERMAN; HAERTEL, 2005).
Só resta registrar que, na maioria dos casos, as avaliações dos programas
compensatórios, como Head Start e o chamado Title 1, não encontraram evidências de
que os investimentos em professores adicionais, equipamentos, ambientes escolares e
enriquecimento curricular produzissem ganhos significativos na aprendizagem dos
alunos. Para alguns autores, esse conjunto de dados apresentava “uma visão bastante
pessimista” e uma base “para a rejeição das crenças tradicionais sobre a eficácia da
escola” (MADAUS; AIRASIAN; KELLAGHAN, 1980) (p. 27). Uma possível explicação do
aparente fracasso fornece uma importante lição em relação aos riscos de usarem os
resultados das avaliações para finalidades inapropriadas. Os testes padronizados
disponíveis à época foram criados e normatizados para produzir medidas e
ranqueamentos para crianças de habilidade média. Às vezes, eram difíceis demais para
alunos de famílias mais pobres, tendo sido baseados em objetivos de aprendizagem
bem diferentes daqueles dos programas compensatórios. E, como medidas de
habilidade, não eram sensíveis aos efeitos de curto prazo de mudanças nos métodos
de ensino (MADAUS; STUFFLEBEAM; SCRIVEN, 1983).
Da mesma forma que nos Estados Unidos, a história do desenvolvimento das
avaliações padronizadas em larga escala no Brasil está associada à avaliação de
programas educacionais com financiamento federal. No caso brasileiro, foi o Projeto
Edurural, que se desenvolvia em todos os estados do Nordeste, que foi objeto da
primeira avaliação com base em testes padronizados. Usando instrumentos criados
sob medida baseados em exemplos de exercícios e trabalhos de sala de aula colhidos
nas escolas dos três estados onde a avaliação se desenvolvia – Piauí, Ceará e
Pernambuco –, a avaliação acompanhou a implementação e o desenvolvimento do
projeto de 1982 a 1986, medindo o rendimento dos alunos e analisando as formas de
gerenciamento do projeto, professores, organizações municipais de ensino, alunos e
famílias. A avaliação do Edurural se tornou um marco justamente por ela fornecer as
bases técnicas e mostrar a relevância da avaliação educacional em larga escala para a
71
© 2011. Fundação Victor Civita. Todos os direitos reservados.
identificação mais nítida dos problemas das escolas. Até o final da mesma década, os
alicerces de um sistema nacional de avaliação já haviam sido criados (GATTI, 2002 ).
Apesar da conexão histórica entre a avaliação de políticas e programas
governamentais e a avaliação educacional, os exemplos de uso dos resultados dos
sistemas estaduais brasileiros para essa finalidade são limitados. Introduzir a
aprendizagem dos alunos como uma variável dependente em um modelo controlado
de pesquisa para medir os resultados ou impacto de determinada política ou programa
de intervenção estadual ainda é incomum em comparação com os estudos, muito mais
frequentes, dos métodos e processos de implantação desses mesmos programas. A
explicação está dada em estudo sobre a avaliação de programas em que Kirkpatrick
descreve as perguntas apropriadas para a avaliação das quatro fases de programas de
treinamento, como seria o caso dos cursos de formação continuada para professores
(KIRKPATRICK, 1994). As questões correspondentes às primeiras três fases, sobre a
reação dos participantes, sobre a aprendizagem alcançada pelos participantes e sobre
o quanto os participantes estão aplicando seus novos conhecimentos ao trabalho,
podem ser todas respondidas mediante o levantamento de opiniões e expectativas e
analisadas de forma qualitativa, o que explicaria a relativa frequência dessa
modalidade de avaliação.
Conforme os cânones da pesquisa científica, a quarta e última fase na avaliação de
um
programa
educacional,
envolvendo
primordialmente
os
resultados
de
aprendizagem dos alunos, requer a utilização de informações quantitativas
“contrafactuais” para poder mostrar o que teria acontecido se os alunos e as escolas
não tivessem participado do programa. Para cumprir essa condição e garantir a
fidedignidade da pesquisa, a avaliação de programas precisa formar um grupo de
controle composto de alunos e escolas não participantes com as mesmas
características e condições que os alunos e as escolas que participaram do programa
em estudo. Essa condição se torna quase impossível quando os programas em estudo
são políticas educacionais que se estendem para todos os alunos e escolas da rede.
Quando o programa se estende a um grupo menor de escolas, selecionadas com base
em determinadas características, o problema do avaliador consiste em encontrar
72
© 2011. Fundação Victor Civita. Todos os direitos reservados.
escolas de controle que tenham as mesmas características que as escolas do
programa, mas que mesmo assim não tenham sido contempladas.
A dificuldade em formar grupos de controle para efetuar a comparação entre
alunos e escolas que foram expostos aos efeitos da política e outras que não foram
pode explicar a reticência das Secretarias em embarcar em estudos avaliativos de suas
políticas. Outros motivos podem incluir a complexidade da pesquisa quantitativa
envolvendo grandes bases de dados, a falta de interesse político em submeter as ações
da Secretaria ao escrutínio dos pesquisadores e dos meios de divulgação e a falta de
continuidade de muitas das políticas por um período de tempo suficiente que
justifique o emprego dos recursos e esforços da avaliação ou que permita que os
resultados da avaliação tenham algum proveito prático. Em pesquisa recente, Bauer
sugere outra hipótese relacionada à falta de accountability governamental e o pouco
costume da sociedade brasileira em exigir uma prestação de contas aos governantes
em termos da eficácia e custo/beneficio das políticas financiadas com recursos do
contribuinte (BAUER, 2011). Independentemente dos motivos, a consequência é que a
avaliação do impacto de programas e políticas educacionais constitui um campo de
trabalho ainda muito incipiente com poucos exemplos de avaliações de envergadura
que contaram com o apoio das Secretarias da Educação. Apesar da importância
atribuída à função de “avaliação de políticas públicas” na explicitação oficial dos
objetivos dos sistemas estaduais de avaliação, pouco se realiza no cumprimento desse
papel.
Uma exceção recente é o trabalho da Secretaria de Educação do Ceará, em que
foram usados indicadores baseados nos resultados do Spaece para avaliar três
programas, o Prêmio Escola Nota 10, o Plano de Desenvolvimento da Educação (PDE) e
o Prêmio Aprender pra Valer. As avaliações do primeiro e do terceiro programa serão
discutidas mais adiante, juntamente com outras iniciativas do mesmo tipo, por se
tratarem de políticas estruturadas com base no próprio Spaece e que usam os
resultados desse sistema para a distribuição de prêmios e incentivos. No caso da
avaliação do PDE, a análise teve como propósito verificar se as escolas estaduais do
ensino fundamental que aderiram ao PDE apresentariam níveis diferenciados de
73
© 2011. Fundação Victor Civita. Todos os direitos reservados.
proficiência no 5º ano do Ensino Fundamental entre 2008 e 2009, quando comparadas
com as demais escolas da rede estaduais e da rede municipal (CEARÁ, s.d.). Em
contrapartida, outros dois estudos pela mesma Secretaria, um sobre a Gestão
Integrada da Escola – Gide, e outro fazendo uma avaliação de impacto do Projeto
Escola do Novo Milênio – Penm, não usaram dados produzido pelo Spaece, apesar de
estabelecer como critério para o sucesso desses programas a sua contribuição “para a
melhoria efetiva dos indicadores de rendimento escolar e desempenho acadêmico”
(ECOSTRAT, 2008).
De modo geral, as avaliações de impacto de programas mediante a comparação da
aprendizagem de alunos de um grupo de controle com o grupo de alunos atingidos
pelo programa, o “grupo de tratamento”, são trabalhos de pesquisa de alunos de pósgraduação que contaram com algum grau de colaboração dos órgãos oficiais para
poder acessar os dados das avaliações educacionais. Um exemplo é a pesquisa de
dissertação de Corrêa (2007) em Minas Gerais, que empregou um desenho quase
experimental para realizar uma análise comparativa dos resultados de escolas antes e
depois da implantação do projeto Escola Viva Comunidade Ativa, criado pela Secretaria
de Educação para combater a violência escolar. A avaliação usou dados de
desempenho do Simave para os anos de 2005 e 2006 a fim de comparar as escolas de
dois grupos de pesquisa: um grupo formado pelas 79 escolas estaduais de Belo
Horizonte participantes da 1ª fase de implantação do projeto e um grupo de controle,
contendo 21 escolas estaduais não submetidas ao projeto, mas similares às escolas do
projeto em termos de nível de ensino, tamanho e nível socioeconômico dos alunos
(CORRÊA, 2007). A avaliação recente da política de formação continuada de
professores alfabetizadores Letra e Vida, da Secretaria de Educação de São Paulo, é
outro exemplo. Em tese de doutorado, Bauer (2011) emprega análises de regressão
para determinar a importância da Letra e Vida na explicação das variações no
rendimento dos alunos da 1ª série, tanto em termos da média no Saresp de 2007
como em termos do percentual de alunos da 1ª série no nível 6 de proficiência. Os
resultados das análises são tênues e mostram que o impacto do curso Letra e Vida
depende da presença de outras variáveis do contexto escolar. No entanto, quando a
74
© 2011. Fundação Victor Civita. Todos os direitos reservados.
pesquisadora compara o desempenho no Saresp de alunos de escolas em que todos os
professores passaram pelo curso de um ano de duração com alunos de escolas cujos
professores não fizeram o curso, os resultados são mais claros. Quando há um número
de casos suficientes para fazer a comparação entre os grupos de tratamento e
controle, a vantagem dos alunos cujos professores fizeram o curso é mais clara,
sobretudo em escolas do interior do estado (BAUER, 2011).
Em estudo similar, Fontanive mediu o impacto de um processo de formação em
serviço organizado pelo Cesgranrio chamado Projeto de Capacitação dos Professores
do Tocantins para os professores da rede estadual de ensino desse estado. O estudo
procurou identificar se nas escolas com professores que apresentavam um alto grau de
participação nas atividades de capacitação houve o aumento das médias de
proficiências dos alunos em matemática e língua portuguesa, medidas no ano de 2001
pelo sistema estadual de avaliação organizado pela Fundação Cesgranrio e em 2007
pela Prova Brasil. Apesar da rotatividade de professores, a falta de contato direto entre
formadores e professores e a falta de acompanhamento e de continuidade nos
treinamentos, as análises realizadas indicam uma relação entre a participação no
Programa de Capacitação e no uso do material didático fornecido e a melhoria de
desempenho dos alunos da 8ª série (9º ano) na disciplina de matemática, pelo menos
no caso dos professores que responderam aos questionários. O estudo se destaca pela
engenhosidade da metodologia e sofisticação da análise, impelidas pelas mudanças
sofridas pelo próprio projeto de capacitação e a perda de professores ao longo dos
anos, e demonstra as dificuldades reais para realizar pesquisas de avaliação de
impacto com grupos de controle (FONTANIVE; KLEIN, 2010). Medir e atribuir mudanças
nos resultados do sistema educacional a determinado programa, com base em
raciocínio de causalidade, é um grande desafio metodológico mesmo quando
disponibilizadas todas as informações sobre o desempenho dos alunos.
Em nenhum dos casos de avaliação de programas baseada nos dados dos sistemas
estaduais de avaliação, encontramos o uso das informações para determinar a
mudança ou a continuidade do programa em questão. Caso houvesse esse tipo de
consequência, poderíamos fazer um paralelo com as avaliações dos programas
75
© 2011. Fundação Victor Civita. Todos os direitos reservados.
compensatórios dos Estados Unidos, onde a continuidade do financiamento dependia
de resultados satisfatórios. Nesses casos, pode-se dizer que a avaliação de programas
é high stakes e desenhada para responsabilizar as autoridades educacionais e as
equipes escolares pelos resultados dos alunos participantes.
O que achamos foram exemplos de um tipo de avaliação de políticas e programas
mais caseira, tipicamente com base em apreciações informais, mesmo usando dados
objetivos. Esses julgamentos, feitos pelos próprios gestores, parecem fazer parte do
dia a dia do trabalho da gestão educacional:
Então esse uso [da avaliação] de orientar políticas, ele é mais antigo, né? E
em alguma medida ele é um uso genérico. Mesmo quando eu faço
derivações para usar como sistema de incentivo de professores, [...] ou para
estratégias de ensino, na verdade eu estou sempre reorientando políticas e
programas. Vamos dizer assim, esse é o uso primeiro e mais preciso da
avaliação, né? (Gestor: SEE/CE)
Em outros casos, como na avaliação das novas Escolas de Referência de Ensino
Médio sendo implantadas no estado de Pernambuco, o uso do indicador de qualidade
daquele estado como parâmetro mostra o uso de dados objetivos:
Em 2014 nós vamos ter Escolas de Referência nesse modelo em quantidade
suficiente pra atender todos os egressos de 8ª série das escolas municipal e
estadual. [...] No primeiro ano em que implanta, o Idepe delas já vai pra 4 a
4,5. Nós tivemos 20 avaliadas já em 2009, e 10 atingiram mais de 5 [...]
Quando comparada a média nossa de Ensino Médio, que chega a 3, é
excepcional nesse caso. (Gestora: SEE/PE)
No caso de Minas Gerais, o gestor entrevistado tinha usado a avaliação do Ensino
Médio para distinguir os efeitos de diferentes políticas para essa faixa etária:
Como você implementa várias coisas ao mesmo tempo, você tem que ter o
efeito de uma ação sobre a outra também. [...] Por exemplo, como a
política de EJA interfere no desenvolvimento do Ensino Médio, [...] como é
que a Educação profissional altera os indicadores e o desempenho dos
76
© 2011. Fundação Victor Civita. Todos os direitos reservados.
alunos no Ensino Médio e assim por diante. Tem os cruzamentos das
políticas e às vezes o efeito de um é contrário sobre o outro. Por exemplo,
[...] como a política foi muito forte no aumento de vagas e de oportunidade
de EJA, a taxa de conclusão do Ensino Médio diminuía. [...] os meninos
estão indo para a EJA? Então, analisar esses efeitos e ver também o efeito
sobre quem foi para a EJA. O desempenho melhorou ou piorou? Tá certo.
Tudo bem, aumentou a taxa de conclusão. Então não seria possível você
estar permanentemente fazendo essa adequação, ajustando as ações que
você estava implementando a cada ano, se você não tivesse uma
informação muito precisa sobre o que andava acontecendo. (Gestor:
SEE/MG)
6.1.2 Monitoramento. Além da avaliação de políticas e programas, os
sistemas estaduais costumam explicitar o objetivo de monitoramento ou
acompanhamento da evolução do sistema ao longo do tempo. Essa foi a razão
fornecida pela criação do Saeb em princípios da década de 1990 e reafirmada na
portaria 931/2005, que reformulou o sistema de avaliação com base na criação da
Prova Brasil. Nessa legislação, o Saeb tem o objetivo de avaliar a qualidade, equidade e
eficiência da Educação brasileira, ao mesmo tempo em que fornece “subsídios para a
formulação de políticas públicas” ao buscar “comparabilidade entre anos e entre séries
escolares, permitindo assim a construção de séries históricas”. Nessas frases, fica
explicitada a ideia central do monitoramento, ou seja, produzir informações
comparáveis ao longo do tempo para servir de parâmetro para medir a evolução e
distribuição da aprendizagem, entendidas como indicadores da qualidade e equidade
da Educação e, ao mesmo tempo, ajudar na identificação de dificuldades.
Segundo Fontanive e Klein (2000), o Saeb e outros sistemas de avaliação nacionais
têm caráter diagnóstico:
Eles são mais bem definidos como sistemas de informação do que como
programa de testagem e visam, sobretudo, a construir sistemas de
77
© 2011. Fundação Victor Civita. Todos os direitos reservados.
informações consistentes, confiáveis, válidos e comparáveis para
responder basicamente a duas questões: Qual é a qualidade da Educação
oferecida no país? Em que condições ela se realiza? Além de um programa
de testes, as avaliações em larga escala coletam informações para analisar
o contexto no qual se dá a aprendizagem dos alunos - essencial para
qualquer proposta de melhoria de qualidade. (FONTANIVE; KLEIN, 2000) (p.
411)
No desempenho desse papel, o Saeb aplica um grande número de itens – cerca de
130 a 170 itens por série e disciplina –, em vez de usar provas únicas compostas,
tipicamente, de 20 a 30 questões. A cobertura de todos os aspectos do currículo para
determinada área e fase visa alcançar uma validade curricular maior. Isso significa
poder identificar com maior propriedade o nível de aprendizagem efetivamente
alcançado pelos alunos em todos os componentes e identificar com maior facilidade os
aspectos curriculares deficitários. Haverá a necessidade de voltar a essa questão
quando da discussão da adoção do modelo Saeb pelos estados e o uso dos resultados
para fins pedagógicos.
O uso das avaliações estaduais para fins de monitoramento é evidenciado pela
criação recente de indicadores que tentam captar em um único número uma medida
da qualidade de cada fase de Educação em cada escola. Influenciados e incentivados
pela criação do Ideb em nível nacional, alguns estados, incluindo Pernambuco (Idepe),
Amazonas (Ideam), São Paulo (Idesp), Ceará (IDE-Alfa), Rio de Janeiro (Iderj), e o
município do Rio de Janeiro (IDE-Rio) e o Distrito Federal (IDDF) já criaram indicadores
desse tipo. Porém o tema ainda não se tornou assunto de discussão acadêmica. Com
poucas exceções, as discussões sobre os propósitos e as metodologias para a
confecção dos indicadores têm sido mantidos no âmbito das Secretarias. Uma exceção
é a discussão do indicador de São Paulo – Saresp. Seguindo uma metodologia mais
completa que o Ideb, o indicador de São Paulo capta também a equidade das
estratégias educacionais usadas naquele sistema pela inclusão de uma medida da
distribuição dos alunos por faixa ou categoria de desempenho (SOARES, 2009). Ao
incentivar a progressão de todos os alunos, e não somente a melhoria da média, o
78
© 2011. Fundação Victor Civita. Todos os direitos reservados.
Saresp consegue corrigir uma falha do Ideb e promover uma equidade maior nas
estratégias de melhoria das escolas.
O indicador de Pernambuco, chamado Idepe, também utiliza uma fórmula análoga
à do Ideb, multiplicando as proficiências médias de português e matemática por uma
medida de fluxo escolar para produzir um índice de desempenho para cada
disciplina/série entre 0 e 10. Diferentemente do Idesp, no entanto, o índice não cria
categorias de desempenho e, ao empregar a nota média das provas, não gera
incentivos para a escola procurar melhorar o desempenho somente daqueles alunos
com notas próximas à linha de corte das categorias, como no caso do Idesp (FERRAZ,
2009).
Uma das responsáveis pela implantação do Idepe reconhece a importância da
liderança do MEC, mas mostra a necessidade de o estado ter um indicador próprio:
Nossa primeira preocupação foi ter um índice estadual. Embora nós
reconheçamos que o MEC tem realmente um trabalho muito consistente,
nós pensamos o seguinte: nós não pudemos pensar em implementar uma
política educacional com o nível de mudança que nós estamos
pretendendo, sem ter segurança de um índice estadual que não estivesse a
mercê de alterações. Então com isso nós decidimos. Foi uma decisão do
governador, do secretário na época e nossa, da equipe, de que era
importante ter um índice de desenvolvimento de Educação em Pernambuco
com periodicidade anual e que tivesse a mesma metodologia para ser
comparado ao índice do MEC. E aí em 2009 coincidiu que nós tivemos o
nosso índice e o MEC teve o dele, o IDEB. E o nosso IDEPE foi
metodologicamente validado. Nós tivemos lá praticamente o mesmo
resultado. (Gestora: SEE/PE)
No caso do Ideam, do estado de Amazonas, observa-se em documento da
Secretaria de Planejamento uma explicitação da esperança que a própria criação do
indicador possa contribuir para a melhoria dos resultados do sistema:
79
© 2011. Fundação Victor Civita. Todos os direitos reservados.
Na busca pela melhoria dos indicadores da Educação, o Governo do Estado
do Amazonas implantou em 2008 o Sistema de Avaliação do Desempenho
da Educação do Amazonas - SADEAM, que objetiva ter um contínuo
monitoramento do sistema educacional, bem como subsidiar a gestão
institucional no que se refere às definições de políticas educacionais para
possíveis correções de distorções desse processo. No SADEAM foi
construído o Índice de Desenvolvimento da Educação do Amazonas –
IDEAM com o objetivo de possibilitar uma visão mais integrada do
desenvolvimento educacional do Estado, o qual está em consonância com
o Índice de Desenvolvimento da Educação Básica – IDEB, cujo primeiro
resultado foi apresentado em 2009. (AMAZONAS, 2009)(p. 13)
O IDE-Alfa – Indicador de Desempenho Escolar em Alfabetização criado pela
Secretaria de Educação do Ceará é um pouco diferente dos exemplos anteriores.
Criado para facilitar a divulgação dos resultados do Spaece-Alfa, o indicador leva em
conta a proficiência média dos alunos que possuem desempenho intermediário e
desejável e o percentual de alunos que participaram da avaliação. Esse último critério
é utilizado para evitar que as redes impeçam a participação dos estudantes que têm
dificuldade de aprendizagem. O IDE-Alfa é construído em uma escala de 0 a 10. Os
municípios que possuem IDE-Alfa igual ou maior do que 5 estão no nível intermediário
e aqueles com índice de 7,5 ou mais no padrão desejável. Voltaremos a falar do IDE
quando apresentada a política do governo de Ceará de premiar os municípios com
base nesse indicador.
Independentemente das fórmulas usadas, os indicadores estaduais têm em
comum a dependência de informações produzidas por sistemas estaduais de avaliação
que empregam a Teoria de Resposta ao Item – TRI. Esse detalhe permite que o índice
produzido ao longo do tempo não sofra flutuações aleatórias devido a mudanças na
medida, como no nível de dificuldade dos testes. Essa consistência da medida de
desempenho é tão vital para o processo de monitoramento que sem a TRI dificilmente
um sistema estadual poderia reivindicar esse papel.
80
© 2011. Fundação Victor Civita. Todos os direitos reservados.
Como palavras finais desta seção, oferecemos as falas de representantes de duas
Secretarias. Na primeira um técnico da Secretaria de Educação de Minas Gerais dá a
opinião que o uso da avaliação de desempenho naquele estado para o monitoramento
das escolas está inextricavelmente ligado ao modelo de gestão para resultados e que
não há como separar os efeitos motivadores do monitoramento dos efeitos da
intervenção que decorre dele:
De 2008 pra 2009 sentimos um crescimento importante na alfabetização,
inclusive comparado com as redes municipais que não tiveram esse mesmo
tipo de intervenção que nós. A existência de uma medida, ela desencadeia
um processo. A existência dela associada a uma gestão com foco em
resultado, medição e acompanhamento, ela desencadeou um processo de
monitoramento de intervenção. Sem essa medida poderia até haver
intervenção, mas ela estaria mais desfocada. A gente não conseguiria saber
se houve ou não um crescimento, né. Eu acho que a medida tem que estar
associada a uma gestão, a um tipo de gestão e à intervenção. Por si só eu
acho que [a medida] não produz, mas ter a medida força a gestão a ir lá de
novo para acompanhar, a medir outra vez, a saber, por que. Eu acho que [a
avaliação] é um instrumento de motivação associada ao monitoramento.
Eu entendo a avaliação desse jeito. [...] Então a existência da medida ela
desencadeia um processo, uma mudança de atitude, de comportamento,
de procedimento nos diversos níveis da gestão da Educação. (Técnico:
SEE/MG)
Na segunda fala, que serve de ligação com a próxima seção, a gestora da
Secretaria de Educação de Pernambuco mostra que o monitoramento anda de mãos
dadas também com o planejamento, no modelo de gestão para resultados. A fala
também destaca a resistência à avaliação que ainda existe dentro da universidade:
O governador introduziu aqui o modelo de gestão por resultados em 3
áreas prioritárias em 2007. Ele começou com Educação, saúde, segurança e
receita. [...] quando nós entramos em 2007 o resultado do Ideb de 2005 [...]
deu conta que a rede estadual de ensino de 5ª a 8ª série foi o pior resultado
81
© 2011. Fundação Victor Civita. Todos os direitos reservados.
do Brasil dentre todos os estados. Então houve uma pressão muito grande
para melhoria. [...] Então o que houve na verdade foi uma conjunção de
fatores em que a administração do governador Eduardo Campos
possibilitou a introdução de mudanças muito grandes em pouco tempo.
Porque nós tivemos uma resistência razoável do sindicato com relação ao
bônus, com relação à gestão de resultado, com relação ao monitoramento.
Em algum tempo nós fomos proibidos até de usar a palavra monitoramento
porque as pessoas não aceitavam, pessoas da própria universidade. A
gente tem essa dificuldade ainda de trabalhar, eu acho que no currículo
principalmente da graduação a questão de aferição de resultados na
Educação. Mas acho que houve uma vontade política muito grande que fez
com que isso pegasse, digamos assim. Então hoje é comum. Se você
conversa com as escolas, por exemplo, nós fazemos sempre pesquisa no
final do ano, fazemos levantamento. A gente pergunta para as escolas: o
que foi mais importante durante esses 4 anos? Elas respondem: foi o
monitoramento. (Gestora: SEE/PE)
6.1.3 Planejamento. A utilização dos resultados das avaliações educacionais
como peça central do planejamento estratégico dos estados já foi discutida na
introdução. Além do caso emblemático de Minas Gerais, podem também ser
destacados os casos de Espírito Santo e Pernambuco. No caso de Espírito Santo, o
Plano Estratégico Espírito Santo 2025 reafirmou a prioridade absoluta a ser dada à
Educação pelo governo que tomou posse em 2003. Posteriormente, a parte do plano
que cabia à Secretaria da Educação recebeu um detalhamento para o período 20082011 e assumiu o nome Plano Estratégico Nova Escola. O objetivo maior era “o alcance
de escolas vivas”, com capacidade criativa e inovadora, modernas e atrativas, que na
essência “tenham como resultados de suas ações a aprendizagem dos alunos”,
segundo o Secretário da época, Haroldo Corrêa Rocha (ESPÍRITO SANTO, 2008) (p. 5).
Alinhado com a ênfase nos resultados de aprendizagem, o plano assumiu como sua
Visão de Futuro 2011 um cenário em que o Espírito Santo figuraria entre os estados
82
© 2011. Fundação Victor Civita. Todos os direitos reservados.
mais bem colocados “nas avaliações de resultados” e formulou diversas metas
pensadas para levar o estado a essa posição. Entre as metas assumidas, constam a
elevação das médias do 3º ano do Ensino Médio do Saeb para 350 pontos em
português e 400 em matemática, a elevação do Ideb das séries iniciais e finais do
ensino fundamental de, respectivamente 3,7 e 3,5 em 2005 para 5,9 em 2021, e o Ideb
no Ensino Médio de 3,1 para 4,5. Se o Plano Estratégico Nova Escola ainda não
expressava suas metas em termos dos resultados do seu próprio sistema de avaliação,
Paebes, a inclusão do projeto de “avaliar sistematicamente as condições de
funcionamento das escolas e de desempenho dos alunos visando a obtenção de
melhores resultados da aprendizagem” deixa claro o quanto que o plano oferecia
respaldo às atividades de avaliação educacional e o quanto o espírito da avaliação
estava presente no pensamento dos planejadores.
O planejamento estratégico da Secretaria de Educação de Espírito Santo também
serviu para colocar ordem em um verdadeiro cipoal de projetos e programas que se
multiplicavam sem critério:
Quando eu cheguei aqui a gente foi fazer um inventário de projetos para
identificar todos os projetos que havia na Secretaria e a gente identificou
92 projetos. Impossível de monitorar 92 projetos e totalmente sem foco,
sabe, quase que um delírio das pessoas. O projeto é uma ferramenta para
chegar a algum resultado. Qual é o seu resultado? E aí a gente chegou
numa visão para 2011 e com as metas que a gente tinha fomos fazendo um
teste de aderência [para ver] que projetos que já estavam na rede tinham
mais aderência a onde a gente queria chegar. Aí ficamos com esses 48.
(Técnica: SEE/ES)
No caso do Programa de Modernização da Gestão da Secretaria de Educação do
Estado de Pernambuco, o sistema estadual de avaliação está no centro dos planos. Na
definição da identidade estratégica da Secretaria de Educação, encontra-se como visão
“tornar-se referência nacional em Educação de qualidade até 2011” e como missão
“assegurar, por meio de uma política de Estado, a Educação pública de qualidade,
focada em resultados...”. Entre as diferentes prioridades para o alcance desses
83
© 2011. Fundação Victor Civita. Todos os direitos reservados.
objetivos consta a “Implantação do Modelo de Avaliação”, envolvendo a conjugação
do Sistema de Avaliação da Educação de Pernambuco – Saepe, com periodicidade
anual a partir de 2008, o Termo de Compromisso, o Idepe e o Bônus de
Desenvolvimento Educacional. No material de divulgação sobre os avanços do Idepe
entre 2008 e 2009 encontram-se dados que mostram que 890 ou 94,3% das escolas do
estado com 4ª e/ou 8ª e/ou Ensino Médio consegui elevar seus índices educacionais.
Dessas escolas, 550 atingiram 100% da meta para aquele ano com base no Idepe e
mais 211 alcançaram entre 50 e 99% da meta. Como esses percentuais também foram
usados para o cálculo do Bônus de Desenvolvimento Educacional a ser pago aos
professores, voltaremos a esse tópico mais adiante.
Não obstante a importância do planejamento estratégico, talvez o aspecto mais
inovador da conexão entre a avaliação e o planejamento seja a relação, ainda em
construção, entre os indicadores estaduais de desenvolvimento e a fixação de metas
em nível escolar. Com uma medida confiável do desempenho dos alunos e um índice
que capta a qualidade em um único número compreensível, a tarefa de fixar e cobrar
metas se tornou mais fácil. Isso tem significado o avanço na utilização de metas no
planejamento das atividades das Secretarias e também na formulação de políticas de
incentivos que dependam do cumprimento das metas fixadas, como será discutido em
outra seção.
O Índice de Desenvolvimento da Educação do Distrito Federal se apresenta como
exemplo tanto da necessidade de criar um indicador compreensível como do valor do
indicador como um elemento estruturador dos planos da Secretaria. Na opinião de
técnico da SEE/DF:
O IDDF surgiu por uma necessidade de trazer um número ao DF, um
número à escola. Assim, as pessoas já estavam acostumadas com um
índice, a questão do Ideb, mas no DF não se tinha isso, nada parecido. Às
vezes [a Secretaria] queria utilizar o resultado da avaliação de rendimento
que não tem nada a ver para tentar botar nos jornais. A própria imprensa,
aliás, faz questão de exibir alguma coisa nesse sentindo e nós não tínhamos
e então por decisão do gabinete, para não só satisfazer a opinião publica,
84
© 2011. Fundação Victor Civita. Todos os direitos reservados.
mas também para dar um horizonte e uma visão mais clara, o IDDF foi
criado, se utilizando da avaliação de rendimento, dos resultados, assim
como das taxas de aprovação. (Técnico: SEE/DF)
Segundo o material usado para explicar o IDDF às escolas, o desafio primordial da
SEE/DF é garantir que os alunos aprendam sem desperdiçar tempo com reprovações e
sem abandonar a escola. Para cumprir essa tarefa, a SEE/DF precisa de “indicadores
objetivos” para acompanhar a evolução das escolas e definir “metas individuais para
cada instituição educacional, a serem alcançadas em curto prazo”. O objetivo, em nível
da escola, é que as metas “sirvam como guia para seus gestores e se traduzam em
esforços pedagógicos capazes de elevar o desempenho dos estudantes, garantindo
que uma proporção cada vez maior de alunos domine um sólido conhecimento dos
conteúdos e habilidades esperados para o seu estágio escolar”. Visando esse objetivo,
com base em um indicador que junta os dois critérios para uma avaliação da qualidade
da escola, o IDDF é composto de uma medida da aprendizagem dos alunos, advinda
dos exames do Siade, e de uma medida da movimentação escolar derivada das taxas
de aprovação, em formula análoga ao do Ideb.
Com a formulação do indicador e a fixação de metas para cada escola, a Secretaria
parece ter cumprido a promessa de estabelecer um novo modelo de política
educacional. Em comum com outras Secretarias, esse modelo traz a vantagem de
converter esperanças em objetivos concretos e oferecer um foco legítimo para os
esforços de melhoria.
6.1.4 Pesquisa. A qualidade da pesquisa em Educação no Brasil tem se
beneficiado enormemente pela aplicação e divulgação dos resultados dos sistemas
nacionais de avaliação. Aqui cabe registrar que o uso tem sido tipicamente de dois
tipos. Um tipo de pesquisa se concentra no acompanhamento do desempenho dos
alunos ao longo do tempo. A título de exemplos, temos o trabalho de Alves, que
mostra que cerca da metade da queda observada no desempenho médio no Saeb dos
alunos da 4ª série entre 1995 e 2003 deveu-se à mudança no perfil dos alunos em
85
© 2011. Fundação Victor Civita. Todos os direitos reservados.
decorrência da melhoria do fluxo escolar (ALVES, 2007), e Klein, que mostra que a
proporção de alunos acima dos níveis satisfatórios em matemática decresce com a
série (KLEIN, 2006). O outro tipo de pesquisa que na ausência de dados objetivos sobre
a aprendizagem dos alunos era vedado aos pesquisadores é aquele que propõe
identificar as características da escola e dos professores que mais incidem na produção
de bons e maus resultados. Por exemplo, Franco et alii indicam que no Brasil 39% da
variância na proficiência em matemática encontra-se entre escolas, enquanto, em
países europeus e nos EUA, a variância entre escolas usualmente está em torno de
20%. A alta porcentagem encontrada no Brasil é um indicativo de que nosso sistema
educacional é altamente estratificado, apresentando muita desigualdade entre as
escolas. Os pesquisadores também constatam a importância de algumas
características escolares no desempenho médio dos alunos. Os elementos que indicam
que a escola atribui ênfase especial às questões acadêmicas, como o uso de dever de
casa, bibliotecas na sala de aula e um bom clima disciplinar, apresentam efeitos
positivos no aumento do desempenho médio das escolas (FRANCO et al., 2007).
O uso das bases de dados estaduais para esse tipo de pesquisa é menos comum,
não havendo o mesmo empenho por parte das Secretarias de tornarem públicos os
resultados das avaliações. Uma exceção é a linha de pesquisa desenvolvida pelo CAEd
desde 2002 com base nos dados do sistema mineiro de avaliação – Simave. Em várias
publicações, Soares e colaboradores têm avançado na compreensão de fatores
associados à aprendizagem e ao uso de diferentes modelos estatísticos para o estudo
hierárquico dos fenômenos escolares, mostrando a progressiva sofisticação conceitual
e metodológica da pesquisa em efeito escola (SOARES, 2003; 2005; SOARES; TEIXEIRA,
2006). Estudos equivalentes realizados com base nos resultados do Saresp também
têm contribuído para a criação de um corpo de evidências a respeito das
características da escola eficaz naquele estado.
86
© 2011. Fundação Victor Civita. Todos os direitos reservados.
6.2
Para Informar as Escolas sobre a Aprendizagem dos Alunos e Definir as
Estratégias de Formação Continuada
A preocupação com a qualidade da Educação básica está no cerne dos programas
subnacionais de avaliação. Apesar de usarem instrumentos descendentes do Saeb, que
são fundamentalmente de monitoramento e não de diagnóstico, todos têm como
objetivo explícito fornecer feedback aos professores de sala de aula e ajudar na busca
de soluções para superar as dificuldades de aprendizagem dos alunos. Do ponto de
vista do grande contingente de educadores envolvidos em todas as fases da avaliação
externa seria de fato impensável não extrair ao máximo as lições sobre as dificuldades
de aprendizagem refletidas nas proficiências para as diferentes séries e matérias. E,
para muitos professores, a avaliação externa só se justifica com base nas informações
fornecidas para melhorar a compreensão da situação dos alunos.
Mas como essa dimensão pedagógica vem sendo trabalhada dentro desses
programas? Quais as estratégias típicas das Secretarias para municiar as escolas e os
professores com as informações que precisam para tornar a avaliação externa um
subsídio para a melhoria da sua prática?
Sem exceção, as Secretarias fundamentam seu apoio pedagógico na produção de
materiais informativos que tentam traçar um diagnóstico do nível de aprendizagem
dos alunos. Esses materiais são apresentados basicamente em duas versões: a)
Boletins Pedagógicos, que seguem um formato próprio para o consumo do professor e
disponibiliza, em meio a informações padronizadas, resultados específicos de cada
escola; e b) Relatórios, os quais resumem de forma mais técnica os resultados da rede
de forma global, destinados, sobretudo aos gestores. Juntamente com essa prática,
observam-se diversas estratégias para a formação continuada de professores com base
nos resultados da avaliação para facilitar a compreensão dos Boletins ou remediar
problemas comuns. Ambas as políticas têm evoluído de forma marcante ao longo dos
anos, de modo que uma das conclusões a que chegamos, após a análise do apoio
pedagógico no âmbito dos programas de avaliação, é que esse apoio tem
acompanhado a sofisticação dos próprios programas.
87
© 2011. Fundação Victor Civita. Todos os direitos reservados.
De início uma produção bastante rudimentar, pouco a pouco o Boletim
Pedagógico passou a ser percebido como um instrumento rico de apoio pedagógico
quando bem construído. Com a aprendizagem acumulada com base no ensaio e erro,
sobretudo no âmbito dos programas pioneiros no Brasil (como os de Minas Gerais, São
Paulo e Ceará), os gestores passaram a dar mais destaque à produção desse material,
tal como percebemos na fala de alguns entrevistados:
A questão da avaliação do rendimento escolar do aluno e sua apropriação
pela escola era uma coisa bem longe do cotidiano das escolas. Tanto que a
gente percebe que a forma de divulgação dos resultados era mais os mapas
dos resultados que eram mandados para as regionais. As regionais
discutiam, as delegacias na época de ensino discutiam com o diretor da
escola, mas numa instância muito técnica e muito distante realmente do
chão da sala de aula. [...] Os boletins eram boletins gerais, além de não se
produzir boletim para cada escola. (Técnico/SEE-CE).
Hoje o objetivo do Boletim Pedagógico parece estar além da simples divulgação,
pois, ao devolver os resultados, ele também espera familiarizar melhor o professor
diante da linguagem mais técnica e objetiva utilizada nesse tipo de material. Nesse
sentido, pode-se dizer que o material contribuiu para aproximar o professor diante dos
dados apresentados:
A partir de 2007, é o CAEd que passa a produzir o nosso material, só que
cada boletim agora vem com a cara da escola, ele vem com o nome dos
alunos da escola. Não vem só com a média da escola, vem com a média de
cada turma, o resultado por turma e o resultado por cada aluno da escola,
além de ser uma tentativa de ler esses resultados à luz de uma escala que
fosse mais associada a cada intervalo. A gente criou a uma descrição
pedagógica desses intervalos que foi [.. ] bem mais objetiva e
compreensível para o professor. (Técnico/SEE-CE).
Uma coisa também que a gente passou a trabalhar muito assim de 2007
pra cá foi essa questão da forma de divulgação dos resultados, quer dizer a
88
© 2011. Fundação Victor Civita. Todos os direitos reservados.
gente não só melhorou o boletim, mas quando o boletim chega, primeiro é
feito uma oficina geral com a empresa que ganhou com todos os
especialistas dos órgãos das regionais. Então todas as regionais mandam
os seus técnicos para cá, e cada município manda 2 técnicos também que
coordenam o programa [...] e a gente apresenta o boletim, faz a primeira
leitura com ele, a primeira compreensão do material que foi produzido,
discute a lógica que está embutida naquele material. (Técnico/SEE-CE).
Não somente o conteúdo do Boletim passou a merecer destaque como também
sua apresentação gráfica:
(...) todos eles sabem pegar o boletim e ler aquele resultado. As cores
ajudaram muito. De longe, quando você coloca o resultado de um
município, eles já percebem logo quantos alunos estão em cada nível,
quantos estão numa situação não alfabetizada, quantos estão numa
alfabetização incompleta. A gente tentou dar ao boletim uma cara mais
objetiva e fácil de ser compreendida pelo professor e pelos técnicos do
município, que têm uma grande deficiência de trabalhar com os indicadores
educacionais. (Técnico/SEE-CE).
Esse material “devolutivo” procura dar uma resposta ao compromisso de fazer dos
sistemas de avaliação um serviço de melhoria do ensino, por meio da devolução dos
resultados da avaliação para as escolas, de modo que esse material possa servir como
um instrumento para melhorar a prática pedagógica nas escolas:
O boletim foi evoluindo (...) a partir de alguns estudos que foram
mostrando que isso era difícil, eles tentam fazer boletins com uma
linguagem mais simplificada para as escolas. Você fazer um boletim
simplificando uma linguagem, explicando melhor, tipo: “Olha, os seus
alunos estão neste nível”, isso não significa que os professores conseguem
se apropriar desses resultados e a partir dele, propor ações. Numa outra
fase eles começam então a dar dicas de ações. (Especialista-Fundação
Carlos Chagas/SP).
89
© 2011. Fundação Victor Civita. Todos os direitos reservados.
Uma parte do crédito pela melhoria progressiva dos materiais “devolutivos”
deve ser atribuída às próprias agencias de avaliação, como o CAEd, Cespe e Cesgranrio.
Incentivadas pelas Secretarias de Educação que são seus clientes, essas organizações
experimentaram diferentes conteúdos e formatos ao longo dos anos e puderam
verificar o grau de acerto das diferentes maneiras de apresentar as informações por
meio dos contatos diretos com professores e técnicos. Quando chamadas para atender
a novos clientes ou a retomar avaliações suspensas temporariamente, tais agências
puderam oferecer um produto que incorporava a aprendizagem de muitos anos,
permitindo que as novas avaliações principiassem em patamares mais sofisticados.
Mesmo com a evolução dos Boletins Pedagógicos, a divulgação dos resultados não
redunda automaticamente na sua apropriação por parte dos professores. A crítica
proveniente principalmente por parte dos professores sugere que os resultados não
são imediatamente consumíveis pela comunidade escolar (Diretores, Supervisores,
Professores etc.), não obstante todo o empenho das Secretarias na apresentação de
um material com cunho mais didático e instrutivo para o professor, distanciando-se do
formato do relatório técnico, geralmente endereçado aos gestores. Além disso, os
Boletins Pedagógicos costumam chegar às escolas com certo atraso em relação às
turmas que acabaram de ser avaliadas, dificultando a conexão entre os resultados
apresentados e o tipo de intervenção necessária:
(...) na avaliação persiste o grande desafio que é a questão da apropriação
do resultado mesmo para o usuário final, que é o professor. Apesar de todo
esse movimento que a gente fez de oficinas de item de um lado, encontros
do outro, seminários para leitura de material, de fazer com que a coleção
chegasse a cada escola, quer dizer, apesar de tudo isso você tem um
depoimento de uma professora [...] a professora não tinha o conhecimento
de que no boletim tinha o nome de todos os alunos. Então isso mostra que
de fato, nós ainda não atingimos o objetivo de fazer com que cada
professor saiba que exista um boletim na escola dele que tem o nome de
cada aluno lá com seu o desempenho. (Técnico/SEE-CE).
90
© 2011. Fundação Victor Civita. Todos os direitos reservados.
A despeito dos problemas levantados, o Boletim está sendo utilizado pela
equipe pedagógica das Secretarias para otimizar pedagogicamente os resultados da
avaliação. Na tentativa de transformar o produto (resultado) em processo (melhores
práticas), os Boletins Pedagógicos parecem colocar em questão o seguinte desafio: o
que fazer e como fazer se baseando na evidência dos resultados?
[...] a primeira decisão que a gente tomou aqui foi a de quem leva e quem
explica o resultado é o pedagógico. Nós não vamos mais, enquanto
gerência de avaliação, ficar levando os resultados para a escola, porque se
o pedagógico não encampa, se o pedagógico não entende, isso aqui não vai
servir para nada. (Gestora/SEE-ES)
Uma faceta da “sofisticação” por que passaram os Boletins Pedagógicos devese à descentralização dessa discussão, que agora sai do âmbito da Gerência de
Avaliação de algumas Secretarias e passa a ser gerida por equipes pedagógicas
incumbidas de avaliar o material produzido e elaborar estratégias para a sua
divulgação, além de monitorar o uso dessa produção no cotidiano da escola por parte
dos professores:
[...] traduzir essa linguagem para que isso possa ser revertido
especificamente nas competências e habilidades que essas crianças estão
demonstrando ou estão deixando de demonstrar, para que [o professor]
possa entender como é que se faz a intervenção pedagógica. Então, a
gerência de avaliação nos mobiliza com relação a esses dados e nos
permite [...] uma compreensão disso em nível central e em nível regional
por parte dos técnicos. Entretanto, mais importante do que isso são as
reuniões que a gente faz com os diretores, professores e pedagogos das
escolas para que eles entendam o que é isso que está chegando lá e de fato
faça sentido e eles possam utilizar pelo caráter diagnóstico que é isso que
nos interessa, para que haja promoção da aprendizagem. (Técnica/SEE-ES).
[...] a chave do sucesso de uma boa apropriação dos Boletins é que ele seja
levado com alguém do pedagógico para dentro da escola, para poder
91
© 2011. Fundação Victor Civita. Todos os direitos reservados.
acompanhar esse uso. Porque se a gente simplesmente colocar isso no site
e entregar o documento na escola, como muita gente faz, não poderíamos
cobrar algum resultado com base nesta avaliação, entendeu? (Técnica/SEEES).
A divulgação de informações sobre as medidas de todas as escolas de uma única
rede poderia ser vista como um elemento de responsabilização, uma vez que tal
informação poderia incitar a comparação entre as escolas, sinalizando a
responsabilidade das mesmas pelos resultados dos alunos. O que ouvimos nos
estados, por outro lado, é que a política das Secretarias de Educação não deve ser
comparar as escolas e que as escolas só podem ser comparadas com elas mesmas.
Essa afirmativa reflete um pouco o espírito dos Boletins, os quais cumprem mais o
papel de divulgar e disponibilizar um material didático que possa ser facilmente
manuseado e compreendido por toda a comunidade educativa. Quando existem
comparações nos Boletins, elas seguem o padrão estabelecido pela Prova Brasil,
mostrando a média da escola ao lado da média do seu município e da sua rede. Essa
informação é o suficiente para a escola se situar, mas sem permitir comparações com
outras instituições específicas.
Em nossa pesquisa, como dissemos, encontramos uma gama de material bem
trabalhado, alguns com mais recursos, inclusive com recursos gráficos mais
sofisticados e agradáveis para o leitor. É o caso, por exemplo, do Espírito Santo, que,
juntamente com Ceará, Pernambuco, Minas Gerais e outros estados, tem seu material
produzido pelo CAEd e disponibilizado em pdf tanto na página do CAEd como em um
link disponível nas páginas de sua Secretaria da Educação.
O estado de São Paulo também chama a atenção pela amplitude e qualidade do
repertório pedagógico disponível: caderno do gestor, caderno do professor, caderno
do aluno. No link da Arquivoteca, estão disponíveis todas as erratas e os materiais
relacionados aos Cadernos. Vale lembrar que os Boletins Pedagógicos do estado de
São Paulo encontram-se disponíveis tanto nos sites da Secretaria como impressos,
bimestralmente.
92
© 2011. Fundação Victor Civita. Todos os direitos reservados.
Grande parte dos Boletins, especialmente aqueles confeccionados pelo CAEd,
produz um material que vai além da divulgação dos resultados: eles analisam formas
de intervenção pedagógica com base na análise da produção do material e apresentam
dados gerais da avaliação, bem como os resultados de proficiência para todas as
séries/anos e disciplinas avaliadas. Apresentam os resultados da escola: resultados de
acordo com a proficiência e a interpretação qualitativa desses por meio da escala de
proficiência. Os Boletins Pedagógicos costumam apresentar também os padrões de
desempenho e a análise pedagógica dos itens dos testes. Para discutir outro aspecto
essencial da dimensão pedagógica, o nível socioeconômico dos alunos, o CAEd criou
outro documento, chamado Boletim Contextual. Ele informa os fatores intra e
extraescolares que interferem nos resultados dos estudantes e o índice da eficácia da
escola, fator que permite entender o resultado do desempenho escolar, controlando o
nível socioeconômico dos estudantes.
Juntamente com a produção desse material de divulgação, percebe-se também
um movimento por parte das Secretarias de Educação e das agências contratadas para
fazer a avaliação, em levar os Boletins Pedagógicos e os resultados até os pais. É o caso
do estado do Amazonas, que tem promovido reuniões sistemáticas entre pais,
professores e alunos em um programa chamado Sábado nas Escolas: aulas de reforço,
oficinas culturais e de redação, cantinho da leitura e experimentos científicos
costumam ser as atrações do programa.
A finalidade do encontro é apresentar aos pais as medidas que vêm sendo
planejadas e desenvolvidas e a classificação da escola de seus filhos. Para atrair esses
pais em um espaço destinado à divulgação dos resultados da avaliação, foram
ofertadas, durante alguns sábados do ano, atividades extraclasse, como aula de
reforço, acompanhamento etc. Essa é uma estratégia não negligenciável que busca
também chamar a atenção dos pais sobre os resultados das escolas de seus filhos, ao
mesmo tempo em que chama a responsabilidade dos pais e da escola para a produção
desses resultados. A estratégia também pode ser eficaz, na medida em que vai além da
produção escrita do material a ser divulgado, cumprindo talvez uma função mais
diretiva.
93
© 2011. Fundação Victor Civita. Todos os direitos reservados.
Outro exemplo interessante de uso do Boletim Pedagógico como uma tentativa
de chamar a atenção dos pais sobre a importância dos resultados de avaliação da
escola e assim criar um canal de comunicação entre escola e família é encontrado no
estado do Espírito Santo. No interior do Boletim Pedagógico, encontra-se um termo de
compromisso que deve ser assinado pelo Conselho da Escola, Diretor, Professor e Pais,
cuja assinatura representa a confirmação do compromisso de cada um desses
responsáveis pelo processo de aprendizagem do aluno:
O professor também assina, o conselho de escola assina, o diretor assina, o
pedagogo assina, todo mundo assina e aí assim, para os professores, como
para mim também, é muito favorável porque ele divide com o grupo de
gestores da escola a responsabilidade pela aprendizagem do aluno.
(Técnica/SEE-ES)
Além desses exemplos de iniciativas chamando a responsabilidade da família
pela aprendizagem do aluno, os Boletins Pedagógicos vêm se sofisticando cada vez
mais, como sugere o exemplo do Distrito Federal, confeccionado pelo Cesgranrio. O
aspecto gráfico não é tão atraente quanto o material produzido pelo CAEd, mas
chamaram a atenção a quantidade e a qualidade de um material pedagógico bem
circunstanciado, com descrições mais detalhadas e também genéricas, por habilidades
e faixa de desempenho dos alunos. Mas mais interessante pareceu-nos a preocupação
em esclarecer e se fazer didático a um leitor pouco familiarizado com os jargões da
avaliação, discutindo heuristicamente o que são os resultados, como utilizá-los, qual a
importância de apropriar-se deles, como explicitado nesta fala:
[...] o que a gente precisa detalhar um pouco mais é que o boletim não vai
sozinho. O boletim ele é uma ferramenta de mostrar o número frio, o
número, o resultado pronto e frio, e é uma distribuição percentual desses
alunos numa escala de proficiência. Agora, o que é que deve vir
acompanhando esses boletins? Os relatórios pedagógicos que, apesar de
não ser algo tão inovador, creio que é o grande diferencial para as escolas
do DF. São cadernos, livros de cada componente curricular avaliado, e para
cada série. (Técnico/SEE-DF)
94
© 2011. Fundação Victor Civita. Todos os direitos reservados.
Em geral, pode-se dizer que as propostas dos Boletins e materiais auxiliares são
muito parecidas, ainda que e o emprego da palavra Boletim seja polissêmico, como
denotam as seguintes expressões utilizadas para o mesmo fim: guia de intervenção,
relatório, boletim, caderno etc.
Mesmo reconhecendo os avanços contidos nessa forma de apoio pedagógico, as
Secretarias de Educação perceberam que a divulgação dos resultados não estava
sendo capaz de promover uma mudança sistêmica por parte dos professores. A
estratégia passa a voltar-se para as Oficinas Pedagógicas, espaços destinados não
somente à apresentação dos resultados, mas como melhor apropriar-se deles.
Assim, quase como uma extensão da divulgação, as Oficinas Pedagógicas
aparecem como espaços de formação, as quais contam com a participação de
especialistas e mesmo a Instituição/Agência contratada pelas Secretarias para a
produção da avaliação. Essa “rotina” acaba servindo para dois propósitos: a) divulgar
os resultados; e b) colaborar para o processo formativo do professor:
[...] a nossa equipe de avaliação também teve que ir a vários municípios
também ministrar oficinas por demandas municipais e de professores da
rede municipal para essa questão de entender melhor os descritores, as
competências que serão avaliadas e a própria leitura do boletim.
(Técnico/SEE-Ceará)
Em nosso mapeamento sobre os usos da avaliação com finalidade
expressamente pedagógica, percebemos o quanto a formação continuada passa cada
vez mais a depender da interpretação dos resultados dos testes de avaliação por
equipes de especialistas que possam refletir sobre as lacunas no processo de ensinoaprendizagem e, com base nas primeiras inferências, oferecer subsídio para tratar das
dificuldades observadas:
Na verdade, isso para nós é o sentido da avaliação. A avaliação só tem
sentido se ela for capaz de mexer na intervenção pedagógica. Aqui, no final
do livro, tem as sequências didáticas, que é uma inspiração [...]. O professor
olha a avaliação e aqui tem uma série de ideias de como ele organiza a
95
© 2011. Fundação Victor Civita. Todos os direitos reservados.
aula dele. Então é um documento pedagógico. (Gestor/SEE-ES)
As Secretarias passam a perceber que informar e familiarizar os professores com
os preceitos da avaliação não é suficiente para melhorar a qualidade das escolas. As
equipes encarregadas pela produção da avaliação nos estados passam a perceber as
inúmeras dificuldades dos professores para entender as matrizes, associá-las aos
conteúdos ministrados e trabalhá-las em sala de aula:
[...] dando muita formação, insistindo sobre o que é a habilidade e onde é
que ele acha isso na matriz e como que ele desenvolve. Eu acho que são
duas coisas. Uma delas é entender o resultado da avaliação, a outra para
mim é didática. (...). É o professor saber ensinar dentro dessa linha porque
ele não foi formado para ensinar a desenvolver habilidade, ele foi formado
para dar conteúdo. (Técnica/SEE-ES)
De maneira mais pontual, alguns estados promovem um dia específico para
divulgar os resultados da avaliação para a comunidade escolar e, ao mesmo tempo,
inseri-los em um processo de formação que leve em consideração os dados fornecidos
pelo sistema de avaliação:
Tem um “Dia D”, para fazer essa discussão [do planejamento]. Manda o
boletim para as escolas e as aulas são suspensas por 2 dias por ano para
isso. No dia D se discute os resultados e se reflete sobre o que é que a
escola vai fazer [..] Não é só uma questão de mandar o boletim. O boletim
virou uma ferramenta importante para esse planejamento que eles sabem,
cada professor sabe na sua turma como é que está a situação de cada
aluno. (Especialista-MG)
As oficinas acabaram cumprindo o papel de formação em vários aspectos:
passaram a trabalhar, com os professores, sobre a importância de ler e saber
interpretar os resultados da avaliação. Com base nessa postura reflexiva, evidenciaram
a importância do planejamento didático, da organização dos conteúdos e da mediação
entre a matriz de referência e a matriz curricular, além do próprio trabalho de
formação presente na elaboração dos itens de avaliação, momento este em que se
96
© 2011. Fundação Victor Civita. Todos os direitos reservados.
oferece aos professores do Ceará a oportunidade de serem sujeitos e partícipes do
processo contido na avaliação.
Com a ampliação dessas oficinas no interior, o ano passado, por exemplo, a
gente capacitou aproximadamente 1.500 professores em todo o Estado
com a elaboração de itens [...] No começo, até o ano 2006, a gente tinha
meio que um pacto com o professor. Ele vinha para essa oficina, ele
produzia itens. A gente não remunerava esse item. A gente investia na
formação desse professor que elaborava itens para o Spaece. Cada
professor elaborava em média 3 itens. Ele recebia o descritor e elaborava 3
itens, eram esses itens que a gente selecionava para fazer a prova.
(Técnico-SEE/CE)
Nesse processo, não só os professores são formados e “informados” de uma nova
cultura escolar. Concomitante à introjeção da chamada “cultura de avaliação”,
percebemos um novo desafio posto a estes profissionais:
Qual é a dificuldade que a gente encontra? A dificuldade é exatamente a
cultura da avaliação, a cultura do contato com a avaliação externa em
especial, de se apropriar de uma linguagem que é feita por gráficos, por
escalas e uma série de coisas que o professor não tem referência e não está
acostumado a lidar com isso. (Técnica/SEE-ES)
Uma constatação parece evidente: a de que o Boletim Pedagógico e as Oficinas
Pedagógicas não conseguem produzir, sozinhos, uma mudança de atitude ou de
prática por parte do profissional docente. O trabalho dos Analistas Educacionais (ANEs)
em Minas Gerais de fazer a mediação entre o trabalho de divulgação do Programa de
Avaliação do Ciclo Inicial da Alfabetização (Proalfa) e a formação dos professores
mostra como as Secretarias começam a oferecer apoio pedagógico individualizado
para ir além dos Boletins e as Oficinas Pedagógicas. O estudo de Carvalho e Macedo
(CARVALHO; MACEDO, 2010) foca o trabalho dos ANEs da Superintendência Regional
de São João Del Rey e mostra como esses especialistas ocupam o papel de mediadores
com base em discussões e reuniões pedagógicas com os professores. O estudo
97
© 2011. Fundação Victor Civita. Todos os direitos reservados.
também oferece uma indicação dos prováveis impactos de um programa de avaliação
sobre a prática dos professores quando acompanhado de apoio pedagógico direto.
O Proalfa é realizado em todas as escolas estaduais de ensino fundamental no
estado de Minas Gerais. Seus resultados são divulgados por meio de Boletins
Pedagógicos, que supõem a interpretação e elaboração de intervenções por parte do
professor com base nos níveis alcançados pelos alunos na escala de proficiência. O
objetivo das ANEs em relação ao trabalho do professor é ajudar a identificar os
aspectos negativos e positivos e, no caso dos aspectos negativos, diagnosticar os
principais problemas.
Para medir o impacto desse trabalho, foi aplicado, entre os responsáveis pelo
acompanhamento pedagógico nas escolas estaduais de São João Del Rey, um
questionário no qual a pergunta central era: “O Proalfa causa alguma espécie de
impacto na prática dos professores das séries iniciais da rede estadual de ensino de
Minas Gerais?” As analistas foram unânimes em reconhecer que a prática da avaliação
oficial, como o Proalfa, impacta o trabalho docente. Em outra pergunta – “Como você
percebe (ou avalia) o tipo de impacto que o Proalfa causa na prática dos professores
das séries iniciais na rede estadual de ensino?” –, das nove analistas educacionais, sete
só apontaram aspectos positivos e duas indicaram também aspectos negativos. Em
relação aos aspectos positivos, destacamos alguns excertos das analistas educacionais:
As avaliações do Proalfa servem como referência para os professores
avaliarem suas práticas de sala de aula, bem como o aprendizado dos
alunos. Muitos, diante do resultado insatisfatório nessa avaliação, vêm
repensando sua prática e modificando-a para melhor. (ANE C)
(...) O impacto é positivo, pois faz com que os professores procurem
mudanças em seu cotidiano. (ANE L)
(...) Acredito que todo professor tem um certo receio do Proalfa, uma vez
que ele reflete também o trabalho desenvolvido pelo professor do ano
letivo em curso. Por isso, nas escolas estaduais às quais atendo, a
proximidade das avaliações do Proalfa 2008 levaram a uma mudança da
98
© 2011. Fundação Victor Civita. Todos os direitos reservados.
prática dos professores no que diz respeito ao planejamento. Os
professores do 3º ano do ensino fundamental realizaram semanas de
“intensivões” dos alunos com questões do Proalfa de anos anteriores. (ANE
A)
É possível perceber a escola elaborando seus planejamentos e preparando
atividades com base na matriz curricular e matriz de referência das
avaliações externas. (ANE R) (CARVALHO; MACEDO, 2010)(p. 266 e 267).
Em relação aos aspectos negativos, as analistas educacionais destacaram os
seguintes fatores:
Há uma espécie de aceleração ou supressão das disciplinas (do plano de
ensino) em decorrência do que é cobrado na prova. Muitos professores
deixam de trabalhar ou intensificam o trabalho com alguns “descritores”,
deixando de lado coisas muitas vezes relevantes para o aprendizado
escolar. (ANE G) [...] em várias escolas os professores ficam ansiosos,
apreensivos e podem “mascarar” os resultados, por exemplo, auxiliando os
alunos na hora da avaliação ou colocando para fazer a prova apenas os
alunos preparados [...]. Além disso, hoje, a política pública do estado
vinculou resultado e remuneração, o que, na minha opinião, foi um
equívoco, pois incentiva, ainda mais, a intenção de mascarar o resultado
final. (ANE H) (CARVALHO; MACEDO, 2010)(p. 268).
Nesses excertos, é possível verificar que um bom Boletim Pedagógico que versa
sobre a análise dos resultados da avaliação acaba sendo uma fonte de apoio
interessante para o professor, que passa a ter uma medida do que está funcionando
ou não na sua prática em sala de aula. A preparação para o dia dos testes também
exige por parte do professor um planejamento do conteúdo que ele está ministrando,
além de contextualizar o que está sendo ensinado com base em um trabalho mais
dialógico entre a matriz curricular e a matriz de referência da avaliação.
Paradoxalmente, o alinhamento excessivo entre a matriz de referência da
avaliação e a matriz curricular é apontado pelas analistas como um aspecto negativo,
99
© 2011. Fundação Victor Civita. Todos os direitos reservados.
uma vez que o professor corre o risco de deixar de lado conteúdos igualmente
importantes para a formação do aluno, mas que, pelo fato de não serem cobrados nos
testes de avaliação, não seriam objeto de atenção por parte dos professores.
Talvez um dos aspectos positivos mais marcantes encontrados na fala das
analistas educacionais sobre o impacto do Proalfa na rotina pedagógica do professor
diga respeito à capacidade de mobilizar as professoras para uma reflexão sobre suas
próprias práticas pedagógicas. Essas mudanças foram percebidas por elas como uma
atitude mais sensível para a importância do planejamento, para o estabelecimento de
planos e metas a serem alcançados com vistas à melhoria no desempenho dos alunos.
Nesse processo, não se pode deixar de desconsiderar a importância que as analistas
educacionais têm na interpretação e divulgação dos resultados, bem como o papel de
mediadoras de um trabalho pedagógico que pode alcançar bons resultados quando
realizado em equipe. Entretanto, parece-nos que é a própria prova a catalizadora de
mudanças, comportamentos e atitudes, uma vez ela traz consigo o diagnóstico e, com
ele, a possibilidade de observar e refletir sobre as possíveis dificuldades a serem
trabalhadas e suplantadas.
Em nossa pesquisa, temos também vários exemplos dos problemas apontados
pelos gestores em Educação a respeito dos materiais pedagógicos de divulgação e
formação. Para a maioria desses gestores, técnicos e especialistas em Educação, o
material pedagógico produzido para a divulgação e formação ainda não consegue
promover uma mudança efetiva na prática diária do professor. Esses casos forneceram
evidências de uma conexão ainda difícil de ser estabelecida entre as políticas de
divulgação e formação implementadas pelas Secretarias e o currículo a ser ensinado, o
que tem feito com que muitas delas reconheçam que, apesar de todos os esforços
nesse sentido, os Boletins Pedagógicos continuam sendo, em certa medida, objeto de
difícil compreensão por parte dos professores.
Não faltaram exemplos das dificuldades manifestas pelos professores em
relacionar os itens usados ao conteúdo ensinado. As oficinas pedagógicas, algumas das
quais preveem a elaboração de itens, refletem mais a tentativa de mostrar a conexão
entre o item e o descritor da matriz de referência, mas o problema é que essa matriz
100
© 2011. Fundação Victor Civita. Todos os direitos reservados.
nem sempre está explicitada em termos de conteúdo. Na tentativa de dirimir esse
problema, algumas Secretarias, como a do Espírito Santo, passaram a elaborar um guia
de intervenção pedagógica, material auxiliar ao Boletim Pedagógico, para facilitar o
processo de comunicação entre o material pedagógico de apoio e o professor:
[...] nós produzimos para o professor um guia de intervenção que tem todas
as sequências didáticas, que é um documento que é quase um plano de
aula para o professor, o passo a passo do que ele tem que fazer [...] porque
ele não consegue interpretar a habilidade. O que significa desenvolver
[habilidade]? Como é que eu enxergo esta habilidade desenvolvida no
aluno? Essa é a maior dificuldade que a gente vem escutando. Por isso a
gente se reúne muito com os professores nas oficinas de item.
(Técnica/SEE-ES)
Outra forma de superar esse desafio tem sido a criação de programas
estruturados de formação continuada com base nos resultados das escolas, que vão
além do trabalho individual dos analistas ou supervisores pedagógicos, na tentativa de
atingir um número mais significativo de professores. Trataremos do melhor exemplo
desse tipo de estratégia na seguinte seção.
6.2.1
Políticas de Formação Continuada Baseadas nos Resultados
Com as informações levantadas, observamos que muitas Secretarias começam a
instruir suas políticas de formação de professores baseadas no diagnóstico fornecido
pelas avaliações externas. Nesses casos, as estratégias de formação vão além das
oficinas voltadas para a explicação dos resultados das avaliações para se tornarem
programas permanentes de intervenção junto aos professores. Na cidade de Belo
Horizonte, por exemplo, foi implantado o programa de Monitoramento da
Aprendizagem. Com a análise dos resultados das avaliações externas realizadas na
Rede Municipal de Educação (Proalfa, Provinha Brasil e Avalia BH), a Secretaria
Municipal de Educação iniciou em 2009 um acompanhamento sistemático e
individualizado de todos os alunos do ensino fundamental, chamado de
101
© 2011. Fundação Victor Civita. Todos os direitos reservados.
Monitoramento da Aprendizagem. Além de diversas ações, como o reforço escolar,
visando melhorar o Ideb das escolas, são também desenvolvidas ações de formação
docente, em que os professores recebem formação específica e acompanhamento
constante da Secretaria Municipal de Educação.
Talvez o exemplo mais acabado de uma política de formação continuada calcada
nos resultados da avaliação se chame Plano de Intervenção Pedagógica – PIP, da
Secretaria da Educação do estado de Minas Gerais. Com base nos resultados das
avaliações do Proalfa, educadores e gestores elaboram um plano de intervenção
pedagógica cuja finalidade reside na construção de estratégias para melhorar o
desempenho dos alunos.
No caso aqui de Minas Gerais, você tem muitos projetos, mas somente um
deles é que usa [os resultados] especificamente como um ponto de partida,
ou seja, estabelece um diagnóstico e agora vamos trabalhar, vamos traçar
estratégias. (Técnicos-SEE/MG)
O objetivo é fazer com que as escolas com os piores resultados recebam visitas de
uma equipe pedagógica competente para discutir e trabalhar pontualmente as lacunas
observadas com os resultados da avaliação.
O PIP teve início em 2008 com a implantação do programa chamado Alfabetização
no Tempo Certo,7 cuja meta era garantir as competências de leitura e escrita de toda
criança até os 8 anos de idade até 2010. O PIP entra como suporte a esse programa a
fim de oferecer subsídio para que o estado pudesse alcançar a meta de alfabetização e
letramento de todas as crianças na idade certa, corrigindo problemas de fluxo de
desempenho entre as escolas das diferentes regiões do estado, evidenciado pelos
resultados da avaliação do Proalfa.
7
Modelado em programa quase homônimo do estado de Ceará chamado Programa de Alfabetização na
Idade Certa.
102
© 2011. Fundação Victor Civita. Todos os direitos reservados.
Foi então montada uma equipe central e regional de apoio pedagógico,
desenvolvido um material didático para servir de guia ao professor, especialistas,
diretores e grupo regional e, concomitante à produção do material, oferecer uma
capacitação em serviço a esses professores. Depois da construção da equipe e do
suporte para sua operacionalização, foram definidas as metas de intervenção e,
posteriormente, planejada a execução e acompanhamento da intervenção.
Embora o PIP acompanhe todos os tipos de escola (estratificadas em “escolas
pequenas”, “melhores escolas” e “escolas estratégicas”), a atenção se volta para o
atendimento às escolas estratégicas. Essas recebem essa denominação pela SEE, mas
na realidade são as escolas maiores que apresentam os piores resultados na avaliação
externa. Essas escolas estão distribuídas por todo o estado, mas com uma
concentração mais evidente na região metropolitana de Belo Horizonte e na região
norte.
A estrutura do PIP está apoiada na constituição de equipes de trabalho regionais
ligadas às Secretarias Regionais do Ensino (SREs), que, por sua vez, estão ligadas à
Equipe Central da Secretaria. A capacitação da Equipe Regional treina analistas e
inspetores escolares, os quais recebem os guias (materiais didático-pedagógicos) e o
sistema de acompanhamento. Todas as 46 SREs definem metas para as escolas do
estado no ensino fundamental, com base na avaliação do 3º ano do ensino
fundamental no Proalfa. É interessante destacar que essas equipes, organizadas
segundo um organograma que obedece a uma estrutura hierárquica, se mobiliza para
intervir nas escolas, dentro de uma agenda pré-programada de reuniões.
Pode-se dizer que essa constitui uma das estratégias mais bem definidas da
Secretaria de Educação de Minas Gerais, uma vez que, ao acompanhar as dificuldades
dos professores no domínio de certos conteúdos, a equipe desenvolve um trabalho de
capacitação individual dos professores baseado no resultado da avaliação dos alunos.
As metas de alfabetização para o estado, ultrapassadas com folga, demonstram o êxito
do PIP:
Então na verdade quando você vê, por exemplo, que tínhamos uma meta
103
© 2011. Fundação Victor Civita. Todos os direitos reservados.
de 74 para proficiência de alfabetização, vamos assim dizer, e nós
atingimos 86, alguma coisa melhorou, alguma coisa eles estão indo atrás. A
gente não sabe se realmente é a intervenção do PIP, isso aí, a gente ainda
não sabe qual que é a causa dessa melhora. Mas de 74 que era a nossa
meta e nós atingirmos 86, é muita coisa né? (Técnico/SEE-MG)
Um dos grandes diferenciais do PIP parece ser a realização de um trabalho
pedagógico em um nível muito circunscrito. A possibilidade de elaborar um
diagnóstico da turma com base nos resultados de avaliação e, diante disso, inferir qual
é a dificuldade do professor diante da turma permite que a equipe elabore um plano
de intervenção muito circunstanciado, oferecendo uma possibilidade de formação em
serviço para aquele professor, no que diz respeito à sua competência nos conteúdos e
habilidades ministrados. O resultado positivo fez com que a Secretaria pensasse na sua
expansão para outros segmentos da Educação básica, mas a dispersão de conteúdo do
segundo segmento do Ensino Fundamental, bem como dos três anos do Ensino Médio,
pode servir de obstáculo para a eficácia do PIP observada nos anos iniciais de
alfabetização:
O PIP é bom porque é um Programa que tem metas. No Ensino Médio não
garantimos que isso vai ter sucesso porque o professor não é muito
favorável e as disciplinas são várias. Então a sistemática deve ser muito
mais complexa. O outro problema é que em geral, os resultados da
avaliação são muito pouco utilizados, são pouco apropriados pelas escolas,
pouco discutidos. (Técnicos/SEE-MG)
As nossas investigações junto às outras Secretarias evidenciaram uma
heterogeneidade de práticas, métodos e concepções teóricas sobre o uso dos
resultados da avaliação na política de formação do professor. Se o PIP em Minas Gerais
fornece um exemplo de um programa bem estruturado e aparentemente bemsucedido, ele não representa um fenômeno isolado. Essa dimensão do uso dos
resultados das avaliações parece estar em expansão. Na medida em que os
instrumentos usados começam a fornecer informações sobre alunos individuais e vir
104
© 2011. Fundação Victor Civita. Todos os direitos reservados.
acompanhados de materiais curriculares e didáticos, pode-se prever a diversificação
ainda maior de iniciativas desta natureza.
No estado de Espírito Santo encontrou-se a única menção de uma conexão entre a
avaliação e a formação inicial dos professores. Entre os técnicos da Secretaria de
Educação desse estado notou-se a esperança das matrizes de referência do sistema de
avaliação criar uma sinalização para os cursos de formação de professores em relação
às expectativas da SEE/ES. O mecanismo dessa sinalização, e se haveria interferência
direta da Secretaria, não ficou estabelecido, mas o tema é de interesse ao mostrar a
impaciência da Secretaria com a falta de alinhamento entre a formação inicial e a
realidade da profissão e falta de informação e prática nos cursos de pedagogia na
interpretação e uso da avaliação externa.
6.2.2
O Currículo Básico
Mesmo não sendo o instrumento ideal para esse propósito, para muitos gestores
a extração das lições sobre as dificuldades dos alunos contidas nas proficiências
fornecidas para as diferentes séries e matérias é a contribuição principal da avaliação
para a melhoria da Educação.
Apesar desse voto de confiança no valor das avaliações para usos pedagógicos, é
patente a frustração dos responsáveis com os retornos dessa política.
Nós disponibilizamos os boletins pedagógicos com os resultados e aí nós
observamos que estava sendo pouco utilizada essa ferramenta. Esses
resultados eles não estavam sendo utilizados como instrumento de gestão
pedagógica ou de intervenção pedagógica. (Gestor: SEE/PE)
O constante aprimoramento dos boletins foi uma resposta a essa dificuldade e
uma aposta que, ao aprofundar cada vez mais a compreensão do professor em relação
às matrizes de referência das provas e às habilidades que se pretendem formar nos
alunos, o aproveitamento dos resultados das avaliações seria cada vez melhor:
105
© 2011. Fundação Victor Civita. Todos os direitos reservados.
Não basta mandar um boletim para a escola, você tem que mandar
informações significativas que fazem sentido para a escola, essa é a
primeira coisa. Então a primeira mudança é, que tipo de informação a
escola tem que receber? (Especialista: CAEd)
Nesse sentido, foram sendo eliminadas informações que não diziam respeito à
aprendizagem dos alunos, como as médias no Saeb , no caso dos Boletins do Proeb em
Minas Gerais, e enfatizados exemplos de itens para ajudar o professor a entender a
natureza das habilidades cobradas pela matriz. Os Boletins se expandiram com
visualizações da escala de proficiência, mostrando a faixa de desempenho em que se
situa a média da turma em relação a todas as principais competências testadas, e com
exemplos de itens usados nas provas para fazer a conexão entre a matriz, a escala e as
habilidades identificadas pelos descritores.
Ao mesmo tempo, e possivelmente como mais uma indicação da frustração com a
falta de impacto dos Boletins e os outros meios tradicionais de informar o professor,
acendeu-se o interesse de algumas Secretarias em implantar um currículo oficial
composto dos elementos considerados mínimos para cada série. Chamado de
Currículo Básico Comum em Minas Gerais, a Base Curricular Comum em Pernambuco e
a Proposta Curricular em São Paulo, esses currículos parecem advir da constatação de
que os esforços na busca por melhores resultados podem ser inócuos se não houver
uma política bem focada nos conteúdos ensinados.
O problema na matriz de referência está no fato de que o MEC faz uma
matriz de referência nacional e nacional é um negócio complicado [...] No
nosso caso, a nossa matriz de referência é o CBC, nós fizemos o CBC e ela
virou a nossa matriz de referência. Sem isso eu acho que é difícil
interpretar. Por isso que o Saeb não tinha condição e continua não tendo
condição de ser útil na sala de aula. (Especialista-MG)
Nossa investigação demonstrou uma dinâmica de construção de um currículo
comum oficial bastante recorrente: após a implantação dos sistemas de avaliação,
chega-se à conclusão de que pouco vale investir em formação, oficinas pedagógicas ou
106
© 2011. Fundação Victor Civita. Todos os direitos reservados.
na divulgação dos resultados por meio de boletins se não existir um currículo básico
comum, que permita construir um diálogo com o professor a respeito daquilo que está
sendo cobrado pelo sistema de avaliação. No caso de São Paulo, por exemplo, a
própria introdução ao novo currículo deixa evidente este propósito:
Estes documentos, que dão origem aos Cadernos do Professor, do Aluno e
do Gestor, são as referências essenciais para o estabelecimento das
matrizes de avaliação do Sistema de Avaliação de Rendimento Escolar do
Estado de São Paulo (Saresp). (SÃO PAULO [ESTADO] SECRETARIA DA
EDUCAÇÃO, 2010.) (p. 3)
Nesse caso, havia a intenção clara de reduzir a diversidade curricular reinante e,
por meio de documentos bem estruturados, criar um consenso:
[...] o diagnóstico que se tinha da rede antes da implantação do Saresp era
que, por exemplo, as escolas da rede tinham mais de 300 currículos e
mesmo na mesma escola era complicado um aluno sair de um turno e ir
para outro [...] Cada um construía ao seu bel prazer o que achava
conveniente. [...] É claro que a reação inicial [ao novo currículo] não foi,
assim, natural. Depois foi caminhando, caminhando, caminhando. Eu acho
que hoje não se discute mais a implantação do currículo há muito tempo.
(Técnico/SEE-SP)
No caso de Minas Gerais, os documentos também mostram a intenção de traduzir
os novos currículos em matrizes de referência para os sistemas de avaliação e, dessa
forma, criar um diálogo entre os dois:
A importância dos CBCs justifica tomá-los como base para a elaboração da
avaliação anual do Programa de Avaliação da Educação Básica (Proeb) e
para o Programa de Avaliação da Aprendizagem Escolar (Paae) e para o
estabelecimento de um plano de metas para cada escola. O progresso dos
alunos, reconhecidos por meio dessas avaliações, constitui a referência
básica para o estabelecimento de sistema de responsabilização e
premiação da escola e de seus servidores. Ao mesmo tempo, a constatação
107
© 2011. Fundação Victor Civita. Todos os direitos reservados.
de um domínio cada vez mais satisfatório desses conteúdos pelos alunos
gera consequências positivas na carreira docente de todo professor.
(Proposta Curricular – CBC: http://crv.educacao.mg.gov.br)
Em outros casos, como no do Espírito Santo, as próprias matrizes de referência
são transformadas em conteúdos curriculares básicos. Nesse exemplo, a linguagem
das competências e habilidades usada pelas matrizes está ainda mais próxima aos
objetivos do ensino:
A avaliação puxou o currículo. Nós tínhamos a avaliação já avançada e não
tínhamos o currículo [...] assim fica difícil, não tem uma referência para o
professor, o professor não pode ficar usando matriz de avaliação como
currículo. Aí começou a confecção do currículo com competências [...] e eles
partiram da matriz para montar o currículo. (Gestora/SEE-ES)
[...] houve uma reunião com o secretário de Educação e a gerencia de
avaliação para apresentar o programa de avaliação e o currículo. A
orientação toda foi para que o currículo contemplasse competências e
habilidades, desde que alinhado à avaliação. Na verdade, o currículo
nasceu a partir de um movimento contrário, ou seja, o currículo acabou
nascendo a partir da matriz de avaliação. (Técnica/SEE-ES)
No caso de Ceará, a decisão da Secretaria em governo anterior foi encurtar o
caminho e imprimir a lista de competências e habilidades contidas nas matrizes de
referência nos próprios diários dos professores. Há reconhecimento dos perigos dessa
atitude:
[...] claro que a matriz de referência da avaliação é um recorte do currículo.
[...] a gente vê o professor procurando a matriz de referencia, mas isso a
gente também tem muito medo. A gente também tem muito medo que eles
reduzam o currículo à matriz de referência da avaliação [...] Eles
trabalhavam era o livro, mas hoje já temos esse movimento curricular né,
de interesse dos professores de pegar a matriz, de conhecer a matriz para
ver o que está sendo cobrado na avaliação. (Gestor/SEE-CE)
108
© 2011. Fundação Victor Civita. Todos os direitos reservados.
Posteriormente, uma pesquisa constatou que a carga horária dedicada
efetivamente ao ensino das habilidades era mínima e que se precisava partir para a
produção de um currículo básico calcado em conteúdos:
Então a escola gastava muito do seu tempo trabalhando coisas que não
seriam objetos de avaliação. Não que ela não tivesse que trabalhar essas
outras dimensões né, mas percebia muito claro o desalinhamento entre [o]
currículo trabalhado e o currículo avaliado. [...] A pesquisa tornou isso
muito evidente, né. E foi a partir daí que surgiu a ideia de construir esse
documento sinalizando os conteúdos que queria que trabalhasse em cada
semestre.
A Secretaria do Ceará reconhece que a decisão de produzir um currículo para o
estado vem com atraso:
De certa forma o currículo do estado é uma coisa meio que tocada. A gente
tem conhecimento de alguns estados que avançaram muito nessa questão
de socializar e trabalhar o currículo com o professor assim, sem essa
questão da autonomia escolar. Durante muito tempo essa questão do
currículo parecia ser uma coisa que não poderia ser tocada por uma
secretaria de Educação do estado, que a escola tinha que fazer o seu
currículo e, em nome disso, se perdeu muito [tempo]. (Técnico: SEE/CE)
Em Pernambuco, já houve uma evolução com a Base Curricular Comum em
direção a uma especificação ainda mais detalhada dos conteúdos que os professores
precisam ensinar:
[...] nós já temos o que nós chamamos de OTMs que são as Orientações
Teórico Metodológicas, que é como se fosse o currículo nosso. [..] Da Base
Curricular Comum aperfeiçoou-se para as OTMs que é um pouco mais,
digamos assim, restrito né, talvez um pouco mais selecionado os
conteúdos. (Gestor/SEE-PE)
Na maioria dos casos, há indicações de que os currículos em construção nos
estados contam com a participação dos professores e refletem, portanto, um esforço
109
© 2011. Fundação Victor Civita. Todos os direitos reservados.
comum para estipular os objetivos do ensino. Essa construção coletiva cria a esperança
de uma implantação mais tranquila:
A Base Curricular comum, ela foi feita a partir de um trabalho coletivo. Um
trabalho contemplando as 17 Gerências Regionais de Educação, né? E esse
trabalho, obviamente não foi feito diretamente com todos os professores,
mas com uma boa amostra para que cada professor desses pudesse dar
sua contribuição. Muitas GREs conseguiram avançar. (Gestor/SEE-PE)
A implantação e adoção gradual dos currículos estaduais é um processo lento. O
domínio insuficiente dos conteúdos deixa os gestores frustrados e indicam problemas
de fundo em relação à formação inicial:
Eu diria que mesmo com o CBC ainda tem um bom espaço para andar [....]
principalmente porque o professor não sabe o CBC. Esse é o problema, ele
não sabe. (Especialista-MG)
Essas reflexões sobre a evolução das estratégias das Secretarias em direção a um
currículo de conteúdos básicos servem para indicar que há uma vertente da relação
entre avaliação e política de gestão que a presente pesquisa não teve condições de
aprofundar. Essa relação não é a do uso dos resultados do sistema de avaliação para
estabelecer os critérios para uma política de gestão. Em vez disso, ela reflete uma
interpretação da dificuldade em fazer uso mais produtivo dos resultados como
consequência da ausência de uma política curricular. Portanto, é mais a compreensão
da fragilidade da avaliação externa em servir de instrumento pedagógico do que da
sua utilidade. O movimento em direção ao currículo básico expressa a conclusão de
que, na ausência de um consenso compartilhado com os professores a respeito dos
conteúdos curriculares e de um alinhamento entre os objetivos do ensino, o currículo
da escola e as matrizes do sistema de avaliação, a contribuição deste para a melhoria
da qualidade será seriamente prejudicada.
Essa evolução na política dos estados pôde acontecer no contexto brasileiro pelo
fato de a avaliação educacional ter saído na frente e se estabelecido como um pilar da
política educacional sem uma evolução correspondente na especificação das
110
© 2011. Fundação Victor Civita. Todos os direitos reservados.
expectativas de aprendizagem para cada nível e conteúdo de ensino. Essa
correspondência é a que normalmente define a relação entre o currículo e a avaliação.
Na Inglaterra, por exemplo, a criação do primeiro sistema nacional de avaliação no
contexto da reforma educacional da década de 1980 aconteceu pari passu com a
definição do currículo nacional. Ou seja, o caminho do sistema de avaliação é aberto
geralmente pela implantação de objetivos de ensino que precisam ser monitorados. A
avaliação nessa conjuntura serve tanto para ajudar a implantar o novo currículo como
para medir o sucesso das escolas na sua execução.
Pela natureza federativa do sistema educacional brasileiro e a aparente
impossibilidade de um currículo nacional que vá além dos parâmetros filosóficos, o
Saeb foi criado com base em pesquisas que, na média, tentaram espelhar o currículo
real usado pelas escolas sem que ele fosse o oficial ou comum a todas as escolas.
Quando os estados começaram a adotar sistemas de avaliação modelados no Saeb,
eles também adotaram as mesmas matrizes e a mesma orientação no sentido da
especificação de objetivos em termos de competências de diferentes níveis de
sofisticação. Isso não significa que não haja um amplo grau de convergência entre as
matrizes do Saeb e aquelas produzidas pelos estados que já passaram pelo processo
de especificação do currículo básico. A diferença reside na explicitação e implantação
de um currículo que possa legitimamente servir de foco para todos os processos de
formação continuada, sobretudo quando expressado em termos de expectativas e
quando fruto de uma construção coletiva. Usar as matrizes definidas externamente
para essa finalidade não só restringe o currículo a um subconjunto daquilo que as
escolas deveriam ensinar como também obriga a utilização de uma linguagem de
especialistas que não é a dos livros didáticos e muito menos a das atividades que o
professor precisa desenvolver.
Uma pesquisa sobre essa vertente da relação entre a avaliação e a política
educacional mostraria provavelmente que, se não fosse pela dificuldade em comunicar
os resultados da avaliação aos professores, o progresso na definição dos currículos
estaduais teria sido menor. Mesmo atrasados, os currículos básicos dos estados e o
progresso na definição de expectativas de aprendizagem para as séries são avanços na
111
© 2011. Fundação Victor Civita. Todos os direitos reservados.
direção certa que em algum grau podem ser atribuídos ao fato de os sistemas de
avaliação terem saído na frente.
6.3
Para Informar ao Público
Com a crescente preocupação com os resultados fracos dos Estados Unidos na
década de 1980 em avaliações comparativas internacionais, tão habilmente explorados
pela Comissão Nacional sobre Excelência em Educação em seu relatório Uma Nação
em Risco, (THE NATIONAL COMMISSION ON EXCELLENCE IN EDUCATION, 1983), o
Programa Nacional de Avaliação do Progresso dos Alunos (Naep) decidiu ampliar sua
amostra e, na década de 1990, começou a publicar os resultados dos sistemas
educacionais estado por estado (GTEE/PREAL, 2010a). Aos poucos, os estados também
começaram a publicar seus resultados, dessa vez distrito por distrito e escola por
escola. Por trás dessa prática, encontrava-se a influência do economista Milton
Friedman e de outros economistas liberais, que contestavam o “monopólio natural” do
estado na oferta da Educação pública e procuravam estabelecer um mercado de livre
escolha com base na circulação irrestrita de informação sobre as escolas.
O
argumento desses teóricos é a favor da redução das funções do estado e da devolução
ao indivíduo do direito de escolha num mundo regido pelas regras do mercado livre. Se
há razões para os governos arcarem com os custos da Educação, inclusive dos que vão
além da fase obrigatória do ensino, esses teóricos não veem justificativa na
“estatização” da oferta. Ou seja, o fato de o estado subvencionar a Educação não
significa que tem que ser o estado que ofereça a Educação. Em vez disso, o estado
poderia dar bolsas ou vales-Educação aos pais, que poderiam gastá-los nas escolas que
achassem melhor. O papel do estado nesse caso se reduziria ao monitoramento dos
estabelecimentos educacionais não estatais para garantir um padrão satisfatório de
qualidade (FRIEDMAN, 1955).
Dentro desse mesmo raciocínio, seguido também pelo governo britânico a partir
da reforma de 1998 (BALL, 2008; RANSON, 2008), é indispensável tornar públicos os
resultados de cada escola por meio de alguma métrica que permita aos pais fazer uma
comparação entre as escolas. Se a essa divulgação de informação se acrescenta uma
112
© 2011. Fundação Victor Civita. Todos os direitos reservados.
delegação de poder de decisão aos pais a respeito de qual escola pública eles preferem
para seus filhos, cria-se o tipo de concorrência entre as instituições, necessária para o
funcionamento de um mercado educacional livre. Na prática, as restrições são
inúmeras e o mercado funciona de uma forma imperfeita e irregular, mas a divulgação
de informação mesmo em um quase-mercado continua sendo um elemento forte da
política de livre escolha da escola (school-choice).
Não foi nos Estados Unidos que a ideia do vale-Educação encontrou seu primeiro
teste, mas no Chile, durante o período da ditadura. Com a força de um regime
autoritário e de poderes extraordinários, a gestão de todas as escolas públicas foi
descentralizada para o nível municipal, os professores foram desfiliados do governo
central, foram introduzidos instrumentos de financiamento baseados na ideia da
subvenção, ou seja, a distribuição de verbas de acordo com o número de alunos
matriculados, e criaram-se os instrumentos e incentivos para os pais exercerem seu
direito de gastarem os vales-Educação nas escolas da sua escolha. Foi instituído o
Simce, o sistema nacional de avaliação educacional, e iniciado o processo de
publicação e divulgação dos resultados escola por escola. E, pela relação entre as
escolhas dos pais, a matrícula dos alunos e o sistema de financiamento per capita,
criou-se o primeiro exemplo de um sistema de divulgação high stakes na América
Latina.
A divulgação bianual dos resultados do Simce não sofreu nenhuma
descontinuidade com a volta da democracia. Pelo contrário, o sistema foi se
aperfeiçoando, como em outros lugares onde havia uma razão doutrinária para a
divulgação dos resultados escolares. O aperfeiçoamento principal foi a incorporação de
informação sobre o nível socioeconômico dos alunos para permitir a comparação de
escolas com características similares. Esse aperfeiçoamento também foi incorporado
pelas publicações de resultados escolares na Inglaterra a partir de 2002. Até esta data,
os resultados “brutos” publicados nesse país não sofriam nenhum ajuste e refletiam
muito mais o desempenho dos alunos do que o desempenho das escolas. Isso não
seria um problema não fosse pelas consequências para as escolas com resultados
aparentemente ruins que são taxadas de fracas e começam a perder alunos e
113
© 2011. Fundação Victor Civita. Todos os direitos reservados.
professores (TAYLOR; NGUYEN, 2006). Em reconhecimento aos problemas inerentes
ao uso de dados brutos, após dez anos da política de Tabelas de Desempenho de
Escolas, o governo britânico introduziu indicadores de valor agregado para todas as
escolas públicas. O indicador foi construído com base no cálculo do desempenho
esperado do aluno, levando em consideração seu desempenho na fase escolar
anterior. A diferença entre o desempenho esperado e o desempenho atingido é a
medida do valor agregado pela escola ou para mais ou para menos da média nacional.
Em 2010, com a ascensão de um governo conservador no Chile, houve um nítido
retrocesso na qualidade das informações prestadas naquele país. Segundo o Preal
(2010):
Os caminhos que os novos dirigentes da Educação estão tomando para
informar sobre os resultados das provas do Simce são contrários ao mais
elementar sentido comum em matéria de divulgação e uso de resultados e
jogam por terra 25 anos de trabalho durante os quais o Simce evoluiu e
melhorou significativamente. Retrocedem aos enfoques e erros próprios da
década de 1980, que há tempo foram deixados para trás tanto por países
como os Estados Unidos e o Reino Unido, como pela maior parte dos países
da região. (GTEE/PREAL, 2010b) (p. 1)
A razão da cólera do Preal se resume na atitude desavisada do Ministério de
disponibilizar as informações sobre as escolas em mapas virtuais na internet, em que
cada escola está sinalizada por um alfinete de cor verde, amarelo ou vermelho,
dependendo de se a média de proficiência da escola está acima, em torno ou abaixo
da média do país. Como dizem os autores, a entrega dos resultados brutos do Simce
sem fazer ajustes pelas origens socioeconômicas das famílias confunde os pais e
estigmatiza as escolas que atendem os alunos mais pobres. Ao suprimir as informações
de valor agregado, os alfinetes de cores acabam refletindo simplesmente a
composição social do alunado de cada escola. Como na Inglaterra, o problema não
seria tão sério caso não fosse pelo impacto das decisões dos pais sobre onde
matricular seus filhos e sobre o volume de recursos recebido pela escola de acordo
com o número de alunos matriculados (GTEE/PREAL, 2010b).
114
© 2011. Fundação Victor Civita. Todos os direitos reservados.
Felizmente, a história da comunicação dos resultados dos sistemas federais de
avaliação no Brasil segue outros caminhos. A lógica dessa comunicação é publicizar as
informações com o intuito de apoiar as instâncias subnacionais na sua tarefa
constitucional de prover a Educação. Seria impensável o Saeb ou a Prova Brasil sem um
processo amplo de divulgação ou com uma divulgação enviesada, visando influenciar a
opinião dos pais. Esses instrumentos foram construídos para um público externo ao
MEC que abrange todos os governos subnacionais, a comunidade educacional e toda a
população nacional que acompanha os assuntos da Educação.
Por muito tempo, a disseminação dos resultados dos sistemas estaduais seguia
outra lógica. Na sua maioria, esses sistemas eram vistos pelos seus criadores
exclusivamente como instrumentos internos de gestão, e não como uma oportunidade
para a prestação de contas a um público com direito a informações transparentes
sobre a qualidade da Educação. As políticas de divulgação se restringiam aos boletins
para os professores e a outros poucos documentos internos.
A falta de transparência pode refletir mais a atitude de autopreservação comum a
todos os setores governamentais do que uma característica própria das Secretarias de
Educação. Mesmo assim, é surpreendente a ausência de informações detalhadas sobre
os resultados das avaliações nos sites das Secretarias na internet. Em vez de acesso
irrestrito a todos os dados, desagregados por escola e agregados por rede, região,
município, nível e disciplina, o comum é um acesso liberado exclusivamente para as
escolas, com informações que permitem poucas comparações. Em nenhum lugar se
encontram as séries históricas do tipo publicado nos relatórios do Saeb para permitir
que a população faça suas próprias análises das tendências mostradas pelos sistemas
estaduais.
Uma das possíveis razões pela falta de informação nos sites das Secretarias tem a
ver com a relação terceirizada entre o órgão público e a agência responsável pela
avaliação. No Brasil, são quatro ou cinco as principais agências e empresas que
oferecem o serviço de produção, aplicação e análise dos testes previstos pela
legislação estadual que institui os sistemas de avaliação. De longe a maior dessas
agências, o Centro de Políticas Públicas e Avaliação da Educação – CAEd, ligado à
115
© 2011. Fundação Victor Civita. Todos os direitos reservados.
Universidade Federal de Juiz de Fora, oferece alguma informação no seu próprio site
sobre as avaliações realizadas. A impressão, no entanto, é que essa atividade de
divulgação ocupa um lugar secundário para o CAEd, mesmo nos casos em que há o
pedido explícito da Secretaria da Educação. Se as próprias Secretarias fossem as
responsáveis diretas pela análise dos resultados e pela produção dos diversos textos
que são distribuídos para as escolas, é provável que houvesse uma melhora na
qualidade e diversidade das informações nos seus sites.
As exceções que começam a aparecer, juntamente com o foco nos resultados
cada vez mais explícito, incluem os estados de São Paulo e Minas Gerais. No caso de
São Paulo, encontram-se os dados do Saresp de 2007 a 2010 no site da Secretaria, com
os documentos legais, os questionários aplicados à equipe escolar e a descrição das
matrizes de referência. Os resultados são apresentados ano a ano por rede, nível,
disciplina, coordenadoria da capital e interior e também de acordo com os diferentes
níveis de desempenho, para ver a distribuição dos alunos em termos das competências
adquiridas. Mesmo na ausência de gráficos e tabelas para facilitar o processo de
comparação, os interessados podem encontrar todas as informações básicas, incluindo
cópia dos boletins remetidos para as escolas. No caso de Minas Gerais, são oferecidas
informações completas sobre os últimos três anos de aplicação das provas do Proeb,
juntamente com a matriz curricular, o boletim pedagógico e a “revista contextual”,
como é chamado o documento contendo dados sobre o nível socioeconômico da
escola e seu grau de eficácia. Não são mostrados nenhuma média por ano, disciplina,
SRE ou qualquer outro parâmetro de agregação. Como no caso do Rio Grande do Sul e
outros estados, a divulgação via site se dirige à escola e pressupõe que o único
interesse dela seja ver seus próprios resultados, isolados de quaisquer comparações.
Outra Secretaria que leva a sério sua obrigação de comunicar os resultados da
avaliação é a do Distrito Federal. Nesse caso, a obrigação se deriva das próprias
diretrizes do Sistema de Avaliação do Desempenho das Instituições Educacionais do
Sistema de Ensino do Distrito Federal – Siade, que estipulam a divulgação dos
resultados à comunidade escolar e à sociedade civil, conforme o Sumário Executivo do
Siade 2009 (SEE/DF, 2010).
No site da Secretaria, encontram-se disponíveis para
116
© 2011. Fundação Victor Civita. Todos os direitos reservados.
download a Matriz de Referência para Avaliação, os Relatórios Pedagógicos Siade 2009
e um conjunto de apresentações para ajudar na utilização dos instrumentos de
avaliação e a interpretação dos resultados. Pelo fato de a Secretaria de Educação do
DF ter expandido seu sistema de avaliação para incluir a si mesma, do ponto de vista
tanto das suas políticas como da oferta da Educação, encontram-se entre os diversos
documentos a Síntese da Análise dos Indicadores de Políticas Públicas e a Síntese da
Análise dos Indicadores de Gestão. Chamam a atenção os dois documentos por
conterem os checklists de todos os indicadores usados na avaliação da atuação do
governo na condução de suas políticas e na gestão do sistema. Ainda mais
surpreendentes são as versões impressas de todos os diferentes documentos
encontrados no site, produzidas com capricho para a distribuição pública.
No caso do Rio de Janeiro, por outro lado, as informações são escassas. Os
resultados das últimas duas avaliações do Saerj estão organizados ou por lista de
escolas, com uma indicação da média por disciplina e sua classificação como baixo,
intermediário ou adequado, ou por lista de alunos, devido à importância recente do
ranqueamento do aluno com base na premiação com notebooks dos alunos que
atingem os níveis mais altos em português e matemática. Não se encontram as médias
por nível e disciplina e muito menos as comparações entre os anos.
Os sites visitados também não oferecem nenhum ranqueamento das escolas.
Apesar de termos localizado esse tipo de informação nos jornais do Rio Grande do Sul,
Minas Gerais e no Distrito Federal, a fonte das matérias não foram as Secretarias de
Educação. Dentro das Secretarias, existe a convicção que a divulgação não deve
permitir a comparação entre as escolas, como nos informou um gestor no Espírito
Santo:
Os educadores aqui não concordam com o ranking, acham que o ranking
não deve existir que isso em vez de estimular cria uma competitividade
desnecessária, tira a questão de unidade de rede, fragiliza a escola mais do
que estimula. É uma cultura brasileira mesmo. (Gestora; SEE/ES)
117
© 2011. Fundação Victor Civita. Todos os direitos reservados.
Às vezes, as informações fornecidas ficam até incompletas justamente para
prevenir qualquer risco desse tipo de comparação. A imprensa, no entanto, tem outras
ideias:
A imprensa tem liberdade. A gente não tem esse controle de dizer, divulgue
dessa ou daquela maneira, né? Você informa, passa uma lista, uma
planilha com todos os resultados e eles ordenam em ordem decrescente, do
maior para o menor, né? Acaba naturalmente virando um ranking, mesmo
que a intenção não seja essa. (Técnico: SEE/DF)
Em Pernambuco, a imprensa mostra o mesmo interesse que em outros lugares:
Quando a gente chama a coletiva da imprensa pra dar o resultado, a
primeira coisa que eles querem é um ranking. [...] na primeira vez que saiu
o Idepe, sem querer [o Secretário] deu o ranking e quase morreu todo
mundo. Então a gente segura isso como se fosse um tesouro, a gente não
libera. Se a imprensa quiser entrar e pegar é responsabilidade dela, nós não
damos ranking de forma nenhuma. [...] E isso deu tranquilidade às escolas
porque o diretor ele não entra em sofrimento. Se eu tenho uma escola que
está numa situação de alta vulnerabilidade social, uma escola em que o
diretor assumiu recentemente, uma escola em que o resultado é muito ruim
e de repente você compara ela com outra escola que o diretor está lá a 8,
10 anos, é injusto. (Gestor: SEE/PE)
Não há dúvida de que na ausência de informações que permitam controlar a
influencia do nível socioeconômico dos alunos e outros fatores externos à escola, a
comparação de escolas com base nos dados brutos dos sistemas estaduais não é
recomendável. Pela impossibilidade de identificar claramente a contribuição da escola
no resultado geral dos alunos, a comparação de dados brutos pode levar a conclusões
errôneas tanto no sentido de atribuir qualidade maior a escolas com alunos de nível
socioeconômico mais alto como no sentido de achar de pior qualidade escolas com
alunos mais pobres. Perante esse risco, e o possível constrangimento das escolas, as
118
© 2011. Fundação Victor Civita. Todos os direitos reservados.
Secretarias fazem bem em não permitir a divulgação de informações que possam
facilitar o ranqueamento de escolas.
A única exceção que encontramos a essa regra geral foram os Relatórios de
Desempenho Geral da Rede Estadual de Ensino produzidos pela Secretaria de
Educação de Mato Grosso do Sul. Nesses relatórios, sobre os resultados dos alunos no
Saems em língua portuguesa, produção de texto e matemática em 2009, encontram-se
ranqueados escolas e municípios, abrindo os flancos para as mesmas comparações
enganosas ocorridas no Chile. Não se sabe se os relatórios foram produzidos para
circulação interna ou não, mas, ao apresentar como um dos objetivos oficiais da
avaliação “fornecer informações às escolas da rede estadual e à sociedade sul-matogrossense sobre o desempenho dos alunos e os fatores que interferem na
aprendizagem”, essa Secretaria mostra que gostaria que os pais se familiarizassem
com os resultados das avaliações. No entanto, como a divulgação dos boletins
pedagógicos atinge somente os diretores das escolas e não há política explícita de
disseminação externa, deve-se supor que os ranqueamentos não faziam parte de uma
estratégia premeditada de divulgação de comparações junto à comunidade.
O único caso documentado de um canal oficial de comunicação com os pais dos
alunos mediante a produção de um informativo contendo os resultados da escola é o
caso do Boletim de Escolas da Secretaria de Educação do Paraná, descrito por Ayres
(2003). Criado como parte de uma estratégia para fomentar um mínimo de
responsabilização para as escolas e dar poder aos pais para demandar resultados, o
Boletim também tinha o propósito menos divulgado de fortalecer as associações de
pais e contrabalancear o poder do sindicato de professores, que na época estava em
desavença com o governo do estado. A teoria por trás dessa estratégia parece ser a de
que as escolas se sentiriam mais pressionadas em demonstrar bons resultados se os
pais estivessem mais bem informados a respeito da sua escola em comparação com as
outras.
Distribuído a todos os pais e membros da equipe escolar, o boletim era organizado
em um informativo de quatro páginas que continha três blocos de informação. O
primeiro trazia os resultados do programa de avaliação estadual de 2000 com a média
119
© 2011. Fundação Victor Civita. Todos os direitos reservados.
das notas dos alunos de 4ª e 8ª série em português e matemática da escola, do
município e do estado, classificados de acordo com quatro níveis de desempenho. Em
2002, o Boletim da Escola adicionou um indicador que informava se a escola tinha
atingido ou não o nível de desempenho “esperado” para ela, levando em consideração
a condição socioeconômica média dos alunos de cada série. O segundo bloco de
informações continha dados do censo escolar oficial, incluindo taxas de aprovação,
reprovação e evasão, com comparações com as médias municipais e estaduais, mas
sem nenhuma comparação com outras escolas específicas. O terceiro bloco
apresentava afirmações subjetivas em relação à escola, retiradas dos questionários
aplicados a alunos, diretores e pais (AYRES, 2003).
Com a mudança da administração estadual em 2003 e a nomeação de um
Secretário da Educação com fortes laços com os sindicatos dos professores, o sistema
de boletins foi abandonado. As dificuldades em treinar os pais na interpretação e no
uso do boletim, a falta de comunicação real entre pais e professores e a falta de
confiança geral dos professores e diretores com relação ao propósito do Boletim
levaram ao seu abandono precoce. O fracasso do Boletim da Escola do Paraná mostra
que uma estratégia de divulgação aparentemente low stakes e sem consequências
para os professores pode criar desconfianças e ser combatida se não implementada de
forma adequada. Pode-se supor que se o Boletim tivesse usado uma estratégia high
stakes, incorporando comparações entre as escolas e atribuindo alguma consequência
aos indicadores empregados, a sua vida teria sido ainda mais curta.
Outra modalidade de divulgação diz respeito ao uso dos resultados das avaliações
como um elemento de propaganda política. Foram encontradas peças dessa natureza
em Minas Gerais, onde, no período anterior às eleições estaduais de 2010, foram
distribuídos documentos pdf contendo informações positivas sobre os avanços da
Educação no estado. Um desses documentos, intitulado Choque de Gestão e
Educação, se dedica a mostrar os avanços da Educação como consequência do novo
modelo de gestão pública. Ao falar dos avanços, dá-se destaque ao aumento de 48,6
para 72,6% na proporção de alunos com nível recomendado em leitura e escrita entre
2006 e 2009, sendo essas informações derivadas dos testes Proalfa do sistema
120
© 2011. Fundação Victor Civita. Todos os direitos reservados.
estadual de avaliação. Em outro documento, de julho 2010, a Secretaria procura
mostrar a situação excepcional do Ideb de Minas Gerais, em comparação com os
outros estados. Dados mostravam que nas series iniciais em 2009, 94,8% das escolas já
alcançaram a meta do Ideb para 2011, que Minas passou do 3º lugar para 1º lugar em
português e matemática, que das 149 escolas do país com Ideb ≥ 7, 73,2% estavam em
Minas Gerais, que das 500 escolas com o Ideb mais alto, 63,6% estavam em Minas
Gerais, e assim por diante.
Essas peças de divulgação chamam a atenção justamente por serem tão incomuns.
Enquanto as notícias sobre a Educação eram sempre tão infelizes e os resultados dos
sistemas de avaliação tidos como ruins, não havia o que celebrar. Os governantes que
cumpriam seu papel de dar ao público o conhecimento dos resultados das avaliações o
faziam mais por obrigação do que por querer a publicidade. Além do mais, na ausência
de uma relação entre a política educacional e a popularidade do governo, não havia
razão para o governante se expor. A divulgação dos resultados das avaliações não era
uma prática calculada para ganhar votos.
A mudança desse cenário está associada à consolidação de instrumentos de
avaliação que permitem fazer comparações – ao longo dos anos e entre os estados – e
à criação de políticas educacionais voltadas para os resultados que pelo menos em
alguns estados parecem estar produzindo efeito. Nesses lugares, começam a surgir
melhorias que podem ser atribuídas à qualidade da gestão pública e também sinais de
que a população está pronta para priorizar a qualidade da Educação e disposta a
premiar os governantes que mostram avanços nessa direção. No Ceará, o sucesso da
política educacional do município de Sobral, disseminado por meio de todos os meios
de comunicação, contribuiu para a eleição do governador e continua fazendo escola.8
Nesse estado, o governador procura fazer um evento político da entrega dos prêmios
dos sistemas estaduais de incentivos:
8
No município de Sobral, houve 34,7% de aumento no Ideb nas séries iniciais entre 2007 e 2009.
121
© 2011. Fundação Victor Civita. Todos os direitos reservados.
O que ganha mais visibilidade hoje é o prêmio Escola Nota 10. Tanto que na
solenidade de entrega o ministro veio. Aquela coisa. Foi feita com todos os
prefeitos presentes, os secretários municipais. Ele ganhou uma dimensão
em termos de ser algo pomposo para a escola que ganhasse, o município
ter uma escola que ganhasse. Na primeira edição foi no centro de
convenção do estado que vieram todos os prefeitos e realmente foi um
evento. Tem sido feito assim com uma grande solenidade para a concessão
desse prêmio. Nas edições anteriores era algo muito limitado. No governo
Lúcio, por exemplo, o prêmio de Escola Destaque no máximo eram
convidados diretores das escolas dos estados. (Técnico: SEE/CE)
O comportamento do governador pode ser atribuído ao desejo de dar prestigio à
política educacional e angariar apoios entre os municípios para os esforços da
Secretaria de Educação. O evento pomposo da Escola Nota 10 seria, então, uma
estratégia de mobilização para entusiasmar os dirigentes e provocar melhorias nos
resultados dos municípios. Por outro lado, pode também ser um evento com fins
políticos de caráter eleitoral. De qualquer forma, o cálculo é que o assunto da
premiação renderá frutos tanto para o estado como para os municípios se houver uma
melhoria nos resultados das escolas. A fala do técnico da SEE sugere que a estratégia
de dar destaque aos resultados está dando certo:
Quando a gente fez a escala do Saeb a gente transformou aqueles
intervalos e pintou os intervalos, atribuiu cores aos intervalos. A cor salmão
é um nível intermediário. Tem prefeito que até diz assim: "Eu não quero
mais o verde ruim, eu quero o verde bom". Por que na escala tem o
dégradé de verde. O suficiente é um verdinho claro e o desejável ou
adequado seria o verde escuro. Então o prefeito já dizia, eu não quero o
verde ruim eu quero o verde bom. Então assim, isso já mostra que mesmo
aquelas pessoas que não são da área da Educação, leigos, um prefeito que
não tem uma facilidade muito boa pra entender os indicadores. (Técnico:
SEE/CE)
122
© 2011. Fundação Victor Civita. Todos os direitos reservados.
A conclusão a que se chega é que a avaliação educacional faz parte de um
movimento que, ao promover a melhoria dos resultados da escola, está propiciando
ganhos políticos pelos gestores dos sistemas de Educação. Nesse cenário, é a avaliação
que fornece as informações sobre os avanços do sistema que ao serem divulgadas
angariam os apoios desejados, tanto em termos de colaboração como em termos
eleitorais. Se a Educação nos estados continuar a melhorar e se o interesse da
população no assunto da qualidade da Educação continuar a crescer, pode-se esperar
um volume cada vez maior de informação nos sites das secretarias, em inserções na
televisão e em publicações de diversos tipos. Não há duvida de que a circulação de
maiores informações e a divulgação de resultados educacionais com propósitos
políticos trarão benefícios para a qualidade da Educação pública.
Mesmo não havendo nenhuma intenção de implantar políticas de “escolha de
escolas”, a divulgação de informações de valor agregado por escola aumentaria
significativamente o interesse da população e introduziria um elemento de
responsabilização, mesmo low stakes, ao processo de publicização dos resultados. A
questão é se isso traria alguma vantagem para a rede em termos de melhorias ou se
simplesmente abriria uma área de conflito com as escolas. As experiências de outros
países não fornecem as respostas pelo fato de esse tipo de divulgação estar sempre
associada a políticas de responsabilização high stakes que confundem as evidências
sobre o impacto. Mesmo assim, é possível imaginar a retomada de políticas de Boletim
Escolar, como no Paraná, para efeitos de divulgação de informações de valor agregado
visando o engajamento da comunidade sem que haja a mesma reação por parte dos
professores.
6.4
Para a Alocação de Recursos
O exemplo mais difundido, e aquele que mais resume o espírito e a técnica da
gestão de recursos educacionais com base em informações do desempenho das
escolas, é o chileno. O Programa das 900 Escolas (P-900) foi formulado como uma
política de melhoramento com base nos resultados do Sistema Nacional de Medição
123
© 2011. Fundação Victor Civita. Todos os direitos reservados.
da Qualidade da Educação (Simce) em março de 1990, na volta da democracia chilena
após 17 anos de ditadura, e até poucos anos atrás ainda orientava atividades e
recursos do Ministério da Educação desse país (GARCIA-HUIDOBRO, 2006).
O programa P-900 foi criado para melhorar a aprendizagem de alunos de escolas
de ensino fundamental das regiões rurais e urbanas mais pobres do país. As 900
escolas da primeira fase do programa representavam 10% de escolas com os piores
resultados no Simce, que desde 1988 vem fazendo levantamentos a cada dois anos do
desempenho escolar em matemática e língua espanhola de alunos de 4ª e 8ª séries do
Ensino Fundamental. O objetivo do P-900 foi melhorar a aprendizagem de alunos de 1ª
a 4ª séries em leitura, escrita e matemática e para tanto foram desenvolvidas
numerosas ações com as crianças e seus professores. A lógica subjacente foi a de que,
para atingir uma qualidade mínima em todas as escolas, havia a necessidade de
distribuir os recursos entre elas de forma desigual, num movimento que pode se
chamar de discriminação positiva.
Na medida em que as escolas foram alcançando a média de desempenho para
sua região, foram sendo substituídas por outras de “alto risco”, de modo que, até o
ano 2000, o programa conseguiu atender o total de 2.500 escolas. Mesmo as escolas
que não alcançavam as médias regionais, e que continuavam entre as atendidas,
registraram a melhora de 18,5 pontos em média, mais que o dobro das escolas não
atendidas (GARCIA-HUIDOBRO, 2006). Das escolas atendidas pelo P-900, a metade
delas foi de áreas rurais, mas, nesse mesmo período, 75% dos alunos atendidos foram
urbanos. Em 1997, o programa se expandiu para atender a pré-escola e as 5ª a 8ª
séries. Isso representou o incremento de mais de 117% no número de alunos, que
aumentou de 140 mil para 305 mil, e também de docentes, que aumentou de 5 mil
para 11 mil. Para os padrões brasileiros, esses números podem não parecer tão
significativos, mas no contexto chileno representavam aproximadamente 10% de todo
o sistema público de ensino do país. Os resultados da avaliação realizada em 2000
mostraram que o programa P-900 contribuiu para a equidade do sistema, na medida
em que os alunos de 4ª série das escolas atendidas aumentaram seu desempenho
mais do que o das não atendidas (SANTIAGO CONSULTORES Y ASESORÍAS PARA EL
124
© 2011. Fundação Victor Civita. Todos os direitos reservados.
DESARROLLO, 2000). O impacto do programa foi maior no seu período inicial, entre
1990 e 1992 e, de novo, entre 1996 e 1999, conseguindo diferenças entre as escolas
do programa e as outras escolas do sistema superiores a 3 pontos numa escala
parecida com a do Saeb. No período intermediário, as diferenças diminuíram devido
ao apoio dado pelo Ministério a outras escolas do país por meio das numerosas ações
do Programa de Melhoramento da Qualidade e Equidade da Educação Básica, também
distribuídas de acordo com o rendimento das escolas no Simce.
Um novo programa, chamado Mejor Escuela, que atende escolas com baixo
rendimento instaladas em regiões de vulnerabilidade social, recupera alguns dos
critérios do P-900. O foco do novo programa gira em torno do cumprimento dos
objetivos previstos pelo currículo nacional do Chile e oferece materiais pedagógicos
aos professores e treinamento no uso de métodos práticos apropriados às clientelas
atendidas. Resultados do Simce mostram o sucesso da estratégia com aumentos de 6
pontos em língua e 8 em matemática após quatro anos (O Estado de S.Paulo,
4/4/2011).
No principio da década passada, o México estabeleceu outro exemplo de um
programa de melhoramento em escolas urbanas de populações de baixa renda
escolhidas com base nos seus contextos sociais e nos resultados no Sistema Nacional
de Evaluación de la Educación – SNEE (FERRER, 2006). Chamadas de Escuelas de
Calidad, foram incorporadas mais de 35 mil até o final de 2005. Segundo relato de
pesquisadores brasileiros, o Programa de Escuelas de Calidad – PEC segue a mesma
lógica que o programa dos P-900 ao procurar promover igualdade de qualidade e de
oportunidades educacionais para todos os educandos, independente de sua
capacidade, origem social, etnia e ambiente familiar, mediante um processo de
discriminação positiva a favor dos mais necessitados (DOS SANTOS; DE AVILA; SILVA,
2010). O mesmo SNEE que foi usado para a identificação das escolas também é usado
a cada dois anos para fazer uma avaliação detalhada dos avanços das escolas PEC.
O Plano de Ações Articuladas implantado pelo MEC em 2007 contemplava
originalmente os municípios considerados prioritários em função do Ideb alcançado
em 2005 e por esse motivo se classifica aqui como política de alocação de recursos
125
© 2011. Fundação Victor Civita. Todos os direitos reservados.
federais com base em resultados da avaliação externa. Com a extensão do plano para
todos os municípios, a política adquiriu conotações de accountability. Pelo menos, é
nessa luz que Adrião e Garcia (2008) analisam os objetivos e métodos do Ministério.
Composto de programas e ações com o objetivo declarado de promover a melhoria da
qualidade da Educação básica brasileira, o plano é operacionalizado por meio de
convênios entre os municípios e a União e da elaboração local de um PAR:
Por esse instrumento, os gestores municipais se comprometem a promover
um conjunto de ações no campo educacional, responsabilizando-se pelo
alcance das metas estabelecidas pelo âmbito federal. Em contrapartida,
passam a contar com transferências voluntárias e assessoria técnica da
União. (ADRIÃO; GARCIA, 2008) (p. 779)
A existência de um documento legal que estabelece um acordo público na forma
de metas implica, necessariamente, algum grau de responsabilização subjetiva.
Dependendo da mobilização da população, o não-cumprimento das metas acordadas
possa trazer um custo político para os gestores municipais. Resta saber se o MEC se
interessa por condicionar a continuidade do financiamento ao cumprimento das metas
e dessa forma elevar conscientemente os stakes dessa responsabilização.
Apesar de incipiente no Brasil, o uso das informações sobre o desempenho escolar
para a definição de políticas de alocação de recursos deve estar bastante difundido.
Essa impressão se deriva da existência em quase todos os estados visitados de
exemplos de políticas de pequeno e de grande porte para a distribuição de materiais,
treinamentos e outros recursos físicos e financeiros com base em critérios que levam
em consideração o desempenho da escola ou da sua região no sistema de avaliação.
No caso de políticas compensatórias ou de discriminação positiva, definidas para
favorecer escolas com desempenho menor, podem ser citados o projeto Aprender
Mais, da Secretaria de Educação de Pernambuco, que garante reforço escolar em
português e matemática dado por 3.275 professores temporários para todos os
estudantes de 4ª e 8ª séries e 3ª série do Ensino Médio, um ”kit boletim” e cursos para
as escolas que não atingem as metas do Idepe; uma política veiculada pela Secretaria
126
© 2011. Fundação Victor Civita. Todos os direitos reservados.
de Educação do Rio Grande do Sul em 2010 para a identificação de escolas com
resultados “insuficientes” para receber apoio do poder público e replanejamento de
sua gestão e ação pedagógica; uma distribuição de recursos e ações pela Secretaria de
Educação de Minas Gerais para favorecer as escolas da região Grande Norte do estado,
identificada como detentora dos piores resultados no Simave; e outra política de
Pernambuco chamada Certificação de Padrões Base. Nesse caso, trata-se de um
processo de implantação e manutenção de um padrão físico de funcionamento das
221 escolas com o pior resultado no Idepe de 5ª a 8ª série. Com dinheiro do Banco
Mundial e por meio da gerência geral de engenharia da própria Secretaria, propõe-se
que as escolas atinjam um padrão de ventilação, iluminação, salas, carteiras, material
etc. e recebam os recursos e o apoio para a manutenção desse padrão.
Há também políticas que favorecem escolas ou regiões com base na lógica
contrária. Nesses casos, os beneficiários são escolas ou regiões com os melhores
resultados. A lei 14023/07 do Ceará, que distribui a cota estadual do ICMS para os
municípios de acordo com os resultados do Spaece, seria um exemplo. Nesse caso, foi
criado o Índice Municipal de Qualidade Educacional com base nos resultados de
português e matemática do 2º e do 5º ano do Ensino Fundamental e todo ano o
governo calcula o repasse de ICMS aos municípios de acordo com os critérios
estipulados no Decreto 29.306, de 5 de junho de 2008. Nessa legislação, em nome de
“uma gestão publica por resultados”, se estabelece que 18 dos 25% da arrecadação do
ICMS será distribuída “em função do Índice Municipal de Qualidade Educacional de
cada município, formado pela taxa de aprovação dos alunos do 1º ao 5º ano do ensino
fundamental e pela média obtida pelos alunos de 2º e 5º ano da rede municipal em
avaliações de aprendizagem” (Art. 1º, Parágrafo Único, II).
Pelo componente de responsabilização inerente à distribuição de recursos com
base no desempenho, as consequências dessa legislação têm sido a mobilização dos
prefeitos e uma concorrência para melhorar os resultados nos municípios:
Veja bem, o prefeito que nunca ligava para a Educação hoje ele está louco
aqui ligando pra gente o tempo todo, por quê? Por que tem o ICMS
atrelado ao resultado do 2º e 5º ano também. (Técnica: SEE/CE)
127
© 2011. Fundação Victor Civita. Todos os direitos reservados.
Outra consequência, menos interessante, tem sido a perda de receita da capital
por causa das características da população, que confirma que a distribuição da receita
do ICMS com base em um critério aparentemente meritocrático é um jogo de soma
zero:
...a gente viu agora em Fortaleza como tem perdido mais com isso por que
Fortaleza tem as adversidades maiores [...] é mais difícil colocar os meninos
nessa mobilização. No interior os prefeitos conseguem que os meninos
tenham participação de 100%, ou seja, não falta nenhuma na prova.
(Técnica: SEE/CE)
Mesmo com as dificuldades provocadas pela perda de receita de alguns
municípios, a política começa a fazer escola e em Pernambuco o governo já distribui
3% da receita do ICMS dos municípios com base em critérios parecidos.
O governador está tão fortemente motivado a isso que ele aprovou em
2008 o “ICMS Educação” em que 3% (dos 25%) são destinados aos
municípios com o melhor resultado no Idepe. Isso está fazendo com que os
municípios solicitem [..] que nós também calculemos o Idepe para eles. [...]
E uma das preocupações tanto dos prefeitos quando do governador agora,
é dar apoio aos municípios para que não haja muita distância entre o que a
Educação estadual está fazendo e está conseguindo de resultado, com
relação ao resultado do município.
Mais comum em se tratando da alocação de recursos de acordo com os resultados
são os prêmios pagos diretamente às escolas em reconhecimento aos resultados
alcançados nas avaliações estaduais. Um exemplo seria o Prêmio Escola de Valor,
criado pelo governo do Amazonas, para “estimular a obtenção de melhores índices
educacionais”. Anualmente são oferecidos prêmios de 30 mil reais a cada uma das
escolas que obtiverem os melhores índices no Ideb. O valor precisa ser empregado em
benefício da comunidade escolar e administrado pelas Associações de Pais, Mestres e
Comunidade. No primeiro ano de aplicação, 39 escolas foram premiadas e, no segundo
ano, 180. Segundo o site da Secretaria de Educação, o prêmio já ajudou a modificar a
128
© 2011. Fundação Victor Civita. Todos os direitos reservados.
realidade dessas escolas. Conforme as regras, foram aplicados 40% para a melhoria da
estrutura física, 40% para a compra de materiais pedagógicos e equipamentos
tecnológicos e 20% para a realização de eventos educacionais.
A política do Amazonas sofre do defeito de premiar as escolas que precisam
menos de recursos adicionais. Mesmo havendo alguma vantagem em oferecer um
prêmio, em termos de possíveis ganhos na produtividade da escola pelo efeito do
incentivo de obterem recursos adicionais para a caixa escolar, é provável que as
necessidades das escolas com desempenho menor sejam mais prementes. Ou seja, a
política de premiar as escolas melhores colide com os critérios de equidade que
recomendariam uma política compensatória para diminuir as diferenças existentes, e
não aumentá-las.
Existem exemplos de políticas que fazem as duas coisas simultaneamente. Mais
complexas, e potencialmente mais eficazes, essas políticas partem da premissa de que,
além de merecerem seus prêmios, as escolas mais bem colocadas nas avaliações
também têm alguma coisa a oferecer às escolas com o desempenho mais fraco. O que
essas políticas promovem, portanto, é uma relação de assistência técnica entre as
escolas premiadas e as escolas adotadas. Essa combinação dá um novo significado à
responsabilização. Além de serem responsabilizadas pelos seus próprios resultados, as
escolas premiadas também assumem uma nova responsabilidade para com as escolas
adotadas ou apoiadas.
O município de Rio de Janeiro abraçou uma política desse gênero ao definir em
2010 que as 25 melhores escolas de cada ano da Prova Rio, avaliação externa daquela
cidade, vão apadrinhar as 25 piores escolas, “dando orientações e mostrando algumas
estratégias que deram certo em suas unidades”. No entanto, a versão mais completa
dessa política de apadrinhamento foi lançada no Ceará em 2009 pela Lei 14.371, de 19
de junho 2009, que se chama Prêmio Escola Nota 10. Nesse caso, os critérios para a
seleção das escolas premiadas são de que tenham média no IDE-Alfa entre 8,5 e 10,
percentual de participação nas provas de Spaece de 85% e pelo menos 20 alunos de
ensino fundamental na época da avaliação. As escolas que atendem a essas condições
têm o direito de receber R$ 2.500,00 por aluno matriculado no 2º ano do Ensino
129
© 2011. Fundação Victor Civita. Todos os direitos reservados.
Fundamental. A contrapartida é a adoção de uma das escolas que obtiveram os
menores resultados no IDE-Alfa. A partir da sua adoção, essas escolas recebem uma
contribuição financeira do estado no valor de R$ 1.250,00 por aluno avaliado e ações
de cooperação técnico-pedagógica, vindas das escolas premiadas. Fazem parte dessas
ações a elaboração dos planos escolares e viagens de articulação e apoio entre as
escolas. Os recursos financeiros concedidos às escolas apoiadas são utilizados apenas
para a melhoria das condições escolares e dos resultados da aprendizagem dos alunos.
Isso significa que as melhorias podem ser na forma de investimentos na formação dos
professores, aulas de reforço escolar, aquisição de materiais didático-pedagógicos,
equipamentos eletrônicos e mobílias e melhorias estruturais, como construções de
espaços, reformas e adequação de áreas. Cabe esclarecer que a política visa
principalmente as escolas municipais devido ao processo acelerado de municipalização
do ensino fundamental empreendido pelo governo estadual a partir do final da década
de 1990, que deixou nas mãos do estado menos de 8% da matrícula nesse nível de
ensino.
Em 2009, com base nos resultados do Spaece de 2008, foi beneficiado o total de
300 escolas entre premiadas e adotadas. No ano seguinte, na Solenidade da 2ª Edição
da Entrega do Prêmio Escola Nota 10, realizada no Centro Administrativo com a
presença do ministro da Educação e da maioria dos prefeitos, foram beneficiadas mais
300 escolas com os mesmos valores que no ano anterior. Na mesma ocasião, também
foram agraciados com troféu os prefeitos de 83 municípios, entre os 184 municípios
cearenses que atingiram o Nível Desejado, com a média de 150 pontos ou mais na
prova Spaece-Alfa. Pelo menos na opinião dos governantes, o simbolismo do prêmio,
carregado do prestígio de um evento que conta com a presença do ministro, tem valor,
na política do estado, de concentrar as atenções nos resultados dos alunos.
A premiação recebida pela Escola Nota 10 é dividida em duas parcelas. Para
receber a segunda, a escola precisa manter sua própria média na avaliação seguinte e
a escola assistida mostrar que houve avanço no desempenho ao ponto de alcançar a
nota 5 no IDE-Alfa. Esse critério é para garantir que haja de fato uma relação de apoio
entre as duas escolas. Outra questão de importância diz respeito ao processo de
130
© 2011. Fundação Victor Civita. Todos os direitos reservados.
escolha das escolas adotadas e os usos do dinheiro. Na opinião de um gestor, é
importante obrigar a escola premiada a se relacionar com escolas distantes e não se
acomodar com escolas mais próximas. Na opinião de um técnico, a política melhoraria
se a premiação fosse menor, porém estendida a um número maior de escolas.
Outra questão é a confiabilidade das avaliações para operar um sistema de
premiação com base em uma única medida. Com informações fornecidas por um
técnico, descobriu-se que muitas escolas podem mudar de categoria entre associadas
e premiadas de um ano para outro, o que levanta a suspeita de que a categorização
deixa a desejar ou que a margem de erro é grande. Uma escola que passa das piores
para as melhores em período tão curto desafia a própria lógica dos sistemas de apoio :
O efeito prêmio ele foi muito mais forte no grupo das 148 escolas que
foram apoiadas. Então a gente percebeu uma evolução muito maior das
escolas que estavam num nível baixo e passaram para o alto. Ao todo, das
148 foram 107 escolas que receberam a segunda parcela. Então foi um
número altíssimo das escolas que conseguiram crescer e atingir a meta 5. E
tivemos 8 que saíram do status de apoiada de 2009 e em 2010 foram
premiadas e estão entre as 150 melhores do estado. Elas operaram uma
grande mudança. (Técnico: SEE/CE)
Mesmo não tendo sido criado como uma política de incentivo ou premiação, o
projeto de Escolas Referência de Minas Gerais se situa nessa categoria do sistema
classificatório por promover investimentos de diversos tipos nas escolas beneficiadas e
também por obrigar que elas adotem outras escolas de desempenho mais fraco. Um
dos programas estruturantes da política educacional de Minas Gerais (PEREIRA, 2009),
o Projeto Escolas-Referência busca a reconstrução da excelência na rede pública e a
superação do fracasso escolar por meio de uma Educação de qualidade. Iniciado em
2004, com a seleção de 223 escolas pela sua tradição, número de alunos nos ensinos
Fundamental e Médio e resultados positivos no Simave, o projeto visa tornar as
escolas escolhidas focos irradiadores de Educação de qualidade no estado.
131
© 2011. Fundação Victor Civita. Todos os direitos reservados.
Apesar da expansão do projeto para o total de 581 escolas com base nos
resultados do Proeb, ainda não existem avaliações mais detalhadas desse modelo de
gestão. O que se encontram são dissertações e outros estudos que focam aspectos da
estratégia, como o instrumento utilizado na formação continuada dos professores, o
PDP (FIGUEIREDO, 2007), o sistema de planejamento, o PDPI, e o papel do gestor
(REZENDE, 2010). Em estudo ainda em andamento, propõe-se comparar os ganhos dos
alunos das escolas referência e suas escolas associadas com escolas não incluídas no
projeto (PEREIRA, 2011). A grande questão desse estudo diz respeito à justiça em
concentrar esforços em um subconjunto de escolas em condições de se tornarem
escolas de excelência, em vez de estender os benefícios dos investimentos a todas as
escolas da rede. Para responder a essa pergunta, é preciso avaliar o possível efeito de
demonstração ao estabelecer um padrão de qualidade e desempenho para toda a rede
por meio do exemplo de algumas escolas e o impacto nas escolas associadas da sua
proximidade com essas escolas de excelência.
Os estados que ainda não têm políticas de alocação de recursos com base no
desempenho das escolas já pensam ter:
A gente está pensando utilizar o IDE [Índice de Desenvolvimento da Escola]
para a criação do fundo de distribuição de recursos para a escola. De
alguma forma estabelecer uma entrega do recurso com base na elevação
desse indicador, então com programas que a escola apresente desde
necessidades físicas, infra estrutura, quanto de pessoas, de assessoria, de
assessorias pedagógicas, principalmente. Eu acho que seria grande chance
da escola poder ter assessores para o desenvolvimento pedagógico dela.
[...] é uma forma mais orientada e uma política mais focada, com
focalização de política no resultado da escola para aquilo que a escola
precisa. (Técnico: SEE/ES)
Como comentário final, convém destacar a diferença entre as políticas de alocação
de recursos com base em resultados de acordo com o nível de impacto das
consequências ou responsabilização. A distribuição de recursos em favor de escolas
com desempenho menor não pode ser considerada política de responsabilização por
132
© 2011. Fundação Victor Civita. Todos os direitos reservados.
não existir nenhum propósito de estimular as escolas a reduzir seu desempenho para
se tornarem escolas beneficiadas. No caso das políticas de premiação, por outro lado,
em que as escolas com melhor desempenho são aquinhoadas com recursos até
vultosos, como no caso do Ceará, a mensagem é claramente de competição e de
incentivo a todas as escolas para que melhorem seus resultados. A não-premiação da
escola acarreta prejuízos pela perda de melhores condições de trabalho e pelo nãoreconhecimento da qualidade da escola. Por colocar os resultados nas mãos das
escolas e dos seus profissionais, a política é de responsabilização, mesmo sendo uma
premiação para a escola, e não para os profissionais. Na seção seguinte, serão tratados
os incentivos dirigidos os profissionais das escolas.
6.5
Para Políticas de Incentivos Salariais
A bibliografia sobre o tema da responsabilização no Brasil não é extensa, mas
permite traçar o histórico dessa política desde o principio da década passada. Os
exemplos mais bem documentados da primeira geração de políticas dessa natureza
são os casos da Nova Escola, do estado do Rio de Janeiro, o sistema de bônus salarial
do estado de São Paulo, o prêmio Escola do Novo Milênio, do estado de Ceará, e o
bônus salarial para professores alfabetizadores do município de Sobral, todos criados
no ano de 2001 (MEC/INEP, 2005; BROOKE, 2006; RODRIGUES, 2007; ANDRADE, 2008;
BROOKE, 2008). O que essas políticas tiveram em comum foi a formulação de critérios
para o pagamento de incentivos salariais aos profissionais das escolas com base nas
médias de desempenho dos alunos.
Semelhantes ao sistema Sned, do Chile, essas políticas de responsabilização
associam consequências aos resultados dos alunos em termos de um adicional ao
salário dos professores pertencentes às escolas classificadas ou premiadas. Por esse
motivo, essas políticas se diferenciam das políticas de accountability high stakes dos
Estados Unidos, onde as consequências atingem primeiramente os alunos. Nos Estados
Unidos, a legislação estipula as metas em termos da proporção de alunos que
alcançam o desempenho mínimo necessário para receber o diploma de conclusão do
133
© 2011. Fundação Victor Civita. Todos os direitos reservados.
Ensino Médio. No Chile e no Brasil, os resultados dos sistemas de avaliação não são
usados para classificar ou certificar o aluno e muito menos para influenciar seu futuro
no mercado de trabalho. Portanto, as consequências criadas pelos sistemas de
premiação/incentivos desses países são decorrências secundárias dos resultados do
processo escolar que nos dizem mais sobre a visão dos gestores a respeito da
motivação do professor, e menos sobre a qualidade de Educação da escola. É verdade
que nos Estados Unidos as consequências se estendem também para as escolas e seus
professores mediante as políticas de intervenção naquelas escolas que demonstram
um progresso anual insuficiente, mas mesmo nesses casos o indicador de qualidade ou
a falta dela são as taxas de graduação dos alunos. Nos casos brasileiro e chileno, o
indicador que se produz ao final dos cálculos determina se a escola é premiada ou não
e qual o nível de premiação alcançada. Por mais sofisticada que seja a metodologia de
cálculo, esse indicador é bem menos transparente que a taxa de graduação.
Outra diferença entre as políticas de responsabilização e as de accountability diz
respeito à natureza sempre positiva da premiação ou bônus salarial, enquanto as
consequências high stakes nos Estados Unidos podem ter implicações bastante
negativas para os alunos, seus professores e suas escolas. A ausência de qualquer
consequência negativa no caso brasileiro não significa a priori a falta de eficácia da
política de incentivos, mas deixa dúvida sobre a pertinência do termo
responsabilização como a tradução cabal da palavra accountability. A recusa dos
professores e legisladores em permitir qualquer tipo de punição é inteiramente
compreensível, mas, quando inexiste a possibilidade de consequência negativa, tornase mais difícil alegar que a escola e sua equipe estão sendo responsabilizadas pelo
produto de seu esforço. Somente na presença da possibilidade de consequências tanto
negativas como positivas pode-se dizer que há algo em jogo que represente um valor a
ser ganho ou perdido conforme o significado da própria palavra stakes, usada para
descrever a política.
Com essas diferenças em mente, convém fazer a distinção de acordo com o nível
em que a política de responsabilização incide no processo escolar, em nível do aluno,
do professor ou da escola. Com essa distinção, pode-se dizer que as políticas
134
© 2011. Fundação Victor Civita. Todos os direitos reservados.
brasileiras de responsabilização são direcionadas quase exclusivamente às escolas,
havendo só um registro, no caso de Sobral, no Ceará, onde, além de dar prêmio à
escola, a política de responsabilização identificava e premiava professores
alfabetizadores individuais.
Também convém explicitar quem está responsabilizando a quem. No caso dos
Estados Unidos e de certa forma no do Chile, uma parte das políticas de accountability
mostra que os governos centrais tomam para si o papel de exigir os direitos da
população de receber um serviço público de qualidade dos governos estaduais e
distritais. Nesses casos, o accountability expressa um acordo a respeito do gasto
correto e eficiente dos recursos dos contribuintes e a obrigação dos governos
subnacionais de cumprir esse papel com transparência. Também pressupõe uma
organização de poder em que o governo central tem ascendência legítima sobre os
governos subnacionais. No caso brasileiro, essas condições não são dadas. O único tipo
de responsabilização em jogo, do governo estadual em relação aos seus funcionários, é
o mesmo do empregador que exige bons resultados dos seus empregados. Por mais
que façam uso de justificativas que expressam os direitos do cidadão de ser bem
atendido, as políticas estaduais de incentivos salariais sempre serão, antes de tudo,
estratégias para aumentar a produtividade.
Os outros exemplos mencionados de programas estaduais de responsabilização
empregam diferentes medidas de resultados como indicadores da qualidade da escola.
Os indicadores são de três tipos. O mais comum é o desempenho médio dos alunos de
determinada série e matéria. Os outros dois indicadores são o de calcular o progresso
da escola com base na mudança no nível de aprendizagem dos alunos de um ano
escolar para outro e o de mostrar a distribuição percentual dos alunos por faixa ou
nível de desempenho.
O desempenho médio apresenta uma série de problemas para o cálculo do
incentivo. Como o desempenho do aluno é uma combinação de vários fatores,
incluindo muitos que são externos à escola, o desempenho medido pelo sistema de
avaliação reflete muito mais do que a contribuição dada pela equipe escolar. Portanto,
as médias podem indicar o nível de desempenho, mas não a fonte da aprendizagem.
135
© 2011. Fundação Victor Civita. Todos os direitos reservados.
Pelo uso exclusivo desse indicador, é possível premiar uma escola que em nada tenha
contribuído para o nível médio de desempenho dos seus alunos.
É para contornar esse problema que os estados do Ceará e do Rio de Janeiro
introduziram uma medida de progresso no desempenho da escola de um ano para
outro. Trata-se do modelo chamado nos Estados Unidos de “mudança de status”
(HANUSHEK; RAYMOND, 2003), que pode ser visto como um avanço parcial pelo fato
de controlar hipoteticamente pela aprendizagem anterior dos alunos. Como a
composição social do alunado de determinada escola não muda de forma brusca,
pode-se supor que o alunado da mesma série, em dois anos consecutivos, é composto
do mesmo tipo de aluno e tem características sociais e níveis de aprendizagem prévia
similares. Portanto, medindo a diferença no desempenho dos alunos da mesma série
em anos consecutivos, pode-se obter uma medida do quanto a escola avançou no
período em questão. O problema dessa suposição é que há as flutuações naturais
entre as turmas e entre os anos mencionadas por Carnoy em relação ao Sned (CARNOY
et al., 2004) e a escola pode ser julgada como apresentando mais ou menos progresso
exclusivamente em função dessas flutuações. Em suma, a mudança de um ano para
outro confunde o desempenho da escola, as diferenças socioeconômicas entre os
alunos e os erros naturais de medição.
Outro problema relacionado à medida de progresso é que ela pressupõe uma
mudança constante e positiva no nível de desempenho dos alunos. Para a fase inicial
do programa de responsabilização ou para a escola que começa a instituir programas
de melhoramento, essa mudança pode ser uma meta realista. Para a escola que já
alcançou um nível mais alto de desempenho, o progresso constante pode não ser tão
realista e a escola ser julgada de menor qualidade.
É também importante observar que em nenhum dos exemplos da primeira
geração de políticas de responsabilização havia uma medida da distribuição dos alunos
pelos diferentes níveis de aprendizagens alcançados nas diferentes matérias testadas.
Não havia, portanto, uma medida do grau de equidade alcançado pela escola e
nenhuma forma de premiar as escolas que se esforçavam para eliminar as
desigualdades intraescolares existentes. Da mesma forma que as políticas de
136
© 2011. Fundação Victor Civita. Todos os direitos reservados.
responsabilização entendem que o aprimoramento da qualidade depende da ênfase
nos resultados da escola, pode-se argumentar que somente com a inclusão de
indicadores de equidade é que os sistemas começarão a combater as diferenças no
tratamento de alunos dentro das escolas. Nesse contexto, cabe lembrar que as
variações intraescolares no desempenho dos alunos são sempre maiores do que a
variação entre as escolas.
A segunda geração de políticas de responsabilização tenta superar as críticas
relatadas. Criados nos últimos dois ou três anos e exemplificados pelos sistemas de
incentivos de Pernambuco, São Paulo e Espírito Santo, esses novos sistemas
incorporam procedimentos mais sofisticados para a definição de critérios e a avaliação
de escolas. Segundo Formoso (2009), o objetivo do novo Programa de Qualidade da
Escola em São Paulo foi promover a melhoria da qualidade e a equidade do sistema de
ensino estadual e ao mesmo tempo combater o problema do absenteísmo dos
professores. O programa de pagamento de uma bonificação foi atrelado, portanto, a
dois fatores: o resultado de um índice de desenvolvimento das escolas, denominado
Idesp, e a assiduidade dos professores (FORMOSO JR., 2009).
A metodologia do Idesp descrita por Soares (2009) mostra a forma encontrada
para verificar a qualidade do ensino e também privilegiar a dimensão da equidade. O
primeiro passo foi a definição dos níveis de desempenho aos quais seriam atribuídos
significados pedagógicos e normativos. Há muita diversidade de opinião sobre o
número e denominação dos níveis que devem ser usados. No caso do Idesp foram
escolhidos quatro níveis com as seguintes denominações: Abaixo do Básico, Básico,
Proficiente e Avançado. As etiquetas escolhidas para os níveis têm um claro significado
normativo e descrevem graus de dominação das competências almejadas pelos
responsáveis pelo currículo oficial. A opção por quatro níveis reflete a necessidade de
orientar a organização de atividades a serem oferecidas aos alunos após a análise dos
dados obtidos em uma avaliação, dando às proficiências dos alunos uma utilidade
pedagógica, e não apenas gerencial (SOARES, 2009).
O segundo passo foi a escolha dos pontos de corte das proficiências do Saresp
para os quatro níveis. Encontrou-se uma distribuição de referência por meio da
137
© 2011. Fundação Victor Civita. Todos os direitos reservados.
comparação do desempenho dos alunos brasileiros com o desempenho dos alunos de
um grupo de países participantes do Pisa de 2000. Mediante a comparação da
distribuição da pontuação dos dois grupos e o cálculo da diferença em desvios padrão
foi possível criar uma distribuição “ideal” das pontuações para o Saeb. Com base nessa
distribuição, e a decisão de colocar aproximadamente 25% dos alunos no nível
avançado e outros 25% no nível básico, chegou-se a duas tabelas com a definição dos
pontos de corte para cada nível para 4ª, 8ª e 3º e para leitura e matemática do Saresp.
O significado desses passos se revela com a fórmula para o cálculo do Idesp para
cada escola. Ao mesmo tempo em que o Idesp mantém a ideia básica do Ideb de
agregação dos indicadores de fluxo e desempenho, ele também incorpora a dimensão
de equidade no indicador de desempenho ao mudar a maneira de cálculo do primeiro
fator, passando a utilizar um indicador baseado nos percentuais de alunos nos
diferentes níveis. O indicador de desempenho usado no Idesp é obtido calculando-se
primeiramente a defasagem média dos alunos da escola em relação ao nível avançado.
Para isso, atribuem-se aos alunos classificados no nível Abaixo do Básico, Básico,
Proficiente e Avançado respectivamente três, duas, uma e nenhuma defasagem. A
defasagem do sistema ou escola é definida como a média ponderada das defasagens
de cada nível, tomando como peso a porcentagem de alunos em cada nível. Para
transformar essa medida de defasagem em um indicador similar ao Ideb, foi
necessário transformá-la em um número que assume valores entre 0 e 10, sendo
atribuído à pior escola o valor 0 e à melhor escola o valor 10. Isso é obtido pela
aplicação da seguinte fórmula: Indicador = (1 - (Defasagem/3))*10
O uso da defasagem como medida de desempenho da escola sinaliza a
importância de melhorar o desempenho dos alunos mais fracos, em vez de excluí-los.
Quando os incentivos eram pagos com base na média das turmas testadas, a
estratégia mais eficiente para aumentar as chances de recebê-los residia na melhoria
dos resultados dos alunos com maior condição de mostrar avanços, e não no trabalho
mais paciente com os alunos de desempenho mais baixo.
As metas desenhadas pela Secretaria de Educação com base no indicador Idesp
servem para monitorar a evolução da qualidade da Educação nas escolas. Segundo
138
© 2011. Fundação Victor Civita. Todos os direitos reservados.
Ferraz (2009), a inovação do programa está na relação entre o tradicional bônus
monetário e o grau de cumprimento dessas metas. Para isso, foi definido um índice
que mede o grau de cumprimento das metas para cada ciclo em cada escola. No ciclo
2007/2008, esse índice foi calculado comparando o quanto a escola melhorou entre
2007 e 2008 (Idesp2008 - Idesp2007) com quanto a escola deveria ter melhorado para
atingir a meta (Idespmeta – Idesp2007). Essa relação oferece a percentagem da meta
efetivamente atingida pela escola. Para escolas que têm mais de um ciclo, há
diferentes metas que a escola tem de atingir. Uma maneira de analisar se ela se
aproximou das metas como um todo é calcular a média ponderada de cada Índice de
Cumprimento, em que a ponderação é o número de alunos avaliados no Saresp em
cada um dos ciclos (FERRAZ, 2009).
Esse índice de cumprimento ponderado é então utilizado para remunerar as
equipes das escolas por seu desempenho. A Secretaria de Educação definiu uma
remuneração que é proporcional ao grau de atendimento das metas. Em escolas que
tiverem um índice de cumprimento de 100% da meta, por exemplo, todos os
professores e funcionários da escola recebem um bônus equivalente a 20% dos 12
salários mensais, ou seja, 2,4 salários mensais a mais. Porém, em atenção ao outro
objetivo do sistema de responsabilização, o pagamento individual depende da
frequência dos professores. Para receberem o bônus, os funcionários devem ter
atuado, no mínimo, em dois terços dos dias letivos do ano (ou 244 dias). Mesmo
entendido como punição pelos professores, a SEE/SP entende que, como não há
punição para o não-alcance das metas, o sistema de bonificação não se equivale aos
sistemas encontrados nos Estados Unidos (FORMOSO JR, 2009).
O estado do Espírito Santo demonstra um enfoque muito parecido com São Paulo.
Em documento da própria Secretaria (SEDU/ES, 2010), encontra-se a descrição da
Bonificação por Desempenho, criada em 2010 e baseada no índice de desenvolvimento
da escola - IDE, composto do indicador dos resultados, o IRE, e do indicador do esforço
da escola, o IEE, de modo que o IDE = IRE x IEE.
Como em São Paulo, o primeiro passo se resume na definição dos mesmos quatro
níveis de desempenho e os pontos de corte a serem empregados. Diferentemente do
139
© 2011. Fundação Victor Civita. Todos os direitos reservados.
cálculo de defasagem em São Paulo, a metodologia usada no Espírito Santo atribui um
valor de 0 a 10 para cada nível de desempenho, deixando clara a intenção de
beneficiar a escola que consegue passar seus alunos para os níveis de desempenho
mais altos. Um nível adicional da classificação é formado pelos alunos “excluídos” que
evadem ou, mesmo matriculados, não se apresentam para as avaliações e recebem em
consequência o valor 0. Essa categoria desestimula a perda de alunos por abandono e
também a prática de “esconder” alunos de baixo desempenho na época dos testes. O
cálculo do Indicador de Resultado da Escola é obtido pela multiplicação do percentual
de alunos em cada nível de desempenho pelo valor atribuído àquele nível (mostrado
no Quadro 2.), dividido por 100.
Quadro 2. Categorização dos Alunos em Níveis e Respectivos Escores para 5º e 9º
Anos do Ensino Fundamental e 1º Ano do Ensino Médio
Abaixo do
Nível
Excluídos
Básico
Proficiente
Avançado
6
8
10
Básico
Escore
0
2
O próximo passo se resume ao cálculo do Indicador de Resultados da Escola para
todas as avaliações a que foi submetida ao longo do período de referência. No caso da
aplicação da fórmula em 2010, levaram-se em consideração as avaliações de 2008 e
2009. O Indicador de Resultados da Escola final é calculado com base na média
ponderada, levando em consideração o número de alunos matriculados nas séries
testadas.
O indicador de esforço da escola, IEE, é a forma encontrada para levar em
consideração o nível socioeconômico da escola e permitir, dessa maneira, uma
comparação entre escolas que não seja viciada pelas diferenças na condição dos
alunos. A lógica do indicador é que, quanto mais alto o nível socioeconômico, menor o
esforço da escola para produzir bons resultados. Portanto, o cálculo do indicador é
dado pela diferença entre o nível socioeconômico da escola, numa escala de 0 a 5, e
140
© 2011. Fundação Victor Civita. Todos os direitos reservados.
um valor máximo arbitrado em 10. A escola com nível socioeconômico mais alto teria
um índice de esforço 5, enquanto a escola com o nível socioeconômico mais baixo
teria o índice 10. Usando a mesma lógica em relação aos níveis de ensino da escola, e
pressupondo o aumento de esforço na medida em que os alunos avançam desde as
primeiras séries do ensino fundamental até o Ensino Médio, calcula-se o esforço total
da escola levando em consideração a composição do corpo estudantil por nível de
ensino. A definição do modelo para o cálculo e o pagamento da bonificação das
escolas premiadas também foi objeto de discussão detalhada para evitar certos
inconvenientes, incluindo o risco de fomentar um ranqueamento das escolas e a
prática dos professores de procurarem transferências para as escolas mais bem
classificadas. O pagamento da bonificação ao individuo é condicionado a uma
frequência mínima, como em São Paulo.
De modo parecido com São Paulo, o sistema de incentivos implementado em
Pernambuco em 2008 também premia escolas com base em metas de desempenho
calculadas usando o sistema de avaliação do estado, o Saepe, e um indicador de fluxo
escolar, de forma análoga ao Ideb. No entanto, a definição das metas foi feita de forma
diferente da de São Paulo, pela ausência de resultados do Saepe para o ano de 2007.
Para as escolas de desempenho no quartil inferior da distribuição do Indicador de
Desenvolvimento da Educação de Pernambuco – Idepe, foi usada como meta a nota do
Ideb de 2009. Para as escolas de desempenho intermediário, a meta foi definida para
superar em 10% o estado com melhor desempenho do Nordeste. Por último, para o
grupo de escolas com desempenho superior, as metas foram estipuladas pelo valor do
estado com melhor desempenho no Brasil.
Para determinar a proporção da meta que foi atingida pela escola, é feito um
cálculo em duas etapas, segundo Ferraz (FERRAZ, 2009). Calcula-se primeiro um índice
que represente o quanto a escola deveria melhorar para cumprir a meta – o Índice de
Cumprimento (IC) – e depois o Índice de Progresso (IP), para estimar o quanto a escola
efetivamente progrediu. A média para cada série é ponderada pela proporção de
alunos em cada ciclo. Finalmente, a proporção da meta global atingida pela escola é
calculada pela divisão do que a escola efetivamente atingiu, o IP, pelo índice de
141
© 2011. Fundação Victor Civita. Todos os direitos reservados.
cumprimento das metas, o IC. A remuneração por desempenho é paga somente para
aquelas escolas em que o índice de cumprimento global seja pelo menos de 50%.
Os avanços metodológicos dos novos sistemas de incentivos são evidentes. Todos
evitam o uso de medidas simples de tendência central e incorporam métodos mais
sofisticados para captar tanto a proficiência quanto o fluxo de alunos. Também no caso
de São Paulo e Espírito Santo, foram criados métodos para levar em consideração
questões de equidade e amenizadas as dificuldades em fazer comparações entre as
escolas ao controlar pelas diferenças no nível socioeconômico e composição do corpo
estudantil. O uso de metas também incorpora uma visão prospectiva para facilitar a
compreensão do incentivo.
Mas certas dificuldades técnicas ainda permanecem. As medidas usadas para
controlar o nível socioeconômico dos alunos se baseiam em valores arbitrados, e não
no impacto real do nível socioeconômico ou em outras características dos alunos.
Também não resolve o problema da falta de medida do desempenho anterior dos
alunos, o que impede que seja calculada a contribuição específica da escola à
aprendizagem dos alunos. No há duvida de que a melhor medida para o desempenho
dos alunos seria a medida longitudinal, em que os mesmos são monitorados ao longo
de um período de tempo a partir de uma primeira avaliação servindo de linha de base.
O resultado dessas medidas longitudinais, em termos de ganhos médios de
aprendizagem da coorte de alunos, pode ser considerado um cálculo mais exato do
valor agregado da escola porque, além de controlar pelo efeito da aprendizagem
prévia, controlam-se também as flutuações na composição das turmas.
6.5.1 Investigações em Loco.
Quatro dos estados escolhidos para a pesquisa de campo têm políticas de
bonificação regidas pelos seus sistemas de avaliação – São Paulo, Minas Gerais,
Pernambuco e Ceará. Mais um estado, Espírito Santo, e o Distrito Federal já
142
© 2011. Fundação Victor Civita. Todos os direitos reservados.
prepararam as metodologias para o cálculo do bônus, mas ainda não fizeram o
primeiro pagamento9. Essa demora se deve à decisão de deixar passar o período
eleitoral de 2010 e aguardar as orientações dos novos Secretários de Educação. As
incertezas desse período, que se estendeu pelo primeiro semestre de 2011, dificultou
a pesquisa de campo e tornou necessário restringir as entrevistas à discussão das
políticas dos governos cujos mandatos tinham terminado. As mudanças já efetuadas
ou ainda em curso nas políticas educacionais de diversos estados a partir da chegada
dos novos governantes levam a crer que algumas das observações dos pesquisadores
descritas a seguir possam estar já desatualizadas.
As observações não repetirão os detalhes fornecidos sobre as metodologias dos
sistemas de bonificação, extraídos da bibliografia levantada. Elas se restringirão aos
detalhes do funcionamento desses sistemas não disponíveis na bibliografia e àqueles
aspectos que esclarecem melhor os princípios e problemas dessa modalidade de
política de gestão.
Ceará
No caso do Ceará, cabe esclarecer que o prêmio Escola Nota 10, já apresentado na
categoria Alocação de Recursos, também será estudado aqui pelo fato de parte do
prêmio ser destinado aos professores. Conforme o Manual de Orientações para
Elaboração, Execução e Prestação de Contas do Plano de Aplicação dos Recursos
Financeiros do Prêmio, documento de 63 páginas, dos 75% do valor total do prêmio
recebidos na primeira parcela, as escolas podem destinar até 20% para “bonificar os
professores do 2º ano do Ensino Fundamental; profissionais do núcleo gestor e demais
profissionais lotados na escola, no ano de referência da premiação”. Do resto do
prêmio, até 70% é destinado para aquisição de materiais de apoio pedagógico,
material permanente, formação continuada e adequações dos ambientes físicos da
9
No caso de Espirito Santo, o Bônus foi regulamentado em 31/5/11 e o primeiro pagamento, referente
ao ano de 2010, está programado para julho de 2011.
143
© 2011. Fundação Victor Civita. Todos os direitos reservados.
escola e “outras ações que contribuam para a melhoria da qualidade do ensino e da
aprendizagem dos alunos”, e até 20% destinados a deslocamento, alimentação e
hospedagem para a equipe escolar com o objetivo de desenvolver ações de
cooperação técnico-pedagógicas junto à escola apoiada. Dentre os limites fixados pela
legislação, a escola fica livre para seguir seus próprios critérios, até na forma de
calcular e fazer a distribuição da bonificação.
A Secretaria de Educação do Ceará também patrocina o prêmio Aprender pra
Valer, voltado para escolas de Ensino Médio, conforme a Lei nº 14.484, de 2008. Nesse
caso, são premiados os professores de até 45 escolas que atingem os seguintes índices
na soma das médias de língua portuguesa e matemática em cada uma das três séries
do Ensino Médio:
• Evolução de 7 a 10% sobre a média de proficiência obtida no ano anterior.
• Não apresentar média de proficiência no padrão Muito Crítico.
• Percentual de participação mínima de 80% (no Spaece) com base na matrícula
inicial informada no Educacenso.
O prêmio, destinado aos gestores, professores e servidores efetivos e
temporários, é concedido no valor mensal da remuneração de cada servidor,
proporcional ao acréscimo na média de proficiência dos alunos. Ou seja, no limite
inferior de 7% de crescimento na média da escola, os professores ganham uma
bonificação de 70% do salário. No limite superior de 10% ou mais, a bonificação é de
100%. Em 2010, a premiação representou um gasto de cerca de R$ 2 milhões e, como
no caso da Escola Nota 10, houve solenidade para a entrega às escolas de placas de
homenagens pelo desempenho alcançado. A ideia de trabalhar várias políticas de
incentivos simultaneamente não é por acaso:
No sistema de motivação precisa perceber é o seguinte, que você precisa de
mais de um modelo. Você não pode trabalhar só com uma linha de força,
você tem que ter várias linhas de força coerentes e convergentes. Então
com Escola Nota 10 eu motivo os professores e diretores, com o ICMS eu
motivo o prefeito, e com o Aprender para Valer, eu motivo diretores,
144
© 2011. Fundação Victor Civita. Todos os direitos reservados.
gestores, professores, funcionários, e ai, eu motivo independente do
contrato de trabalho, se é cargo efetivo ou se é temporário ou se é
terceirizado, eu motivo todos. Nenhuma pessoa da escola pode ficar fora
do prêmio. (Gestor: SEE/CE)
A convicção do estado do Ceará na eficácia dos prêmios como incentivo para os
professores tem uma década de história, que, como política para as escolas de ensino
regular, começa com a criação do prêmio Escola do Novo Milênio pela Lei Nº 13.203,
de fevereiro 200210. Alterado em 2004, quando o estado institui o Programa de
Modernização e Melhoria da Educação Básica e cria o Selo Escola Destaque do Ano, o
prêmio continua ininterrupto até 2007. Nesse ano, o atual governador, Cid Gomes,
toma posse. Prefeito de Sobral de 1997 a 2005, quando aquele município implantou o
primeiro exemplo de um sistema de bonificação individual para professores
alfabetizadores, o novo governador dá continuidade às políticas de incentivos ao criar
o Índice Municipal de Qualidade Educacional como base para a distribuição dos 25%
do ICMS pertencentes aos municípios e estabelece as bases para a retomada da
premiação de escolas em 2008 por meio da Escola Nota 10. No ano seguinte, são
criados o Prêmio Aprender pra Valer e também o Prêmio para os Alunos do Ensino
Médio, também pioneiro, que distribui um laptop a todos os alunos que conseguem
média de 325 em língua portuguesa e 350 em matemática na escala do Spaece.11
A própria continuidade da política de incentivos sugere que os gestores locais
estão convictos da sua eficácia. Como diz uma especialista:
Nós não temos ainda nenhuma evidência sobre o impacto desse sistema de
bonificação, por que eles são bastante novos. Mas você tem casos de
10
Em 2001, o projeto chamado Tempo de Avançar, que utilizou o telecurso 2000 da Fundação Roberto
Marinho para implantar 2 mil turmas de alfabetização com alunos fora de idade escolar, foi a primeira
experiência com a política de premiação. De acordo com os resultados na Prova de Êxito, ao final do
curso foram premiados os professores dos alunos com o melhor desempenho.
11
Política similar instituído na cidade do Rio de Janeiro para “homenagear e valorizar os alunos que
obtiveram as melhores notas em Português e Matemática” vai premiar os cinco melhores alunos de
cada disciplina dos dois anos avaliados com uma bicicleta.
145
© 2011. Fundação Victor Civita. Todos os direitos reservados.
estados como Ceará que tem sistemas de premiação que já tem mais de 10
anos e o estado continua usando. Ou seja, pelo menos no nível de uma
apreciação mais subjetiva de impacto desses programas eles estão
achando que eles têm razão que esses sistemas produzem bons resultados.
Agora estão aplicando inclusive para os alunos, dando prêmios aos alunos
que saem com os melhores resultados e eles vêem impactos instantâneos.
(Especialista: UFMG)
A opinião positiva dos gestores cearenses não vem só do efeito cumulativo da
experiência mas também de um raciocínio que deposita fé no efeito real do incentivo
tanto na melhoria da competência como na motivação do professor:
Eu acho que essa ideia [do prêmio], ela persiste porque as pessoas se
comportam diferentemente, tem níveis de compromisso e níveis de
competências diferentes. Quem tem nível de competência diferente precisa
às vezes ser incentivado internamente para adquirir a competência que não
tem. E quem não tem compromisso precisa saber que, ou passa a ter
compromisso ou passa a ter, vamos dizer assim, um tratamento
diferenciado em relação a quem tem. Que quem tem merece mais que
quem não tem. (Gestor: SEE/CE)
Para o mesmo gestor, a questão de se haveria outras formas de abordar os
problemas da Educação ou de organizar a própria política de incentivos não é uma
preocupação. A política de premiação é uma opção pragmática que chega ao cerne da
preocupação pelos resultados da escola e que qualquer política nesse contexto é
melhor do que nenhuma:
Nós somos, sim, pragmáticos, funcionalistas, realistas, sabe? Agora nós
não somos só isso. Mas se a realidade requer nesse momento uma
abordagem assim, então que seja essa, sabe? Vamos separar um pouco o
ideal, idealismo pedagógico, das condições de possibilidade da prática,
sabe? [...] No estado [...] em que a escola brasileira está, a pior estratégia
146
© 2011. Fundação Victor Civita. Todos os direitos reservados.
de premiação é melhor do que nada, porque nós precisamos quebrar a
inércia dessa indiferença pelos resultados. (Gestor: SEE/CE)
Isso não significa que a política de incentivos salariais não oferece problemas na
hora da aplicação prática das regras. No caso da Escola Nota 10, por exemplo, foi
necessário criar o IDE-Alfa, que leva em consideração a proporção de alunos
matriculados que efetivamente participam do Spaece porque as escolas nem sempre
aplicavam as provas aos alunos mais fracos para não prejudicar suas médias. Além
desse tipo de gaming, em que as escolas aprendem a manipular as regras, também se
observa a tendência das escolas de se preocuparem menos com as séries que não são
levadas em consideração no calculo do IDE-Alfa:
É visível como que
alguns municípios
relaxam um pouco no
acompanhamento do terceiro e do quarto ano. Porque o foco do prêmio
está no segundo ano. Ninguém quer ser professor mais do segundo ano. Ele
quer ser professor do terceiro ou do quarto ano porque ele não está sendo
tão pressionado, tão cobrado. Há um afrouxamento. Há aquela política de
acompanhamento austero, intensivo, que foi montado para o primeiro e,
sobretudo para o segundo ano. Mas, por mais que a escola saiba como
fazer, ela não se aplica ao terceiro, não se aplica ao quarto. (Técnico:
SEE/CE)
O gestor responsável pela política reconhece a existência dessas estratégias, que
classifica de “distorções”:
Todas as pessoas se comportam em função de resultados mais imediatos.
Então, se eu posso conseguir [...] uma avaliação com um mínimo de
esforço, eu vou fazer um mínimo de esforço. Às vezes isso significa uma
redução de escopo da tarefa, às vezes até uma inversão dos valores em
relação às tarefas, não é? O exemplo mais claro disso é aquela coisa de
dizer, assim, bom se o que importa é Português e Matemática, vamos
treinar os meninos pra fazerem boas questões de Português e Matemática
e nada mais importa, né?” (Gestor: SEE/CE)
147
© 2011. Fundação Victor Civita. Todos os direitos reservados.
Outros problemas incluem a “transferência branca” de alunos para outras escolas
para tentar se livrar de alunos de desempenho mais baixo e a insatisfação criada pela
pressão irreal do prêmio Aprender pra Valer, que estipula um crescimento de no
mínimo 7% ao ano na média de desempenho da escola, independentemente do
patamar já alcançado:
Os diretores têm uma reação muito grande. Os diretores escolares
consideram alto esse crescimento de 7%. Tem que ser mexida logo, logo,
por que a escola não consegue manter esse percentual do crescimento. Aí a
gente viu que poucas escolas, foi um número muito pequeno, que
conseguiu atingir essa meta. (Técnico: SEE/CE)
Na opinião dos técnicos da Secretaria, há indicações de que o programa Escola
Nota 10 produz resultados positivos no conjunto das escolas atingidas. Em comparação
com 2009, as médias tanto das escolas premiadas como das apoiadas cresceram em
2010 e, das 148 apoiadas, 107 chegaram a receber a segunda parcela do apoio
financeiro em 2010, mostrando que suas médias já alcançaram 5 no IDE-Alfa.
A evolução da média no Ceará se deu de uma forma muito acelerada. Com
certeza a gente tem que atribuir isso a essa política de publicização de
resultados, de política de premiação mesmo, e de mídia que foi feito em
cima desses resultados.
No entanto, o efeito parece não ser pelo recebimento do dinheiro. Uma evidencia
nesse sentido é o fato de as escolas apoiadas, que recebem menos, terem avançado
mais que as escolas premiadas. Outra evidência é fornecida pelo fato de os recursos
terem demorado a chegar às escolas e o avanço no desempenho ter acontecido
mesmo na ausência dos recursos. A explicação alternativa tem a ver com o efeito
psicológico da premiação, tanto para as premiadas como para as apoiadas:
O efeito da avaliação e a divulgação do resultado por si só já é uma
dinâmica de motivação. A escola saber que ela está entre as melhores. Aí
eu fico perguntado: por que as apoiadas evoluíram mais do que as
premiadas? As premiadas não conseguiram manter a média de
148
© 2011. Fundação Victor Civita. Todos os direitos reservados.
desempenho. Então talvez é o efeito psicológico do prêmio, do fato de ter o
prêmio e ter a publicização do resultado e a escola ser conhecedora que
está numa situação crítica e tudo mais. Talvez isso tenha gerado um
movimento interno na escola de tentar rever o seu projeto e tentar rever
suas práticas. Talvez é muito mais do que o efeito do dinheiro que chegou
a essa escola ou mesmo o efeito da cooperação técnica da apadrinhada
que chegou a essa escola. (Técnico: SEE/CE)
Mesmo assim, nem todas as escolas premiadas conseguem manter suas médias
para justificar o recebimento da segunda parcela da premiação, equivalente a 25% do
total. Das 148 premiadas em 2009, 75 não receberam a segunda parcela por não
manterem o IDE-Alfa da escola no mesmo nível e mais 12 pelo fato de suas escolas
apoiadas não alcançarem o índice de 5 nessa mesma escala.
No caso do Ensino Médio, houve também uma melhoria expressiva nos
resultados. Mas nesse caso o efeito pode ter sido pelo novo entusiasmo dos alunos,
provocado pelo Prêmio para os Alunos do Ensino Médio, e refletir, portanto, a
melhoria causada pela medição mais exata da proficiência dos alunos:
Por que antes os alunos do Ensino Médio muitos deles nem sequer liam a
prova. Marcavam qualquer letra, queriam se ver livre pra logo ir embora.
Alguns que sabiam que ia ter avaliação nem iam naquele dia por que eles
não são obrigados a fazer a prova. A gente não tem como obrigar o aluno a
fazer a prova, né. E agora na aplicação a gente observou o aluno
questionando com o aplicador o tempo da aplicação. Então houve uma
mudança de paradigma do aluno ao fazer o teste por que ele estava
querendo, ele estava brigando pra fazer o teste, não era mais o aplicador
tentando convencê-lo a ficar na cadeira e a reler o teste de novo. (Técnico:
SEE/CE)
A taxa de participação dos alunos matriculados, criada para contornar o problema
da “transferência branca” e a falta de comparecimento dos alunos no dia das provas,
tem criado seus próprios problemas. Um deles tem sido a não premiação de escolas
149
© 2011. Fundação Victor Civita. Todos os direitos reservados.
que por motivos alheios têm perdido alunos por abandono ou transferência. Nesses
casos, escolas com desempenho inferior podem chegar a receber a premiação por não
ter sofrido a mesma perda de alunos. Há relatos de funcionários das escolas viajarem
até os novos domicílios de alunos transferidos para receber a documentação oficial da
transferência e de um diretor que teve que falar com o conselho tutelar do Rio de
Janeiro para garantir que o aluno transferido tivesse sido de fato matriculado em
escola do Rio. Um técnico da SEE/CE sugere que uma forma de contornar o impacto da
perda inevitável de alunos seria estipular um percentual mínimo de participação e
fazer a distribuição dos prêmios entre os que satisfazem esse mínimo:
Tipo assim, irão concorrer ao premio Escola Destaque as escolas que
tiveram uma participação mínima de 90%. E aí vai ganhar quem tiver a
maior proficiência. [..]Não tem culpa uma escola que tinha atingido uma
nota altíssima mas perdeu um aluno que foi transferido, mudou para uma
outra escola e aí não ficou mais com 100% [de participação] e caiu a média
dela de proficiência. (Técnico: SEE/CE)
No fundo, essa dificuldade diz respeito à aparente “injustiça” dos critérios
estipulados para o pagamento do incentivo. Em se tratando de um acréscimo
importante à renda do professor, equivalente a um mês de salário, não é trivial a
questão de se as regras da competição são percebidas como legítimas e justas. A
experiência de Sobral, e os ajustes sucessivos nas regras do bônus do professor
alfabetizador para o aperfeiçoamento da política de incentivos mostra o quanto os
gestores precisam fazer as adaptações de acordo com as definições locais de justiça.
Numa primeira versão dessas regras, as cinco primeiras escolas na prova de
alfabetização levaram o prêmio, independentemente do tamanho da escola e do
número de turmas. No ano seguinte, a competição foi subdividida em categorias pelo
número de turmas das escolas em reconhecimento à dificuldade maior em melhorar
os resultados em escolas maiores. No terceiro ano, houve nova mudança pelo fato de
algumas escolas não receberem prêmios mesmo tendo desempenho melhor que
escolas premiadas em outros grupos por só existir um prêmio para cada grupo. Neste
ano, foi eliminado o ranqueamento e criado no seu lugar um sistema de metas com
150
© 2011. Fundação Victor Civita. Todos os direitos reservados.
base no desempenho da própria escola no ano anterior. Nesse formato, a escola
competia consigo mesma para alcançar pelo menos 90% da meta. A lição aprendida é
que o sistema de incentivo nunca será perfeito:
Eu já coloco que meu modelo é esse, que vai funcionar assim, que esse ano
vai ser assim, doa a quem doer, esse ano vai funcionar assim. Agora, tenho
certeza que ele não é perfeito, e nós poderemos também falar seriamente
de como melhorá-lo. Mas não fazer nada porque nunca vai ser perfeito é
errado. (Gestor: SEE/CE)
Espírito Santo
O sistema de bonificação de Espírito Santo, que prevê pagamento a toda a equipe
da escola que atingir determinado índice de desenvolvimento da escola, é de
elaboração recente, o que permite o resgate mais pormenorizado dos diferentes
objetivos perseguidos pelos gestores. Mesmo não havendo ainda uma aplicação
prática da metodologia, o raciocínio por trás da sua criação ainda está fresco na
memória dos envolvidos. O primeiro objetivo é levar para dentro da escola a mesma
preocupação com os resultados das avaliações que aquela expressa no planejamento
estratégico do estado:
Para mim, eu não tenho grandes pretensões com relação ao bônus e tal,
mas se conseguirem levar para dentro da escola essa discussão de que o
resultado principal é a aprendizagem eu acho que o jogo já está ganho.
(Gestora: SEE/ES)
Uma vez aceita a relação entre qualidade e resultados e estabelecida a
preocupação da escola em melhorar seus resultados, parece que haverá naturalmente
a compreensão de por que a escola ganhou ou deixou de ganhar o bônus:
O que a gente queria com o sistema de bonificação é levar essa discussão
da qualidade para dentro da escola. Ou seja, o Paebes, que é o nosso
sistema de avaliação, passa a ganhar uma nova cara porque hoje ele não
vai para a escola simplesmente como uma avaliação. [...] Com a
151
© 2011. Fundação Victor Civita. Todos os direitos reservados.
bonificação ele coloca uma coisa nova, então você cria um estímulo para
que as pessoas pelo menos passem a entender por que é que eu ganhei
1000 e você ganhou 2000, por que a escola A é assim e a B é assado.
(Gestora: SEE/ES)
O que não fica explicitado nesse raciocínio é como o professor possa de fato
entender as diferenças entre as escolas e, com base nessa compreensão, alterar de
alguma forma a sua prática. As informações que circularão entre as escolas podem
explicitar as diferenças nos índices, mas dificilmente identificarão por que uma escola
atingiu determinado patamar e outra não.
O segundo objetivo diz respeito ao propósito de incentivar os professores a se
verem como responsáveis pelos resultados da escola;
A ideia é você levar [para a escola] essa questão da discussão dos
indicadores de avaliação, de que o resultado do trabalho do professor é a
aprendizagem e que ele também é responsável pela evasão escolar, pela
reprovação do aluno, ou seja, isso não é um fator só do aluno. Ele tem uma
participação ali que é a gestão da escola em que ele trabalha. (Gestora:
SEE/ES)
Esse raciocínio parece completo, já que o pagamento de uma bonificação aos
professores das escolas com os melhores resultados de fato sinaliza a crença de que
esses professores têm de uma parte da responsabilidade por esses resultados,
sobretudo na presença de uma metodologia de cálculo que leva em consideração o
nível socioeconômico dos alunos. O que não fica garantido é que os professores sintam
as mesmas convicções a respeito da sua contribuição ou que entendam o que precisa
fazer para ganhar o prêmio no futuro.
O terceiro objetivo é retribuir o esforço dos professores. Como o bônus é
classificado como prêmio, e não como remuneração, ele se justifica como um
reconhecimento da dedicação adicional que os professores mostraram ao produzirem
resultados acima da média. O incentivo esperado é no sentido de suscitar níveis de
esforço maiores no futuro, mesmo sabendo que o nível de esforço pode variar entre os
152
© 2011. Fundação Victor Civita. Todos os direitos reservados.
professores de uma mesma escola e que o incentivo pode não afetar a todos
igualmente:
[...] os diretores de escola, [...] eles aplaudem muito o bônus, porque eles
conseguem ver isso dentro da escola. Eles veem isso mais de perto, ou seja,
o esforço de determinados professores e o esforço menor de outros.
(Gestora: SEE/ES)
O quarto objetivo, ao condicionar o pagamento do bônus ao cumprimento de um
número mínimo de dias de trabalho, é coibir as faltas dos professores:
A gente chega a receber professores aqui que dizem que tiraram atestado
porque tinham que resolver um problema hoje na unidade central e falam
assim como se fosse a coisa mais normal do mundo tirar um atestado
médico falso para usar o tempo para outra coisa. Então a frequência veio
como uma [razão] para compor esse índice até para a gente saber até que
ponto essa falta realmente é real ou ela é enfim, uma cultura. (Gestora:
SEE/ES)
Haverá necessidade de voltar a esta discussão dos objetivos da premiação na hora
de determinar se justifica classificar esta política como de responsabilização e de
prever seus prováveis impactos no ensino.
Minas Gerais
O sistema de premiação de Minas Gerais merece uma análise mais detalhada por
seguir um modelo diferente dos outros estados. Chamado Acordo de Resultados, a
metodologia implantada em 2008, e repetido anualmente desde então, se estende a
todas as Secretarias do governo. No caso da Secretaria da Educação, o acordo diz
respeito aos resultados da Secretaria, das Superintendências Regionais de Ensino (SRE)
e de todas as escolas. No caso das escolas, a nota recebida é composta em 65% da
nota da Secretaria, 10% da nota da SRE e 25% da avaliação dos “indicadores
finalísticos” da escola. Por meio dessa composição, mostra-se claramente que a
responsabilidade pelos resultados finais da escola é compartilhada entre as três
153
© 2011. Fundação Victor Civita. Todos os direitos reservados.
instâncias. Essa característica do Acordo de Resultados a diferencia das demais
políticas de incentivos estudadas que tendem a identificar os professores, os dirigentes
e demais membros das equipes escolares como os únicos integrantes do sistema de
ensino responsáveis pelos resultados de aprendizagem, apesar da conhecida
importância das condições materiais fornecidas pelo órgão central e os diversos
serviços de apoio das instancias regionais.
Os indicadores finalísticos da escola dizem respeito a um conjunto de dez metas,
expressas tipicamente em termos da proficiência média dos alunos por ano e matéria.
Como exemplo, a sexta meta, com peso valendo 2,14% do total da nota da escola, diz
respeito à proficiência média dos alunos do 9º ano do Ensino Fundamental em
português. A escola ganha a nota máxima se o valor observado para a meta for maior
ou igual ao Nível Recomendável para o ano, de acordo com a classificação publicada
pelo sistema de avaliação do estado. No caso de a meta da escola ser menor que o
Nível Recomendável, precisa-se empregar uma equação para calcular o desempenho
da escola de 0 a 1 com base na diferença entre a proficiência alcançada no presente
ano com a proficiência do ano anterior dividido pela diferença entre a meta e a
proficiência do ano anterior. No final, a nota do indicador = Desempenho x Peso do
Indicador x 10. Quando somados todas as notas dos indicadores, mais as notas da
Secretaria e da SRE a que a escola pertence, a nota final da escola mostrará a
proporção da meta global alcançada e, portanto, o percentual do prêmio de
produtividade a que terá direito.
Essa matemática é necessária depois da decisão de beneficiar a escola com
alguma recompensa mesmo no caso de não alcançar 100% da meta acordada. Essa
flexibilização torna o processo mais brando, permitindo a diluição do significado das
metas ao ponto de elas se tornarem indicadores de resultados, o que permite levar em
consideração a realidade das escolas que nem sempre conseguem melhorar no ritmo
desejado, apesar dos esforços. O raciocínio da Secretaria que levou a essa flexibilização
é mostrado na seguinte fala:
Meta tem que ser flexível por que meta rígida é meta boba. Meta é uma
coisa importante? É importante, mas ela não foi feita para ser sustentada a
154
© 2011. Fundação Victor Civita. Todos os direitos reservados.
ferro e fogo; de qualquer jeito você tem que ganhar. Se for a ferro e fogo o
cara toma anabolizante para não sei o que lá nas olimpíadas, se for a ferro
e fogo as pessoas usam tudo quanto é tipo de artifício para chegar lá.
Passa menino sem saber, altera nota do menino, ensina o menino a fazer
prova. Acontece esse tipo de coisa por quê? Por que se eu não conseguir, eu
vou perder salário e ninguém está em condições de perder salário. (Gestor:
SEE/MG)
O aspecto mais interessante do acordo de resultados é o procedimento para a
fixação das metas. Esse processo culmina na assinatura de um termo de compromisso
por parte das SREs e das escolas após a consulta ao sistema online em que as metas
estão listadas escola por escola. No caso de a escola não concordar, existe um
procedimento para a sugestão de nova meta e para o julgamento do pleito da escola.
Ou seja, mesmo sendo um processo centralizado, a possibilidade de a escola fazer uma
contraproposta torna mais legítimas as metas fixadas e justifica a assinatura do termo
de compromisso que pactua os resultados esperados:
[...] tem que ser pactuada, não pode ser imposto. Então a gente tem um
sistema na internet onde a Secretaria examina o histórico da escola, as
condições com base no relatório das visitas [...]. Com base nisso você
elabora uma proposta de meta para todas as escolas, essa é a primeira
providência. [...] o diretor acessa, imprime e discute internamente. Olha a
meta da secretaria é essa, dá para fazer ou não dá? Eles podem variar o
que está previsto lá em 10%. [...] Eles podem propor variação pra cima ou
pra baixo e o gozado é que alguns fazem pra cima. (Gestor: SEE/MG)
Não que a Secretaria acate todas as contrapropostas das escolas:
[em 2009] de 3.988 escolas foram 10% de pedidos de alteração [...] E,
desses 10%, nós modificamos só 10%, o resto não. Na verdade assim, vinha
muito pedido de abaixar meta. (Técnico: SEE/MG)
Outro aspecto relevante, que remete à discussão sobre o impacto do modelo de
planejamento estratégico assumido por diversos governos estaduais, diz respeito à
155
© 2011. Fundação Victor Civita. Todos os direitos reservados.
relação entre as metas dos planos governamentais e as metas colocadas para as
escolas. No caso de Minas Gerais, as metas do Plano Mineiro de Desenvolvimento
Integral – PMDI 2003-2023 foram desdobradas em metas plurianuais por meio dos
PPAG – Plano Plurianual de Ação Governamental. No caso do PPAG 2008-2011, coube
à Secretaria planejar suas metas de acordo com o percentual de crescimento fixado
pelo estado:
A distribuição das metas está amarrada à meta geral do Estado por que no
Estado foi dito: olha, nós vamos crescer 5% esse ano. Então a distribuição é
mais ou menos assim: umas [escolas] estão acima de 5, outros estão
abaixo, mas no fim, na hora em que todo mundo bater a meta, a gente
bate a meta daqui [do Estado] também. (Gestor: SEE/MG)
No entanto, nem sempre os planejadores ouvem os gestores antes de fixar as
metas globais do estado. Na primeira edição do Acordo de Resultados, os planejadores
dividiram as escolas em cinco faixas de acordo com a proficiência do ano de 2007 (um
ano de crescimento acima da média), calcularam a taxa de crescimento para cada faixa
e fixaram as metas até 2010.
Fizeram essas metas e foram embora. [...] E aí nós verificamos que as
escolas não estavam com um percentual de cumprimento muito bom, pelo
contrário, as notas foram muito baixas. [...] eles superestimaram as metas
porque justamente eles consideraram um crescimento do Estado muito alto
[...] Então eles pegaram aquele crescimento e fizeram uma projeção só que
na hora em que nós pegamos os bandos e fizemos a primeira avaliação, o
percentual de cumprimento foi muito baixo. É por isso que nós fizemos a
primeira revisão, no ano de 2009. (Técnico: SEE/MG)
As metas estavam muito altas, principalmente no ano de 2010. Aí nós
conversamos, a Secretária conversou com o pessoal do Estado para estudar
os resultados e eles aceitaram as nossas reivindicações e nós fizemos um
histórico, nós mostramos as tendências de crescimento e eles viram que
realmente estavam muito alto [...], eles aceitaram, tanto que as metas,
156
© 2011. Fundação Victor Civita. Todos os direitos reservados.
nossas metas, reduziram bem para o ano de 2010, que estavam bem altas.
(Técnico: SEE/MG)
Não é trivial a questão de como estabelecer as metas de um sistema de incentivos
quando não se quer usar um ranqueamento competitivo nem fixar as metas
exclusivamente com base no histórico do crescimento anual da proficiência. O que
está em jogo é uma combinação de fatores que também leva em consideração a
vontade dos governantes de ir além da meta:
“A Educação trabalha com desafios e politicamente o que move as pessoas
é o desafio. [...] A Educação precisa de uma coisa maior, precisa de uma
coisa mais significativa, alguma coisa de natureza diferente. Então a ideia
que nós trabalhamos ao ir para a escola é a idéia de desafios e não a idéia
de meta. Meta é prêmio por produtividade. Isso aí é meta, isso aí vocês vão
ter que cumprir mesmo. Agora o desafio não é isso não, o desafio é muito
maior do que esse. O desafio é diferente [...] Se não, fica todo mundo
marcando passo. (Gestor: SEE/MG)
O sistema de acordo de resultados tem vários méritos metodológicos. Também
tem uma deficiência criada pelo uso de médias para a fixação de metas e o cálculo do
desempenho da escola. Pelo fato de a escola poder melhorar suas médias com mais
facilidade mediante atenção especial aos alunos mais capazes, existe o risco de a
escola esquecer-se dos alunos mais atrasados:
Quando a gente vai ler os documentos, percebe que há uma
supervalorização de um ponto na escala. Quando eu super valorizo um
ponto na escala, nem todos os alunos me interessam, me interessam os
alunos que estão próximos de ultrapassar aquele limite e isso tem
consequência. É claro que essa análise ela pode ser uma análise difícil de
ser feita no primeiro ano, é razoável esperar que logo as escolas vão
perceber que isso é a maneira de você ficar bem no indicador. (Especialista:
UFMG)
157
© 2011. Fundação Victor Civita. Todos os direitos reservados.
A Secretaria já percebeu esse problema e pensa resolvê-lo ao criar requisitos para
melhorar a distribuição dos alunos entre as faixas de desempenho, de forma análoga a
de São Paulo e Espírito Santo:
A gente acha que a proficiência às vezes engana um pouco. Porque às vezes
a escola cresce na proficiência média, mas reduz o número de alunos no
nível recomendado, o que não é desejável. Então talvez a gente tenha que
alocar esses dois indicadores. (Técnico: SEE/MG)
Outra possível deficiência diz respeito à dificuldade de a escola entender o cálculo
do porcentual do bônus a que tem direito e a dificuldade de aceitar as diferenças nas
metas de cada escola:
O acordo avalia a escola em relação a ela mesma. Então teve um problema
que no primeiro acordo foi muito claro. A escola que tinha uma proficiência
maior e outra que tinha menor em municípios iguais. Aquela que tinha
proficiência menor tinha um prêmio de produtividade maior por que ela
cresceu mais que a outra escola [...] Então assim ela não entendia e a gente
teve que explicar, olha o acordo compara você com você mesma. (Técnico:
SEE/MG)
O fato de os indicadores estarem relacionados às matérias avaliadas pelo Simave
no 3º, 5º e 9º anos do Ensino Fundamental e 3º ano do Ensino Médio também traz
consequências para a maneira de pensar dos professores de outras matérias e anos.
Mesmo pago a todos os professores da escola, a capacidade de o bônus incentivar os
professores não incluídos nos indicadores deve ser menor, o que abre a possibilidade
do free riding, encontrado na bibliografia:
Muitos funcionários e outros professores de outras matérias não se sentem
parte do acordo de resultados, eles acham que não vão contribuir com
nada, eles têm esse sentimento. Então assim, eles não se sentem parte
desse pacto. Eles recebem o prêmio e "que bom, mais um prêmio", mas eles
não sentem que o seu trabalho foi reconhecido, que a nota que está ali
158
© 2011. Fundação Victor Civita. Todos os direitos reservados.
traduz o trabalho que eles desenvolveram durante aquele ano. Muitos. E eu
acho que eles têm completa razão. (Técnico: SEE/MG)
Apesar das deficiências, tanto os técnicos como os gestores da Secretaria
atribuem uma parte do avanço nos resultados das escolas durante os últimos anos à
incorporação de um regime de metas e incentivos:
Então a escola hoje gosta de receber as metas, ela gosta de trabalhar com
as metas, de ter o caderno dela. [...] Então na verdade quando você vê, por
exemplo, que nós tínhamos uma meta de 74 pra proficiência de
alfabetização [...] e nós atingimos 86, alguma coisa melhorou, alguma
coisa eles estão indo atrás. [...] a gente ainda não sabe qual que é a causa
dessa melhora a gente não sabe. Mas de 74 que era a nossa meta e nós
atingimos 86, é muita coisa, né? (Gestor: SEE/MG)
Pernambuco
O sistema de incentivo salarial introduzido pela Secretaria de Educação de
Pernambuco em 2009 era pensado como um dos elementos de um conjunto de ações
voltados para a revisão da situação funcional e salarial do professor. Entre essas ações,
figurava a reformulação do contrato de trabalho e do plano de carreira de modo que o
professor pudesse se dedicar à docência em uma única escola, em vez de acumular até
70 horas aula/semana em diferentes escolas e redes, como permitido pela legislação
atual. Portanto, o incentivo era visto como um complemento para um salário que já
resolveria as necessidades do professor. Além disso, a visão da Secretaria de
Pernambuco atrelava o aumento salarial da nova carreira a um esquema de supervisão
bem mais rigoroso. O incentivo salarial, pago com base nos resultados da escola, seria
então um dos elementos desse esquema de supervisão:
O professor pode ter 70 horas-aula por semana é uma coisa meio louca,
tem que rever isso. Então nós temos muito claro o que o professor precisa.
O professor precisa ser bem remunerado, ter uma jornada de trabalho
plausível, mas nós sabemos que só isso não basta porque sistemas que
159
© 2011. Fundação Victor Civita. Todos os direitos reservados.
adotaram isso sem um forte sistema de supervisão não funcionam bem. [...]
Então nós acreditamos que é preciso ter um plano de carreira de incentivo,
de salário bom, mas atrelado a isso o sistema de supervisão, de
monitoramento, de aferição de resultados, de atrelar uma parte da
remuneração com esses resultados. Nós estamos caminhando pra isso, até
o final do ano a gente consegue fechar todas essas variáveis, digamos
assim. (Gestora:SEE/PE)
Para enfatizar a política de fixar os professores em uma única escola, o bônus
salarial é pago aos professores que estiveram na escola por um período superior a seis
meses. De forma parecida à de Minas Gerais, o valor do bônus é calculado com base
no percentual de cumprimento da meta fixada para a escola, a partir de 50%. As metas
são determinadas para cada escola com base na faixa de desempenho em que se
encontra – baixo, médio ou alto – de acordo com os resultados do Saepe do ano
anterior.
O que também chama a atenção do sistema de Pernambuco é a maneira de
estipular o valor do bônus pago aos professores. Comum em outros sistemas é o
pagamento a uma proporção fixa de escolas ou, como no Chile, às escolas que
atendem a uma proporção fixa de alunos, no caso 25%. Em Pernambuco, é criado todo
ano um fundo representando a folha de pagamento de um mês, o que permitiria pagar
um bônus equivalente a um salário a todos os professores caso todas as escolas
atingissem 100% da meta. Em 2008, 51,8% das escolas tiveram acesso ao bônus, o que
permitiu pagar 2,4 vezes o salário-base dos beneficiados no caso de escolas que
atingiram 100% da meta. Em 2009, a proporção de escolas atingindo pelo menos 50%
da meta subiu para 82%. Com isso, o fator usado no pagamento do bônus caiu para 1,6
salário nas escolas que alcançaram 100% da meta.
Nesse mesmo ano, a Secretaria estendeu o pagamento do bônus às gerências
regionais com base na média ponderada da taxa de cumprimento das metas das
escolas, sinalizando a responsabilidade também atribuída aos órgãos de apoio e
supervisão, como em Minas Gerais. No próximo passo, pretende-se criar uma
sistemática para o pagamento de bônus aos funcionários do órgão central.
160
© 2011. Fundação Victor Civita. Todos os direitos reservados.
No entanto, o fato de as políticas referentes à nova carreira dos professores não
terem sido implantadas e os salários não terem sido reformulados reduz bastante a
credibilidade da política de incentivos salariais de Pernambuco. Sem essas mudanças,
colocadas como pré-requisitos pela própria Secretaria, será mais penoso cobrar as
atividades esperados pelo sistema de supervisão e mais difícil concretizar os avanços
esperados do sistema de incentivos.
São Paulo
Sendo o sistema estadual de bonificação mais contestado pelos integrantes do
magistério e o que mais aparece no noticiário, a política implantada pela Secretaria de
Educação de São Paulo merece uma discussão mais detalhada. Já foram tratadas as
questões técnicas sobre a fórmula usada para avaliar a qualidade e a equidade da
escola. Nesta seção, precisa-se investigar o status da Bonificação por Desempenho
como o mais problemático dos diversos exemplos em estudo das novas políticas de
incentivos salariais.
O primeiro problema da Bonificação por Desempenho, lançada em maio de 2008,
é que ela tem antecedentes. Entre 2001 e 2006, a Secretaria já pagava um bônus anual
aos professores e diretores. Entre os anos de 2001 e 2003, esse bônus foi calculado de
acordo com a assiduidade média da equipe, o desempenho global da escola, medido
durante o ano escolar anterior através do Saresp, e outros indicadores de qualidade,
principalmente o nível de retenção de alunos pelas escolas. Em 2004, os critérios
foram modificados para, em primeiro lugar, incluir um mínimo de 200 dias de trabalho
efetivo e o desenvolvimento de projetos envolvendo a comunidade da escola, e, em
segundo lugar, para excluir o uso dos resultados de desempenho do Saresp. Em 2006,
o Saresp foi suspenso e os resultados do desempenho dos alunos novamente retirados
do cálculo do bônus. Isso se deveu, em grande medida, à aplicação no ano anterior da
nova Prova Brasil.
A resistência aos bônus anuais pagos pela Secretaria foi contínua. A oposição mais
vociferante, do Sindicato dos Professores do Ensino Oficial do Estado de São Paulo,
161
© 2011. Fundação Victor Civita. Todos os direitos reservados.
expressou uma rejeição à “transferência abusiva da lógica de mercado” para a
Educação (CAVALIERE, 2003) (p.30) e à competição entre as escolas e os diretores das
escolas, que seria fomentada por essa política (CDEP, 2006). Outras críticas tiveram
mais a ver com problemas de trapaças, havendo meios para os professores ajudarem
os alunos a preencher as folhas de respostas ou alterarem as respostas dos alunos,
uma vez que eram os professores que aplicavam e corrigiam as provas. Supostamente
esses casos eram “bem conhecidos” entre os professores das escolas estaduais
(DISSIDÊNCIA, 2006), bem como os problemas burocráticos associados ao cálculo e ao
pagamento individual dos professores. Outro argumento, aparentemente bem
justificado, dizia respeito ao uso de resultados de desempenho médio dos alunos sem
nenhuma tentativa de controlar por diferenças socioeconômicas entre as escolas ou
pelo impacto de diferenças no nível anterior de aprendizagem.
Com a eliminação dos resultados dos alunos, o programa de bônus se tornou mais
uma maneira de justificar um benefício natalino. Porém o uso contínuo de medidas de
assiduidade e até de taxas mínimas de comparecimento em cursos de treinamento
para os professores, tal como incluído entre os critérios de 2005, é uma indicação do
problema perene de absenteísmo e da vontade da Secretaria de cobrar a frequência
dos professores mesmo na ausência de um indicador de qualidade da escola.
Com esses antecedentes, é difícil saber se a resistência atual de uma parte dos
professores se deve mais às cobranças de frequência, ao sistema de avaliação em si ou
aos efeitos negativos provocados pela associação high stakes entre os testes e o
pagamento da bonificação. Há evidências de que ainda há restrições ao Saresp no qual
a bonificação está fundamentada. Sem uma atitude tranquila em relação à
legitimidade e confiabilidade do próprio sistema de avaliação, dificilmente será
recebida de braços abertos uma política alicerçada nesse instrumento. O que se
observa no caso do Saresp são os questionamentos que se arrastam há mais de uma
década e mostram a sobrevivência de resistências que em outros estados já foram
superadas. A forte politização do tema da avaliação, classificada como produto das
reformas neoliberais de recorte gerencialista, e a falta de simpatia do principal
sindicato de professores para a política de avaliação do estado, impulsionado e
162
© 2011. Fundação Victor Civita. Todos os direitos reservados.
consolidado por um governo do PSDB, ajudaram a criar um ambiente ainda um tanto
hostil ao próprio tema da avaliação.
No entanto, os argumentos publicados pela Apeoesp para sua oposição atual à
política de bonificação não incluem nenhuma restrição explícita ao sistema de
avaliação. Os argumentos empregados dizem respeito, primeiro, à falta de “uma
verdadeira política salarial, que assegure reajustes e aumentos reais para todos os
professores, da ativa e aposentados”; segundo, à falta de evidência de que o sistema
de bonificação possa elevar a qualidade do ensino ou o nível de satisfação dos
professores; terceiro, à falta de inclusão de outros fatores, além dos resultados dos
alunos;
e
quarto,
ao
valor
irrisório
do
bônus
pago
(APEOESP,
2011).
Surpreendentemente, as últimas duas críticas apontam para a necessidade de
melhorias na política, e não para sua abolição.
Ao mesmo tempo, o sindicato sinaliza que pretende contestar na Justiça a Lei
Complementar nº 1078/2008 por não ter considerado todas as justificativas de faltas
previstas no Estatuto do Servidor Público do Estado na hora de calcular a bonificação
de cada servidor. A reivindicação da Apeoesp é que a Secretaria deixe de descontar as
faltas que têm justificativa legal. A posição da Secretaria é que a bonificação não é
salário, senão uma forma de premiar os professores e outros servidores que mostrem
dedicação ao deixar de aproveitar todas as faltas que a lei faculta.
O argumento do sindicato de que o sistema de bonificação é incapaz de elevar a
qualidade do ensino deriva de uma leitura sobre a experiência de outros países.
Dependendo da bibliografia consultada, essa leitura fornece uma série de argumentos
sobre os efeitos colaterais dos testes high stakes usados por políticas de
accountability, como os sistemas de incentivos já discutidos na seção 4 deste
documento. Recém-sumarizados pelo Movimento Contra Testes de Alto Impacto em
Educação, criado no âmbito da Anped em 2010, os efeitos colaterais dos testes de alto
impacto (high stakes) incluem a capacidade de falsear os dados das avaliações, induzir
à desonestidade, substituir os esforços de ensino pelo de preparação para testes,
estreitar o currículo e desestruturar os profissionais do magistério, além de provocar
163
© 2011. Fundação Victor Civita. Todos os direitos reservados.
extrema ansiedade em alunos, pais, professores e administradores (MOVIMENTO,
2010).
Além dos possíveis efeitos colaterais negativos, o sindicato pode também apontar
a falta de evidência de um impacto positivo na aprendizagem e até de evidência pelo
contrário. O incentivo pago em 2011 causou constrangimento ao revelar um recuo no
total pago e a queda no número de escolas aptas para receber o bônus, em
comparação com o ano anterior. O valor pago a 190 mil funcionários, de 3.778 escolas
– 75% das 5.019 unidades estaduais – foi de R$ 340 milhões. Em 2010, foram
concedidos R$ 655 milhões. O número de escolas que não receberam o bônus
triplicou. Em 2010, 510 escolas (9,9% do total) ficaram sem a bonificação, enquanto
em 2011 foram 1.474, o que representa 29,1% da rede pública do estado. As causas
principais foram as variações negativas do Saresp entre 2009 e 2010 nos anos finais do
Ensino Fundamental e no Ensino Médio. Com isso, só houve aumento no valor do
Idesp nos anos iniciais do ensino fundamental, que subiu de 3,86 para 3,96, em uma
escala que vai até 10. Nos anos finais do Ensino Fundamental, houve o recuo de 2,84
para 2,52 e, no Ensino Médio, o Idesp caiu de 1,98, em 2009, para 1,81.
6.5.2
Discussão
Para alguns especialistas ligados à universidade, a queda na bonificação de São
Paulo permite inferir que a política como um todo é um fracasso e que não são os
incentivos financeiros que motivam os professores (O Globo, 23/4/2011). No entanto,
as atitudes ainda favoráveis entre os gestores dessa mesma política em outros estados
e o interesse de estados como Pará em experimentar com o pagamento de bônus (O
Liberal, PA, 3/4/2011) podem sugerir que o impacto depende do contexto, das
relações entre as partes e também de uma continuidade maior no período de
aplicação da política. A literatura também recomenda cautela antes de chegar a
conclusões gerais, devido à grande diversidade na configuração das políticas de
incentivos e nos resultados alcançados.
164
© 2011. Fundação Victor Civita. Todos os direitos reservados.
De toda forma, observa-se a necessidade de clareza maior sobre o tipo de impacto
desejado pelos sistemas de incentivos brasileiros. A falta de evidência de que o prêmio
incentive o professor a procurar se capacitar ou modificar sua prática de ensino impõe
a necessidade de explicitar que o propósito seja muito mais do que bonificar a
assiduidade. Nesse caso, talvez nem precisasse de indicadores de aprendizagem.
Outros usos de incentivos, como para trazer professores para áreas menos atraentes,
como é o caso das escolas rurais, ou para atrair professores para disciplinas
curriculares em que há falta de professores, ainda não constam do elenco de políticas
dos governos estaduais, mesmo havendo uma conexão bem mais clara entre o
pagamento de bônus para essas finalidades e os resultados alcançados.
Do ponto de vista das metodologias usadas, é inegável que as políticas de
incentivos de segunda geração, que utilizam indicadores de desempenho construídos
de diversos elementos para levar em consideração o fluxo, o nível socioeconômico dos
alunos, o esforço da escola, a distribuição dos alunos por faixa de desempenho etc. são
mais sólidas e confiáveis do que seus antecessores. No entanto, até a construção de
indicadores que levem em consideração o valor agregado e que permitam a avaliação
da escola ao longo de um período de anos, sempre haverá dúvidas sobre a influência
de movimentos aleatórios no desempenho dos alunos. Os resultados da Escola Nota
10 do Ceará, em que a metade das escolas premiadas em 2009 não conseguiu mostrar
o mesmo desempenho no ano seguinte, leva a crer que uma parte dos prêmios se
deve a flutuações aleatórias. O fato de algumas das escolas identificadas como de
desempenho mais baixo em 2009 conseguirem melhorar, a ponto de receberem
prêmios como escolas nota 10 no ano seguinte, também levanta suspeitas sérias.
Dificilmente uma escola pode cumprir essa trajetória em um único ano escolar, mesmo
com a assistência técnica de uma escola de excelência.
O estudo da implantação e dos primeiros passos da nova geração de políticas de
incentivos salariais não foi capaz de mostrar sinais claros de benefícios em termos dos
resultados dos alunos. Pelo contrário, os resultados do sistema de bonificação de São
Paulo de 2010, em que o número de professores beneficiados e o volume pago de
165
© 2011. Fundação Victor Civita. Todos os direitos reservados.
bônus foram menores que em 2009, sugere que o sistema de bonificação não é uma
ação suficiente para promover a melhoria dos resultados dos alunos em curto prazo.
Também não há evidências seguras de que os sistemas de incentivos causem os
danos colaterais da gravidade sugerida pelos críticos da política. Há razões para
acreditar que, no caso brasileiro, esses danos colaterais talvez não sejam tão graves
justamente pela natureza da política de responsabilização em jogo. Onde a
responsabilização traz possíveis consequências muito negativas para os professores,
incluindo o fechamento da escola e a consequente perda de emprego, o nível do risco
de não se alcançar a meta é muito alto, o que pode provocar os comportamentos
vistos como destrutivos tanto ética quanto pedagogicamente. Por outro lado, quando
a política de responsabilização se fixa no pagamento de prêmios de bonificação que
possam atingir até a maioria dos professores, a única consequência negativa da
política é o não-recebimento do bônus. Em um regime em que o nível salarial dos
professores é considerado adequado, com no caso de Espírito Santo, o nãorecebimento do bônus pode ser encarado com maior tranquilidade.
Os embates ideológicos que caracterizam o campo, e que também explicam por
que a bibliografia continua incapaz de decantar algum consenso, indica que a
formulação de novas políticas e a reformulação de políticas existentes será mais uma
questão de fé do que de ciência. Sendo assim, me permito duas suposições. A primeira
é que, quanto mais se avança no sistema em termos do ano escolar e idade dos alunos,
maior a dificuldade em relacionar a atuação dos professores aos resultados dos alunos
e mais tênues os sistemas de incentivos. Por isso, será sempre mais difícil criar prêmios
que façam sentido para os professores do Ensino Médio ou os últimos anos do Ensino
Fundamental. Pelo mesmo raciocínio, será mais provável encontrar evidência de algum
impacto de um sistema de premiação nos primeiros anos do Ensino Fundamental.
Nesses anos, é mais fácil o professor sentir que sua atuação fará alguma diferença no
nível de desempenho absoluto dos alunos.
A segunda suposição é que, quanto menor o piso salarial e maior a insatisfação
dos professores com seus salários, menor a probabilidade de o incentivo salarial
produzir os efeitos desejados. Enquanto o incentivo seja visto com um remendo ou
166
© 2011. Fundação Victor Civita. Todos os direitos reservados.
uma tentativa disfarçada de oferecer o salário que o professor reivindica, a sua lógica
como prêmio fica prejudicada, e sua capacidade de provocar o tipo de atuação
colaborativa pretendida, ainda mais remota. Isso significa que não é propriamente o
tamanho do incentivo que faz a diferença, senão a distância entre o salário recebido e
o salário visto como merecido. Independentemente do nível salarial efetivamente
recebido, o fato de os professores de Espírito Santo estarem mais satisfeitos com seus
contracheques proporcionará um futuro mais promissor à política de incentivo
naquele estado do que em São Paulo.
167
© 2011. Fundação Victor Civita. Todos os direitos reservados.
6.6
Como Componente da Política de Avaliação Docente
O sistema de avaliação docente implantado no Chile em 2004 e extensivo a todos
os professores de sala de aula das escolas públicas municipais faz uso de informações
de quatro fontes sobre a prática do professor. A planilha de autoavaliação conta 10%
da nota final, o portfólio organizado pelo próprio docente conta 60%, a entrevista com
um “professor avaliador”, 20%, e o informe fornecido pelo superior hierárquico os 10%
restantes. Ou seja, mesmo no país que foi pioneiro na implantação de um sistema de
avaliação escolar baseado nos resultados dos alunos, não há previsão para o uso desse
tipo de informação na avaliação de desempenho individual a que são submetidos os
professores chilenos para efeitos de classificação de competência.
A razão por essa restrição no uso dos resultados dos alunos tem relação com duas
características fundamentais das informações produzidas pelos sistemas de avaliação
externa. A primeira é a sua incapacidade de mostrar o quanto o rendimento dos
alunos em determinada disciplina e ano se deve à atuação do seu professor. Sem
tomar em consideração o ponto de partida dos alunos que compõem a turma do
professor, não é legitimo atribuir o ponto de chegada ao esforço e à competência dele.
Quanto mais alta a série escolar, mais o desempenho do aluno se deve a seus
professores e a suas experiências em anos anteriores. E, em um sistema educacional
que atende a alunos de diversas origens sociais, o uso de informação sobre a
proficiência dos alunos para medir o desempenho individual do docente pode levar a
classificações que devem muito mais às características dos alunos do que às dos
professores.
A segunda característica, já discutida em relação aos incentivos salariais, é que os
sistemas de avaliação externa nunca aplicam testes para todas as disciplinas a todos os
alunos em todos os anos. Isso significa que não há informação de desempenho dos
alunos para todos os professores. Tipicamente os professores das disciplinas ligadas às
artes e esporte são excluídos, como são os professores das outras disciplinas nas séries
intermediárias. Ao mesmo tempo, a pesquisa sobre eficácia escolar mostra que o
168
© 2011. Fundação Victor Civita. Todos os direitos reservados.
desempenho dos alunos é influenciado por diversos outros fatores escolares, além do
professor, que incluem a qualidade dos materiais curriculares, o tamanho da turma, o
clima da escola e outras condições que afetam a aprendizagem. Em escolas que
prezam a colaboração entre os professores, atribuir o desempenho acadêmico dos
alunos em determinada disciplina a um único professor, mesmo que seja o responsável
pela disciplina, também pode levar a erros.
Para tentar evitar esses problemas, e produzir uma medida que capte de maneira
mais fidedigna a contribuição do professor para a aprendizagem dos alunos, vários
estados norte-americanos têm empregado modelos estatísticos de valor agregado (VA)
para mostrar o crescimento do desempenho em determinado ano escolar mediante a
comparação de duas avaliações (BAKER et al., 2010; GLAZERMAN et al., 2010). Em
resposta à falta de eficácia das políticas tradicionais e incentivada pelo governo
Obama, muitos estados estão começando a determinar não só o pagamento de
professores individuais com base nessas medidas do valor agregado aos resultados dos
alunos mas também a sua situação funcional, incluindo a continuidade dos seus
contratos. Há a esperança nesses lugares de que os incentivos tornem os professores
mais eficazes e os professores menos eficazes deixem a profissão.
O problema é que nem os modelos VA resolvem as dificuldades metodológicas.
Por exemplo, as estimativas da produtividade ou eficácia dos professores usando VA se
mostram muito instáveis. Dependendo do ano, da turma estudada ou do modelo
estatístico usado, a classificação do professor pode variar significativamente. Um
estudo em cinco distritos escolares urbanos em San Diego, Califórnia, mostra que, dos
20% de professores classificados como os mais eficazes no primeiro ano, menos de um
terço estava no mesmo grupo no segundo ano e outro terço estava no grupo dos 40%
menos eficazes (KOEDEL; BETTS, 2007). Outro estudo que correlacionou os VAs de dois
anos seguidos de professores na Flórida encontrou índices de correlação muito
modestos entre 0,2 e 0,3 (SASS, 2008). Ambos os resultados contrariam a ideia de que
a qualidade ou a eficácia do professor sejam uma característica que muda pouco com
o tempo.
169
© 2011. Fundação Victor Civita. Todos os direitos reservados.
Nesses casos, a instabilidade seria consequência de mudanças nas características
das turmas e outros fatores dentro e fora da escola que influenciam a aprendizagem
dos alunos. Mesmo quando são empregados métodos para ajustar por diferenças nas
características demográficas e econômicas dos alunos e nas condições das escolas, os
professores de alunos de nível socioeconômico mais baixo recebem classificações mais
baixas. Portanto, a distribuição não aleatória de alunos entre escolas e professores e a
grande variação na experiência dos alunos em casa e na escola significa que não há
como comparar o mérito dos professores com base nos resultados das suas turmas,
mesmo quando se usam modelos que supostamente controlam características dos
alunos.
Faz sentido, portanto, que não haja quase registro no Brasil de uso de resultados
de avaliações externas para organizar políticas de incentivo salarial que façam
distinções entre os professores de uma mesma escola e muito menos para tomar
decisões sobre a situação funcional dos professores. As únicas exceções são o sistema
de avaliação de desempenho individual de Minas Gerais e uma política de curta
duração do Distrito Federal para decidir sobre a recondução de diretores escolares
com base na média de desempenho da escola.
No caso do Distrito Federal, o uso da média da escola no Siade foi uma decisão ad
hoc para facilitar a recondução de uma parte dos diretores e vice-diretores de escola.
As equipes gestoras eleitas em 2007 que ainda permaneciam em seus cargos poderiam
ganhar mais dois anos de mandato em 2009 se as comunidades escolares os
reelegessem. Para isso, as escolas dirigidas por elas precisavam ter um bom
desempenho do Siade 2009, realizado em outubro desse ano. Se o desempenho dos
alunos não fosse melhor em relação aos resultados de 2008, essas equipes
obrigatoriamente teriam que participar de novo processo seletivo no final de 2010.
Caso os índices fossem alcançados, a equipe poderia permanecer na direção da escola
por mais dois anos. Portanto, os resultados dos alunos foi um critério definitivo para
determinar a duração do período de gestão do diretor.
A partir da implantação em 2009 de um sistema de Avaliação da Gestão
Compartilhada e da Gestão Escolar Regimental, como parte do sistema de avaliação
170
© 2011. Fundação Victor Civita. Todos os direitos reservados.
das instituições educacionais do DF, a Secretaria fica de posse de checklist extenso de
indicadores sobre o funcionamento de todas as escolas com base nas informações
prestadas online pelos diretores. Esses indicadores vão desde a implantação da
proposta pedagógica da escola até os processos participativos das instancias
colegiadas, passando por uma bateria de “parâmetros para a gestão compartilhada e
desempenho escolar”. Nessa última categoria, estão incluídas as taxas de aprovação,
promoção, evasão, distorção idade-série e também a variação do Ideb de 4ª e 8ª séries
e a relação entre a avaliação escolar dos alunos e a avaliação do Siade (indicador
2B23). A presença desses indicadores sinaliza a importância dos resultados no
conjunto de critérios da boa gestão e provavelmente dispensa o uso da média no Siade
em decisões futuras sobre a recondução da equipe escolar.
No caso de Minas Gerais, por outro lado, o uso de informação sobre o
desempenho dos alunos na avaliação anual dos docentes tem todas as características
de uma política permanente. Mesmo sendo só mais uma informação entre muitas nas
mãos dos avaliadores, valendo no máximo 10% no conjunto de critérios empregados,
fica evidenciado o interesse das autoridades em colocar o foco nos resultados e
responsabilizar os professores pela aprendizagem dos alunos.
A Avaliação de Desempenho Individual (ADI) é realizada todo ano por uma
comissão avaliadora de cinco integrantes. Os avaliadores levam em consideração cinco
critérios ao analisar o professor regente, como mostrado no Quadro 2.:
Desenvolvimento
Profissional,
Relacionamento
Interpessoal,
Compromissos
Profissional e Institucional e Habilidades Técnicas e Profissionais. Cada critério é
composto de dois a nove indicadores, tendo peso 1 ou 2, o que permite aumentar ou
diminuir a relevância do indicador na composição da pontuação final. O último
indicador do quarto critério especifica que “[O professor] obtém bons resultados de
aprendizagem de seus alunos evidenciados pelas avaliações internas, realizadas pela
escola, e por avaliações externas”. Valendo até 5 pontos, mas com peso 2, esse
indicador pode contribuir com até 10% da pontuação total do professor, dependendo
da opinião dos avaliadores.
171
© 2011. Fundação Victor Civita. Todos os direitos reservados.
Essa avaliação é high stakes para o professor, na medida em que a progressão
horizontal ou vertical na carreira só é permitida para quem recebeu uma avaliação
igual ou superior a 70%. Por exemplo, quem obteve um diploma de pós-graduação,
mas não atingiu a nota mínima no ADI, fica impedido de ocupar o nível correspondente
ao novo título. E, com duas avaliações seguidas inferiores a 70% ou com quatro em
dez avaliações abaixo desse limite, o professor é exonerado do cargo. Até o presente,
mais de 400 professores já foram exonerados por esse motivo.
Esse sistema de avaliação docente formaliza um critério usado pela Secretaria
cinco anos atrás para exonerar um número grande de professores alfabetizadores.
Uma resolução publicada em 2006 impediu a renovação dos contratos de professores
eventuais em escolas com mais de 30% de alunos não alfabetizados de acordo com a
avaliação do Proalfa. O gestor responsável pela política não tem dúvida de que levar
em consideração os resultados dos alunos na hora da avaliação individual contribui
para incentivar os professores:
O resultado do aluno é o negócio que mais pesa na pontuação e tem várias
fontes. A comissão pode olhar várias coisas e o professor pode dar a sua
explicação. [...] Onde tem Proeb [...] e Paae que são do Estado [a comissão]
pode olhar esses resultados todos. [...] E o que quê isso tem a ver com
estímulo? Tem a ver o seguinte; a condição para você ser promovido na
carreira é que você tem avaliação de desempenho positivo. (Gestor;
SEE/MG)
Uma gestora da Secretaria de Educação de Pernambuco mostrou entusiasmo com
uma política de avaliação docente para efeitos de promoção na carreira que também
incorpora critérios relacionados ao desempenho dos alunos:
[...] vai ter [...] um sistema de informação. Ele vai ser em cima do resultado
do aluno, do tempo de ensino, do cumprimento do programa de ensino e
do resultado do Saepe. [...] o projeto já está desenhado. E por sua vez o
plano de carreira vai prever, porque ele já prevê avaliação de desempenho.
A avaliação de desempenho vai ter também um link com o resultado do
172
© 2011. Fundação Victor Civita. Todos os direitos reservados.
desempenho do aluno. Tudo nosso é em função do desempenho do aluno.
(Gestora: SEE/PE)
A política ainda não foi implantada e não se sabe se haverá tentativas por parte da
Secretaria de Pernambuco de incorporar medidas de valor agregado para torná-la mais
palatável. Mesmo nesse caso, se existe qualquer reflexão por parte dos professores
sobre as imprecisões e instabilidades inerentes à avaliação docente, pode-se prever
um grau merecido de resistência à nova política.
173
© 2011. Fundação Victor Civita. Todos os direitos reservados.
Quadro 2. Ficha de Avaliação Individual. Secretaria de Educação de Minas Gerais
ESTADO DE MINAS GERAIS
SECRETARIA DE ESTADO DE EDUCAÇÃO
TERMO DE AVALIAÇÃO - PARTE II
ANEXO V - INSTRUMENTO DE AVALIAÇÃO
Servidor: ______________________________________________ Masp: _________
Cargo/Disciplina: ________________________________________ Nº adm.: ________
Escola Estadual:________________________________________ Cód.: _________
Lotação _________________________Período/Etapa: ___/___/____ a ___/___/____
Cargo: Professor da Educação Básica – PEB
1 a 5 pts.
CRITÉRIO I - DESENVOLVIMENTO PROFISSIONAL
Participa de grupos de estudos, reuniões pedagógicas, cursos, eventos e palestras disponibilizados pelo sistema; estuda e se
1
orienta pelos materiais institucionais da SEE e outros.
2
Compartilha conhecimentos, informações, dificuldades, soluções e práticas exitosas que agregam valor ao trabalho.
Peso
Total
2
1
SUBTOTAL - 15 pontos
174
© 2011. Fundação Victor Civita. Todos os direitos reservados.
CRITÉRIO II - RELACIONAMENTO INTERPESSOAL
1 a 5 pts.
Peso
Total
Relaciona-se cordialmente com todos do seu ambiente de trabalho e com o público em geral, cumpre as normas legais e as
1
decisões pactuadas ou emanadas das instâncias hierárquicas, agindo segundo os princípios éticos que norteiam a administração
1
pública.
Respeita a diversidade, adotando práticas inclusivas e éticas no relacionamento com a comunidade e com os alunos em sala de
2
1
aula.
Participa do trabalho de equipe e das ações da escola que envolvem interação com as famílias e alunos, contribuindo para o
3
1
desenvolvimento das atividades de aprendizagem, recreação e convivência.
SUBTOTAL - 15 pontos
CRITÉRIO III - COMPROMISSOS PROFISSIONAL E INSTITUCIONAL
1 a 5 pts.
Peso
Total
Cumpre com responsabilidade suas atribuições e atende as normas da administração pública relativas à assiduidade e
1
2
pontualidade.
2
Participa de projetos e ações coletivas e da realização das avaliações internas e externas da aprendizagem dos alunos.
1
3
Zela pela conservação de todo o patrimônio público da instituição.
1
SUBTOTAL - 20 pontos
CRITÉRIO IV - HABILIDADES TÉCNICAS E PROFISSIONAIS
1 a 5 pts.
Peso
Total
Planeja seu trabalho, participa da construção do Projeto Pedagógico da escola, elabora e executa o planejamento didático anual e
1
1
planos de aulas observando as diretrizes curriculares estaduais.
Analisa e utiliza os resultados de avaliações internas e externas para diagnosticar os níveis de aprendizagem dos alunos, avaliar a
2
1
eficácia do ensino e implementar intervenções pedagógicas, quando necessário.
175
© 2011. Fundação Victor Civita. Todos os direitos reservados.
Facilita a aprendizagem utilizando materiais didáticos e processos pedagógicos que estimulam e desafiam os alunos na superação
3
1
das dificuldades.
Apresenta aos pais ou responsáveis os resultados das avaliações de aprendizagem e os indicadores do desenvolvimento do aluno
4
1
e busca caminhos para superar dificuldades identificadas.
Desenvolve eficiente gestão de sala de aula, cria ambiente propício ao desenvolvimento da aprendizagem e de relações humanas
5
saudáveis, orienta os alunos quanto à necessidade de organização, limpeza e conservação dos equipamentos, mobiliário e do
1
prédio escolar.
Cria novas oportunidades de aprendizagens e avaliações para os alunos com desempenho insatisfatório, para que todos possam
6
1
aprender efetivamente o que foi ensinado.
Compromete-se com a aprendizagem de todos os seus alunos, esclarecendo dúvidas, orientando e corrigindo, individual e
7
1
coletivamente, os trabalhos escolares e deveres de casa e presta atendimento diferenciado aos alunos com mais dificuldades.
Apresenta atitude positiva em relação à capacidade de aprendizagem dos alunos e é capaz de reconhecer talentos e de promover
8
1
o desenvolvimento da autoconfiança e autoestima.
Obtém bons resultados de aprendizagem de seus alunos evidenciados pelas avaliações internas, realizadas pela escola, e por
9
2
avaliações externas.
SUBTOTAL - 50 pontos
PONTUAÇÃO TOTAL
176
© 2011. Fundação Victor Civita. Todos os direitos reservados.
6.7
Para a Certificação de Alunos e Escolas
Diferentemente de outros países, os responsáveis pela criação dos sistemas
estaduais de avaliação não cogitam usar os resultados como um critério para a
aprovação dos alunos. Mesmo na série final do Ensino Médio, quando os alunos
concluem o ensino básico e saem do âmbito do sistema estadual de ensino, a
aprovação dos alunos é determinada exclusivamente pela escola, com base em
avaliações realizadas pelos professores.
Em outros países, é comum o emprego de avaliações externas para decidir se o
aluno está apto para receber o diploma de Ensino Médio ou dar nota de acordo com o
nível de aprendizagem alcançado nas diferentes matérias que compõem o currículo
nesse nível de ensino. A vantagem sempre citada para a criação de parâmetros
externos para a avaliação dos alunos diz respeito ao estabelecimento de um padrão
único e a garantia de equivalência do significado do diploma em diferentes lugares e
tempos. Na ausência desse padrão, podem existir diferenças significativas entre os
critérios de diferentes escolas e entre os critérios da mesma escola em diferentes
anos. As autoridades ficam sem parâmetro para a comparação das escolas e as escolas
sem uma medida clara dos seus resultados. Os esforços recentes de promover
mudanças na qualidade da Educação tanto nos Estados Unidos como na Inglaterra têm
como critério-chave os resultados das escolas calculados baseados nas taxas de
diplomação dos alunos ou nas notas dos alunos nas matérias que compõem o
certificado de Ensino Médio. Nesses países, o aluno se submete as avaliações externas
por ser o único meio de garantir o diploma ou certificado de Ensino Médio e de se
habilitar para o processo de seleção ao Ensino Superior.
Há diversas razões históricas e estruturais para a não-utilização dos sistemas
estaduais de avaliação implantados a partir da década de 1990 para a certificação de
alunos ao final do Ensino Médio, incluindo a autonomia dos sistemas estaduais e
municipais e a autonomia das próprias escolas. Há também restrições de natureza
mais técnica devido à incapacidade dos instrumentos de avaliação externa usados
nesses sistemas de oferecer uma visão completa do rendimento de cada aluno. Sem
177
© 2011. Fundação Victor Civita. Todos os direitos reservados.
um instrumento de avaliação capaz de aferir o nível alcançado por cada aluno em cada
uma das competências e habilidades que compõem o currículo do Ensino Médio,
torna-se indispensável o processo avaliativo interno respaldado pelo conhecimento do
aluno pelos seus professores.
Nos primeiros anos de escolarização, a restrição ao uso da avaliação externa pode
ser superada pelo fato de o currículo para esse período ainda ser pouco extenso. Na
medida em que o aluno progride dentro do sistema, a aprendizagem se torna cada vez
mais abrangente, ficando cada vez mais difícil captá-la com um único instrumento de
avaliação. A matriz de referência para cada área curricular vai aumentando com o
acréscimo de novos elementos e o aprofundamento dos elementos já introduzidos.
Por esse motivo, a partir da 4ª série, os sistemas de avaliação do Saeb e dos estados
trabalham com diversas versões paralelas do mesmo teste, compostas por itens
diferentes, mas equivalentes. Com a aplicação dos diferentes testes a diferentes
subconjuntos de alunos da mesma série, consegue-se aplicar um número maior de
itens e abraçar uma parte maior do currículo. Quando somados os resultados dos
diferentes subconjuntos, obtém-se um panorama da situação de toda a população de
alunos sem ter exigido demais de cada aluno. Se fosse para aplicar ao mesmo aluno
todas as questões necessárias para cobrir o currículo, o teste se tornaria extenso
demais, inviabilizando sua aplicação em um único período escolar.
O único caso em que foram usados os resultados de uma avaliação externa para
determinar a progressão de alunos individuais foi em São Paulo no ano de 2001. Nesse
caso, porém, não foram os alunos do final do Ensino Médio, mas alunos de 4ª e 8ª
séries que foram promovidos ou retidos com base nos resultados do Saresp. A
experiência foi polêmica por diversas razões, incluindo o problema de usar um
instrumento não desenhado para a avaliação de indivíduos. Outro problema foi o fato
de os alunos não saberem de antemão que os resultados seriam usados com essa
finalidade. Pelo fato de o Saresp ser um instrumento de monitoramento, sem
consequências para os alunos, estes nem sempre levam os testes a sério e podem ter
sido prejudicados na ocasião por não responderem às questões com o devido cuidado.
178
© 2011. Fundação Victor Civita. Todos os direitos reservados.
A criação e a consolidação do Enem como um exame certificador para os alunos
que querem continuar seus estudos mostram que algumas das restrições históricas
sobre a avaliação externa ao final do Ensino Médio foram superadas. Ao mesmo
tempo, o Enem mostra que, quando a matriz de referência da prova é definida mais
com base em competências e menos em termos de conhecimentos curriculares, é
possível criar um instrumento capaz de medir o nível alcançado por cada aluno. O que
o Enem nunca fornecerá é uma medida da qualidade da escola onde os alunos
estudaram. Apesar de ser muito usada com essa finalidade, a média dos resultados dos
alunos de determinada escola não indica a qualidade da escola porque os alunos que
fazem a prova não representam nem a totalidade nem uma amostra representativa
dos egressos daquela instituição. A falta de correspondência exata entre a matriz de
referência e o currículo das escolas e o fato de estas atenderem a populações bastante
diferenciadas seriam outras razões para não confiarem nos resultados do Enem como
um indicador de qualidade da instituição.
A única avaliação externa em condições de fornecer essa indicação, após
modificações, seria a avaliação estadual. Por enquanto, porém, ainda não há sinal de
interesse nesse sentido por parte dos gestores estaduais. As mudanças necessárias
seriam bastante radicais, incluindo a reformulação da legislação sobre a organização
do ensino para permitir a exigência de nota mínima na avaliação estadual para a
finalização do Ensino Médio. Com os problemas atuais de fluxo nesse nível de ensino,
representados pelas altas taxas de abandono, dificilmente um gestor criaria mais
algum impedimento à finalização do curso e à diplomação do aluno. A necessidade de
reorganizar a matriz de referência do 3º ano e seu impacto sobre o currículo dos anos
anteriores também representariam um desafio difícil de superar, a não ser mediante a
utilização de provas anuais ao longo do Ensino Médio. Mas, dadas as grandes
disparidades de qualidade no interior dos sistemas e as diferenças entre as escolas
públicas e privadas, mesmo esta solução seria pouco atrativa por deixar em evidência a
grande desvantagem educacional de alunos mais desfavorecidos, do ponto de vista da
origem social e econômica. Até o sistema implantar uma qualidade de ensino mais
homogênea e oferecer oportunidades reais de avanço aos alunos mais pobres, uma
179
© 2011. Fundação Victor Civita. Todos os direitos reservados.
avaliação
estadual
seletiva,
com
funções
certificatórias,
seria
considerada
extremamente antidemocrática.
O único exemplo encontrado de uso dos resultados dos alunos para efeitos de
certificação não trata de decisões sobre alunos, mas sobre escolas, no caso as escolas
privadas do Distrito Federal. Essa situação se deriva do fato da Secretaria de Educação
do DF ser o órgão responsável pela autorização de funcionamento das escolas privadas
e pela sua recertificação como estando aptas para continuarem em funcionamento
depois de cinco a dez anos, dependendo do tipo de escola. No ano anterior ao
vencimento da sua autorização, as escolas privadas candidatas à recertificação são
automaticamente inscritas entre as escolas a serem avaliadas pelo Siade. Outras
escolas privadas podem se inscrever voluntariamente para essa mesma avaliação
mediante o pagamento dos custos. A ideia da Secretaria era comparar os resultados da
escola privada durante dois anos seguidos para determinar se ela mantinha o mesmo
nível de qualidade:
Quando ela for recredenciar, ela vai ser avaliada antes para [poder]
comparar se ela melhorou mesmo ou não, até para dizer se ela vai ser
recredenciada ou não, em cima de um resultado do Siade. (Técnico:
SEE/DF)
Não havia informações disponíveis para verificar o impacto dessa política em
termos do número de escolas privadas avaliadas nem se havia escolas impedidas de
funcionarem com base nos seus resultados. Suspeita-se que a política foi divulgada
mais para alertar as escolas privadas do interesse da Secretaria em promover a
melhoria dos resultados do que para fechar escolas com crescimento de desempenho
aparentemente insatisfatório. Essa conclusão deriva do fato de que tomar a decisão
sobre o funcionamento de uma escola com base no crescimento da média dos alunos
para um único ano escolar seria uma temeridade. Por não levar em consideração as
flutuações naturais nessa média, nem as taxas diferenciadas de crescimento de acordo
com o nível absoluto de desempenho da escola, a medida não oferece o rigor
necessário para uma decisão high stakes de tamanha importância.
180
© 2011. Fundação Victor Civita. Todos os direitos reservados.
181
© 2011. Fundação Victor Civita. Todos os direitos reservados.
7.
Considerações Finais
O estudo teve como propósito descrever e refletir sobre as diferentes políticas de
gestão empreendidas pelas Secretarias de Educação dos estados e dos municípios
maiores com base em seus sistemas próprios de avaliação educacional. Para essa
finalidade, foi elaborado um esquema classificatório e foram levantadas informações
primárias e secundárias sobre diversos exemplos para permitir uma discussão dos
prováveis impactos dessas políticas no novo cenário da gestão educacional.
A primeira constatação da pesquisa é da diversificação e progressiva sofisticação
nas metodologias empregadas pelas secretarias estaduais e municipais na utilização
dos resultados das avaliações para a tomada de decisões. O aumento no número e na
competência técnica dos métodos dos sistemas estaduais, concomitante com a
melhoria nos sistemas de informação, tem contribuído para essa disseminação. Outras
contribuições advêm da incorporação pelos governos estaduais de um novo modelo de
gestão pública, voltado para o controle dos resultados dos serviços oferecidos à
população, e da liderança do MEC e de organizações da sociedade civil na criação de
um consenso nacional sobre a importância dos resultados das avaliações externas
como uma medida da qualidade do ensino e como parâmetro para o progresso da
Educação brasileira em direção a uma equiparação com os países desenvolvidos. A
criação de um indicador próprio, tipo Ideb, por um número cada vez maior de estados,
é indicativo dessa nova abordagem para a política de monitoramento dos serviços
públicos e da disposição de empregar os resultados da avaliação na formulação de
novas políticas, como a da responsabilização. Nesse novo contexto, não surpreende
descobrir que em 2007 quase 60% de uma amostra da população da periferia de São
Paulo já tinha conhecimento da existência do Saresp (OLIVEIRA; GUEDES, 2010).
Confirmando a diversificação nos usos da avaliação, foram identificadas sete
categorias de políticas de gestão que se fundamentam nos resultados dos alunos e das
escolas. Na maioria dos casos, e em determinadas condições, essas políticas podem ser
entendidas como contribuições importantes para a melhoria da qualidade da
Educação. Em outros casos, porém, notadamente no uso dos resultados dos alunos
182
© 2011. Fundação Victor Civita. Todos os direitos reservados.
como um componente da política de avaliação docente e para a certificação de alunos
e escolas, observa-se o emprego desavisado das avaliações para a tomada de decisões
que precisam de informações bem mais confiáveis e de fontes diversas.
A discussão sobre o uso da avaliação para formular políticas de responsabilização
high stakes mostra a necessidade de fazer distinções entre o contexto educacional
brasileiro e o contexto dos países onde foi realizada a maior parte das pesquisas sobre
os efeitos dessas políticas. A primeira distinção a fazer é que nos outros países os
critérios usados para determinar a qualidade da escola e, com base nessa avaliação,
fixar consequências como o pagamento de bônus salarial, podem ser de vários tipos.
Nos Estados Unidos estes incluem o progresso da escola de acordo com as metas
estaduais e as ameaças de sanções estipuladas pela legislação NCLB, e também os
resultados dos alunos em termos de desempenho e taxa de diplomação ao final do
Ensino Médio. Essa diplomação representa uma conquista para os egressos do Ensino
Médio que vai determinar o curso de sua vida futura e não é difícil imaginar o
empenho dos professores em elevar as chances de seus alunos de passarem nos
Exames Obrigatórios de Saída de Ensino Médio (Mandatory High School Exit Exams). O
interesse dos pais e das autoridades educacionais também é intenso, sobretudo depois
do monitoramento público dos resultados das escolas. O professor pode enxergar na
taxa de sucesso dos seus alunos a medida de sua própria capacidade profissional, além
de se sentir pessoalmente responsável caso os resultados não forem os melhores.
No contexto norte-americano, as consequências caso a escola não alcance as
metas propostas também podem ser extremas. Com uma legislação federal que exige
que cada escola demonstre um progresso anual adequado em direção às metas
estipuladas para o ano 2014 para todos os grupos étnicos e uma legislação estadual
que pode determinar a remoção de alunos e até o fechamento de escolas caso o
progresso não se materializar, os professores têm motivos de sobra para se preocupar
com os resultados dos alunos.
Nesse contexto e sob essa pressão, é possível que aconteça tudo aquilo que os
críticos da accountability high stakes arrolam como os efeitos colaterais negativos. A
literatura fala do estreitamento do currículo, do ensino voltado para o ensaio de
183
© 2011. Fundação Victor Civita. Todos os direitos reservados.
conteúdos previstos para os testes, da perda da autonomia e do espírito de
colaboração entre docentes e de condutas, incluindo as tentativas de falsear os dados
das avaliações, que mostram uma deturpação do comportamento ético esperado dos
educadores. Mas, pelas pressões a que estão sujeitos e por agirem na condição de
pessoas que podem fazer a diferença para a vida dos alunos, é difícil culpar os
professores pelas atitudes tomadas.
No contexto brasileiro, as políticas de responsabilização que recaem nos ombros
dos professores não dizem respeito ao futuro de seus alunos e não envolvem os pais.
Também não há riscos para as escolas que envolvem o fechamento de
estabelecimentos e a perda de emprego dos membros da equipe. Nas palavras de
Afonso, são “formas parcelares de accountability” e, portanto, incompletas (AFONSO,
2009). Não deixa de ser verdade que, quanto melhores os resultados dos alunos,
melhores suas chances na vida, mas essa equação não tem a mesma urgência em um
sistema que diploma todos os alunos que sobrevivem até o final do ciclo e que jamais
discriminaria as escolas com os piores resultados. No caso brasileiro, as avaliações dos
alunos que são usadas para determinar se as escolas cumpriram suas metas ou
alcançaram um patamar de desempenho considerado satisfatório representam muito
pouco para os alunos. Pelo contrário, há evidências de que os alunos fazem tão pouco
caso dos testes que, quando se criam consequências, como os laptops e as bicicletas
para os alunos de Ensino Médio do Ceará e do Rio de Janeiro, respectivamente, a
mudança no empenho dos alunos é tão radical que altera por completo a base de
comparação. Nessa situação, o professor não assimila o drama dos alunos nem
consegue transferir para eles a sua preocupação em relação aos resultados dos testes.
O que está em jogo nesses casos não são as consequências para os sujeitos principais
da Educação, os alunos, mas o nível de recompensa dos professores. Em vez de ser a
própria definição do objeto de seu trabalho, pelas consequências para os alunos, a
motivação para a melhoria nos resultados se torna uma decorrência do nível de
preocupação do professor em melhorar seu salário.
Talvez por esse motivo, ainda não existam evidências claras para os efeitos
negativos das políticas de responsabilização no Brasil. Também não há evidências, a
184
© 2011. Fundação Victor Civita. Todos os direitos reservados.
não serem anedotas, que os incentivos efetivamente motivam os professores a
produzirem resultados melhores.
Com base em três argumentos, chega-se à conclusão de que no contexto brasileiro
as políticas de responsabilização formuladas em termos de incentivos salariais podem
ser inócuas no que se refere ao seu objetivo primordial de melhorar a qualidade do
ensino. O primeiro argumento deriva da pesquisa que mostra que os esquemas de
incentivos coletivos podem impactar a assiduidade dos professores, mas dificilmente
alteram sua forma de ensinar. Essa conclusão não é de difícil compreensão dado o fato
de que o pagamento coletivo sai ou para todos os membros da equipe ou para
ninguém da equipe. Isso dificulta o trabalho do professor que quer receber o bônus,
mas que não tem com quem aprender para mudar seu ensino. E, mesmo motivado, o
professor só receberá o bônus se a escola inteira se interessar pelo mesmo objetivo.
Pesquisa chilena tende a mostrar que as escolas que não recebem o bônus dificilmente
passam a receber em anos posteriores. Ou seja, o bônus só premia quem já tem
resultados melhores.
O segundo argumento é a falta de evidencia sobre a relação entre a assiduidade
do professor e o desempenho dos alunos. Se for verdade que os sistemas de incentivos
podem influenciar positivamente a assiduidade dos professores, no sentido de coibir
as faltas excessivas, que caracterizam os sistemas públicos, seria natural pressupor um
impacto positivo sobre a aprendizagem dos alunos. No entanto, essa relação é
relativizada por diversos elementos, incluindo o desempenho dos professores
substitutos, o desempenho do professor titular quando presente e a falta de critério
no controle das faltas. Ainda não sabemos se a melhoria na assiduidade conduz de fato
a uma melhoria nos resultados dos alunos.
O terceiro argumento tem relação com o currículo. Para o accountability
funcionar, precisa-se de quatro elementos, segundo Corvalán: informação (sobre o
desempenho dos alunos), autoridade (para definir os critérios), consequências (em
termos de prêmios e castigos) e padrões (em termos do significado pedagógico das
metas) (CORVALÁN; MCMEEKIN, 2006). No caso brasileiro, os padrões estão faltando.
O professor não saberia qual a diferença entre 220 e 240 na escala de proficiência
185
© 2011. Fundação Victor Civita. Todos os direitos reservados.
usada pelo Boletim Pedagógico em termos dos conteúdos que ele precisa ensinar para
chegar ao nível de proficiência requerido. Essa falta de correspondência entre os
critérios empregados pelos sistemas de incentivos e a compreensão do seu significado
em termos da aprendizagem dos alunos está na base da falta de progresso da maioria
dos estados no uso dos resultados das avaliações como material de apoio pedagógico.
Se os sistemas de incentivos tiverem algum impacto, ele será a consequência da
ênfase colocada nas metas e nos resultados do ensino. Essa contribuição, que diz
respeito a um novo ideário em relação aos objetivos finais do sistema educacional e do
trabalho do professor, é a expressão de um estilo de gestão que produz as políticas de
incentivo salarial, mas que não precisa delas para existir. Em outras palavras, a
importância atribuída aos resultados é uma mensagem implícita nas políticas de
responsabilização que pode ter sua própria influência na maneira de a escola enxergar
seu papel.
A outra contribuição diz respeito aos avanços na implantação dos novos currículos
básicos nos estados. Conforme discutido, as políticas de accountability têm sido usadas
em outros lugares como uma estratégia para a implementação de reformas. Existe até
a expressão evaluation-driven reforms para descrever o processo conhecido como
backwash, em que as questões abordadas pelas avaliações sinalizam não só os
conteúdos cobrados mas também o tipo de ensino que deveria ser privilegiado. No
caso dos estados que já optaram pela criação de currículos próprios e já estabeleceram
uma nova correspondência com as matrizes de referência dos sistemas de avaliação,
não há dúvida de que esses sistemas funcionarão como porta-vozes do currículo básico
e que acelerarão a sua adoção. Se acharmos que a iniciativa dos estados de criar seus
próprios currículos é um passo na direção certa, a consequência dos testes high-stakes
deve ser levada em consideração. As dúvidas ficam por conta dos possíveis impactos
colaterais negativos na autonomia e na criatividade dos professores de um currículo
oficial fincado em conteúdos básicos. Porém, no contexto brasileiro, a nossa aposta é
que os professores que se beneficiarão de um currículo estadual que não só estrutura
os conteúdos mas também fornece sugestões didáticas, representem a maioria.
186
© 2011. Fundação Victor Civita. Todos os direitos reservados.
Independentemente dos seus possíveis efeitos, a pesquisa demonstrou o avanço
técnico da segunda geração de políticas de responsabilização. Mesmo assim, pode-se
observar a continuidade de determinados problemas, incluindo o uso de médias de
desempenho de um único período escolar, a falta de medidas de equidade com base
na distribuição dos alunos por faixa de desempenho e a falta de informação sobre o
fator principal na explicação do desempenho dos alunos, ou seja, seus antecedentes
socioeconômicos. Ainda não foi criado um sistema de responsabilização que usa uma
média móvel com base nas várias medições anuais para diminuir as flutuações
inerentes às avaliações. Também não foi testado o uso de modelos longitudinais para
aferir o valor agregado das escolas por meio da montagem de bancos de dados e do
acompanhamento dos mesmos alunos ao longo dos anos. Na falta desses avanços,
observa-se que os estados estão tomando decisões que inevitavelmente incluem e
excluem escolas das diferentes categorias de premiação com base em erros de
medição.
A questão que a pesquisa não conseguiu resolver adequadamente diz respeito ao
significado do movimento em direção à formalização do currículo básico estadual.
Como a implantação de um currículo não representa uma política de gestão baseada
nos resultados da avaliação externa, a sua investigação escapou dos limites da
pesquisa. No entanto, a relação entre os sistemas de avaliação e os currículos básicos
em processo de implantação em diversos estados merece a atenção dos
pesquisadores. A reforma dos fundamentos das matrizes de referência representa uma
mudança importante na qualidade dos instrumentos da avaliação educacional e a
esperança de um círculo virtuoso em que a avaliação externa passe a cumprir uma
função diagnóstica de utilidade para o professor.
O movimento dos currículos básicos estaduais pode ser entendido como uma das
consequências da dificuldade em usar as informações tradicionais fornecidas pelos
Boletins e por outras estratégias de apoio pedagógico. Essa dificuldade é atribuída às
deficiências na formação dos professores, mas também à falta de compreensão do
significado pedagógico das proficiências e outras informações providas pelas
avaliações. Em um primeiro momento, essa dificuldade é encarada mediante um
187
© 2011. Fundação Victor Civita. Todos os direitos reservados.
esforço em explicar os resultados por meio de um detalhamento cada vez maior dos
componentes técnicos das avaliações. Nesse momento, são introduzidas as
explicações sobre a escala de proficiência, a matriz de referência e a relação entre
determinados itens das provas e as habilidades que pretendem avaliar.
Em um segundo momento, os responsáveis percebem que o que faz falta é uma
explicitação dos conteúdos curriculares que estão sendo cobrados, descritos nos
termos em que os professores estão acostumados a trabalhar. Com base nessa
construção, mais ou menos estruturada em termos de conteúdos específicos, torna-se
possível criar um alinhamento compreensível entre os objetivos do ensino, o currículo
da escola e as matrizes do sistema de avaliação. Mesmo não sendo uma solução
instantânea pelas dificuldades dos professores na assimilação dos novos currículos, há
certo consenso sobre as vantagens em criar uma sintonia nova entre os conteúdos, as
expectativas de aprendizagem e a avaliação. Essa vantagem passa pela capacidade de
dizer o que os itens das provas estão medindo e o que os alunos de determinada
proficiência sabem ou não sabem ainda. Com isso, explica-se, finalmente, o significado
da escala de proficiência e abre-se a possibilidade de padrões ou expectativas de
aprendizagem com base em referenciais curriculares, e não em faixas arbitrárias de
desempenho.
188
© 2011. Fundação Victor Civita. Todos os direitos reservados.
8.
Referencias Bibliográficas
ABRUCIO, F. L. Os avanços e os dilemas do modelo pós-burocrático: a reforma da
administração pública à luz da experiência internacional recente. In: BRESSER PEREIRA, L. C. e
SPINK, P., (ORGS.) (Ed.). Reforma do Estado e Administração Pública Gerencial. Rio de
Janeiro:: FGV, v.7ª ed., 2006.
ABRUCIO, F. L.; GAETANI, F. Agenda, aprendizado e coalizão. In: FUNDAP, C. E. (Ed.). Avanços e
perspectivas da gestão públicas nos Estados. Brasília: CONSAD, 2006.
ADRIÃO, T.; GARCIA, T. OFERTA EDUCATIVA E RESPONSABILIZAÇÃO NO PDE: O PLANO DE
AÇÕES ARTICULADAS. Cadernos de Pesquisa, v. v. 38, n. n. 135, p. p. 779-796, set./dez. 2008
2008. Disponível em: < http://www.scielo.br/pdf/cp/v38n135/v38n135a12.pdf >. Acesso em:
03/11/10.
AFONSO, A. J. Políticas avaliativas e accountability em Educação - subsídios para um debate
iberoamericano. Sísifo. Revista de Ciências da Educação, v. 09, p. pp 57-70, 2009. Disponível
em: < http://sisifo.fpce.ul.pt/?r=23&p=57 >. Acesso em: 08/10/10.
AHN, T.; VIGDOR, J. The Impact of Incentives on Effort: Teacher Bonuses in North Carolina.
Harvard2010. 2010. (PEPG 10-06)
ALVES, F. Qualidade da Educação fundamental: integrando desempenho e fluxo escolar.
Ensaio: Avaliação e Políticas Públicas em Educação, Rio de Janeiro., v. vol.15, n. n.57, p. pp.
525-541,
2007.
Disponível
em:
<
http://www.scielo.br/scielo.php?script=sci_abstract&pid=S010440362007000400005&lng=en&nrm=iso&tlng=pt >.
AMAZONAS. RELATÓRIO DE AÇÃO GOVERNAMENTAL. SÍNTESE 2003-2009. SEPLAN, S. D. E. D.
P. E. D. E.-. Manaus: GOVERNO DO ESTADO DO AMAZONAS 2009.
AMREIN, A.; BERLINER, D. The impact of high-stakes tests on student academic performance:
An analysis of NAEP results in states with high-stakes tests and ACT, SAT, and AP test results
in states with high school graduation exams.
Education Policy Research Unit (EPRU),
Education Policy Studies Laboratory, College of Education, Division of Educational Leadership
and Policy Studies, Arizona State University, 2002.
Disponível em: <
http://epaa.asu.edu/ojs/article/viewFile/297/423 >.
ANDERSON, J. A. Accountability in education. Paris: IIEP/IAE, 2005.
http://www.iaoed.org/files/Edpol1.pdf >.
Disponível em: <
ANDRADE, E. D. C. “School Accountability” no Brasil: experiências e dificuldades. Revista de
Economia Política, v. 28, n. nº 3(111), p. pp. 443-453, julho-setembro 2008. Disponível em: <
http://www.scielo.br/pdf/rep/v28n3/a05v28n3.pdf >. Acesso em: 05/10/10.
APEOESP.
Fax
Urgente
2011.
Disponível
http://apeoespsub.org.br/teste/Fax/Fax_2911.pdf >. Acesso em: 06/06/2011.
em:
<
ATKINSON, A. B., SIMON; CROXSON, BRONWYN; GREGG, PAUL; PROPPER, CAROL; SLATER,
HELEN; WILSON,DEBORAH. Evaluating the impact of performance-related pay for teachers in
England Labour Economics Elsevier B.V. 16: 251-261 p. 2009.
189
© 2011. Fundação Victor Civita. Todos os direitos reservados.
AU, W. High-Stakes Testing and Curricular Control: A Qualitative Metasynthesis. Educational
Researcher, v. Vol. 36, n. No. 5, p. pp. 258-267,
2007.
Disponível em: <
http://edr.sagepub.com/content/36/5.toc >.
AYRES, S. Boletim da Escola: Diagnóstico Multidimensional das Escolas do Paraná. Ensaio, v.
11, n. 38 p. 33-44, 2003.
BAKER, E. L. et al. Problems with the Use of Student Test Scores to Evaluate Teachers. The
Economic Policy Institute Washington D.C. 2010. (Briefing Paper # 2 7 8)
BALL, S. J. The Legacy of ERA, Privatization and the Policy Ratchet. Educational Management
Administration and Leadership., v. Vol. 36 n. 2, p. 185-199, 2008.
BAUER, A. Usos dos resultados das avaliações de sistemas educacionais: iniciativas em curso
em alguns países da América. Revista Brasileira de Estudos Pedagógicos. , v. v. 91, n. n. 228, p.
p.
315-344,
maio/ago.
2010
2010.
Disponível
em:
<
http://www.rbep.inep.gov.br/index.php/RBEP/article/viewFile/1690/1341 >.
BAUER, A. Avaliação do impacto de formação docente em serviço: o programa Letra e Vida.
2011. 230 (Doutorado). Faculdade de Educação, USP, São Paulo.
BRAUN, H. Reconsidering the impact of high-stakes testing. Education Policy Analysis
Archives, v. 12, n. 1, p. 1-43, 2004.
BROOKE, N. As perspectivas para as políticas de responsabilização educacional no Brasil. .
Cadernos de Pesquisa, v. 36, n. 128, p. pp. 377-401, 2006. ISSN ISSN 0100-1574. Disponível
em:
<
http://www.scielo.br/scielo.php?script=sci_issuetoc&pid=0100157420060002&lng=en&nrm=iso >.
BROOKE,
N.
Responsabilização
Educacional
no
Brasil.
http://www.rinace.net/riee/numeros/vol1-num1/art7.pdf. Acesso em (Data). Revista
Iberoamericana de Evaluación Educativa. 1: pp. 93-109 p. 2008.
CAREY, K. The Pangloss Index: How States Game the No Child Left Behind Act. Washington,
D.C: Education Sector 2007.
CARNOY, M. et al. Las Limitaciones de Incentivos Salariales para Profesores Basados en
Comparaciones Inter-Cohortes: El Caso del Programa SNED. Expansiva. 2004
CARNOY, M.; LOEB, S. Does external accountability affect student outcomes? A cross-state
analysis. Educational Evaluation and Policy Analysis, v. 24, n. 4, p. 305, 2002. ISSN 0162-3737.
Disponível em: < http://epa.sagepub.com/content/24/4/305.full.pdf+html >. Acesso em:
07/01/2011.
CARVALHO, G. F. D. S.; MACEDO, M. D. S. A. N. Avaliação oficial: o que dizem os mediadores da
política pública sobre o impacto na prática docente. Estudos em Avaliação Educacional, v.
vol.21, n. número 46, p. 253-270, maio/agosto 2010. ISSN 1984-932x. Disponível em: <
http://www.fcc.org.br/pesquisa/publicacoes/eae/arquivos/1577/1577.pdf >.
CAVALIERE, A. M. Entre o Pioneirismo e o Impasse: A reforma paulista de 1920. São Paulo:
Educação e Pesquisa, v. Vol 29, n. No 1, p. p.27-44, 2003.
190
© 2011. Fundação Victor Civita. Todos os direitos reservados.
CDEP. Comitê em Defesa da Escola Pública. http://www.adusp.org.br/PEE/PEE.rtf São Paulo
2006.
CEARÁ. ANÁLISE DO USO DOS RESULTADOS DAS AVALIAÇÕES A PARTIR DOS PLANOS
ESCOLARES E DOS PROGRAMAS MUNICIPAIS E SUAS ESTRATÉGIAS DE EFETIVAÇÃO. s.d.
CLAD. La responsabilizacion en la nueva gestion publica latinoamericana. Buenos Aires:
Eudeba, 2000.
CONSED. Estudo sobre Avaliação da Educação e Valorização do Magistério. Consed. Brasilia.
2005
CORRÊA, D. Avaliação de políticas públicas para a redução da violência escolar em Minas
Gerais: o caso do Projeto Escola Viva, Comunidade Ativa. 2007. (Mestrado). Faculdade de
Educação, Universidade Federal de Minas Gerais, Belo Horizonte.
CORVALÁN, J.; MCMEEKIN, R. W. O. Accountability educacional: Rendición de cuentas más
responsabilización por los procesos y resultados de la educación. In: MCMEEKIN, J. C. R. W.
(Ed.). Accountability educacional: posibilidades y desafíos para América Latina a partir de la
experiencia internacional. Santiago, Chile: PREAL - CIDE, 2006.
DANTAS, L. M. V. As Contribuições das Políticas de Avaliação Educacional em Larga Escala: o
caso da avaliação de aprendizagem na Bahia. 2009. (Doutorado). Faculdade de Educação,
Universidade Federal da Bahia, Salvador, Bahia.
DISSIDÊNCIA. Gilberto Dimenstein e a bonificação dos professores. Dissidência,
http://www.andrekenji.com.br/weblog/?p=264 10/11/2006. 2006.
Disponível em: <
http://www.andrekenji.com.br/weblog/?p=264 >. Acesso em: April 10th, 2006.
DOS SANTOS, G.; DE AVILA, S.; SILVA, W. A qualidade da Educação na América Latina. Revista
da FACED. ISSN, v. 1980, p. 6620,
2010.
Disponível em: <
http://74.125.155.132/scholar?q=cache:EvOWzXA6U4AJ:scholar.google.com/+PEC+Mexico&hl
=pt-BR&as_sdt=2000 >.
EBERTS, R.; HOLLENBECK, K.; STONE, J. TEACHER PERFORMANCE INCENTIVES AND STUDENT
OUTCOMES. W.E. Upjohn InstituteAugust, 2000 2000
ECOSTRAT, C. I.-. AVALIAÇÃO DE IMPACTO DO PROJETO ESCOLA DO NOVO MILÊNIO - PENM
2008
ESPIRITO SANTO. Plano Estratégico Nova Escola. Vitória, ES: Secretaria da Educação 2008.
FERRAZ, C. Sistemas Educacionais Baseados em Desempenho, Metas de Qualidade e a
Remuneração de Professores: os Casos de Pernambuco e São Paulo. In: VELOSO, F. P.,
SAMUEL; HENRIQUES, RICARDO; GIAMBIAGI, FÁBIO (Ed.). Educação Básica no Brasil:
Construindo o País do Futuro. Rio de Janeiro: Elsevier, 2009.
FERRER, G. Sistemas de Evaluación de Aprendizajes en América Latina: Balance y Desafíos.
Março 2006, p.174. 2006
FIGLIO, D. N.; KENNY, L. W. Individual teacher incentives and student performance. National
Bureau of Economic Research. Cambridge, Mass., p.26 p. 2006
191
© 2011. Fundação Victor Civita. Todos os direitos reservados.
FIGUEIREDO, J. PROJETO MINEIRO DE DESENVOLVIMENTO PROFISSIONAL DE EDUCADORES–
PDP: um estudo da formação continuada de professores. 2007. (Mestrado). Educação, PUCCampinas, Campinas.
FONTANIVE, N. S.; KLEIN, R. Uma visão sobre o Sistema de Avaliação da Educação Básica do
Brasil - SAEB. Ensaio, v. 29, n. Vol.8, p. pp.409-439, Outubro-Dezembro 2000.
FONTANIVE, N. S.; KLEIN, R. O EFEITO DA CAPACITAÇÃO DOCENTE NO DESEMPENHO DOS
ALUNOS: UMA CONTRIBUIÇÃO PARA A FORMULAÇÃO DE NOVAS POLÍTICAS PÚBLICAS DE
MELHORIA DA QUALIDADE DA EDUCAÇÃO BÁSICA. Revista Iberoamericana de Evaluación
Educativa, v. 3, n. 3, 2010. Disponível em: < http://www.rinace.net/riee/numeros/vol3num3/art4.pdf >.
FORMOSO JR, A. BUROCRATAS DE LINHA DE FRENTE E PRESSÃO POR RESULTADOS NA
EDUCAÇÃO: Experiências Brasileiras em Governos Estaduais. 2009. 118 Dissertação
(Mestrado) (Mestre em Administração Pública e Governo). ESCOLA DE ADMINISTRAÇÃO DE
EMPRESAS DE SÃO PAULO, FUNDAÇÃO GETÚLIO VARGAS, SÃO PAULO.
FRANCO, C. et al. Qualidade e eqüidade em Educação: reconsiderando o significado de
"fatores intra-escolares"*. Ensaio: Avaliação e Políticas Públicas em Educação, Rio de Janeiro,
v.
vol.15,
n.
no.55,
Apr./June
2007.
Disponível
em:
<
http://www.scielo.br/pdf/ensaio/v15n55/a07v1555.pdf >.
FRIEDMAN, M. O Papel do Governo na Educação. In: SOLO, R. A. (Ed.). Economics and the
Public Interest. New Jersey: Rutgers University Press, 1955. p.1- 144.
FUHRMAN, S. H. Redesigning Accountability Systems for Education. CPRE Policy Briefs.
Graduate School of Education, University of Pennsylvania: Consortium for Policy Research in
Education 2003.
GAJARDO, M. Reformas Educativas na América Latina. Balanço de Uma Década. Documentos
PREAL, v. No. 15,, 2000. Disponível em: < www.preal.cl >.
GARCIA-HUIDOBRO, J. E. Programa de las 900 Escuelas y Escuelas Críticas (Chile). Dos
experiencias de discriminación positiva. . Apresentação em Conferencia do Banco Mundial,
Cartagena, Colômbia, outubro 9-11, 2006. , 2006. Cartagena, Colômbia. p.30.
GATTI, B. A., , AÑO/, PP. 17-41 AVALIAÇÃO EDUCACIONAL NO BRASIL: PONTUANDO UMA
HISTÓRIA DE AÇÕES EccoS revista científica, UNINOVE, São Paulo, Brasil, v. vol. 4, n. número
001,
p.
pp.17-41,
junho
2002
Disponível
em:
<
http://www4.uninove.br/ojs/index.php/eccos/article/viewFile/291/280 >.
GLAZERMAN, S. et al. Evaluating Teachers: The Important Role of Value-Added Brown Center
on Education Policy. 2010
GOODMAN, S.; TURNER, L. Teacher Incentive Pay and Educational Outcomes: Evidence from
the NYC Bonus Program. HarvardJune, 2010. 2010. (PEPG 10-07)
GTEE/PREAL. LOS RANKINGS DE ESCUELAS COMO FORMA DE ENTREGAR INFORMACIÓN
SOBRE CALIDAD EDUCATIVA. Boletín Nº17: 1-11 p. 2010a.
______. ¿Qué está pasando en Chile con el SIMCE? Boletim Monografico No. 16 2010b.
192
© 2011. Fundação Victor Civita. Todos os direitos reservados.
HAERTEL, E.; HERMAN, J. L. A Historical Perspective on Validity Arguments for Accountability
Testing. In: HERMAN, E. H. J. L. (Ed.). Uses and Misuses of Data for Educational Accountability
and Improvement: 104th Yearbook of the National Society for the Study of Education.
Malden, MA: Blackwell Publishing, v.Part II, 2005. p.1-34.
HANEY, W. M. Evidence on Education under NCLB (and How Florida Boosted NAEP Scores and
Reduced the Race Gap). Broad Seminar for K-12 Reporters, 2006. Grace Dodge Hall, Teachers
College, Columbia University, New York City, Sept. 8-10, 2006. National Board on Educational
Testing and Public Policy.
HANUSHEK, E. A.; RAYMOND, M. E. Lessons about the Design of State Accountability Systems.
In: PETERSON, P. E. e WEST, M. R. (Ed.). No Child Left Behind? The Politics and Practice of
School Accountability. Washington, D.C.: The Brookings Institution, 2003.
HASTINGS, J. S. W., JEFFREY. No Child Left Behind : estimating the impact on choices and
student outcomes. NBER Working Paper No. 13009, Cambridge, Mass., p. 39 p., 2007.
Disponível em: < http://www.nber.org/papers/w13009 >. Acesso em: 06/09/2010.
HERMAN, J. L.; HAERTEL, E. Uses and misuses of data for educational accountability and
improvement. Malden, Mass., p. xvi, 383 p., 2005.
HOUT, M.; ELLIOTT, S. W., Eds. Incentives and Test-Based Accountability in Education.
National Research Council. Committee on Incentives and Test-Based Accountability in Public
Education. Washington, D.C.: The National Academies Press, National Research Council.
Committee on Incentives and Test-Based Accountability in Public Educationed. 2011.
JACOB, B. A. ACCOUNTABILITY, INCENTIVES AND BEHAVIOR: THE IMPACT OF HIGH-STAKES
TESTING IN THE CHICAGO PUBLIC SCHOOLS. NATIONAL BUREAU OF ECONOMIC RESEARCH.
Cambridge, MA: June 2002. 2002
JOHNSON, D. D.; JOHNSON, B. High stakes : children, testing, and failure in American schools.
Lanham, Md.: Rowman & Littlefield Publishers, 2002. xxi, 223 p. ISBN 0742517888 (cloth alk.
paper) 0742517896 (pbk. alk. paper).
KIRKPATRICK, D. L. Evaluating training programs: the four levels. São Francisco (EUA): BarrettKoehler, 1994.
KLEIN, R. Como está a Educação no Brasil? O que fazer? Ensaio: aval.pol.públ.Educ. Rio de
Janeiro., v. vol.14, n. n.51, p. pp. 139-171,
2006.
Disponível em: <
http://www.scielo.br/pdf/ensaio/v14n51/a02v1451.pdf >.
KLINGER, D. A., DELUCA, CHRISTOPHER & MILLER, TESS. THE EVOLVING CULTURE OF LARGESCALE ASSESSMENTS IN CANADIAN EDUCATION Canadian Journal of Educational
Administration and Policy, n. Issue #76, July 3 2008.
Disponível em: <
http://www.umanitoba.ca/publications/cjeap/articles/klinger.html >.
KOEDEL, C.; BETTS, J. R. Re-Examining the Role of Teacher Quality in the Educational
Production Function. National Center on Performance Initiatives Nashville, TN. 2007
KRAWCZYK, N. A Construção Social das Políticas Educacionais no Brasil e na América Latina. In:
(Ed.). O cenário educacional latino americano no limiar do século XXI. Campinas: Editora
Autores Associados, 2000.
193
© 2011. Fundação Victor Civita. Todos os direitos reservados.
LAVY, V. Performance Pay and Teachers’ Effort, Productivity, and Grading Ethics. American
Economic Review v. 99, n. 5, p. 1979-2011,
2009.
Disponível em: <
http://www.economics.harvard.edu/faculty/staiger/files/Lavy%2Baer%2Bdec%2B2009.pdf >.
Acesso em: 15/11/10.
LIMA, L. C.; AFONSO, A. J. Reformas da Educação Pública: Democratização, Modernização,
Neoliberalismo. . Porto: Afrontamento, 2002.
LINN, R. L.; BAKER, E. L.; BETEBENNER, D. W. Accountability Systems: Implications of
Requirements of the No Child Left Behind Act of 2001. Educational Researcher 31: pp. 3-16 p.
2002.
LOPES, V. V. Cartografia da avaliação educacional no brasil. 2007. 396 Doutorado
(Doutorado). Educação, Universidade de São Paulo, São Paulo.
MADAUS, G. F.; AIRASIAN, P. W.; KELLAGHAN, T. School Effectiveness: A Reassessment of the
Evidence. New York: McGraw-Hill Book Company, 1980.
MADAUS, G. F.; STUFFLEBEAM, D.; SCRIVEN, M. S. Evaluation Models: Viewpoints on
educational and human services evaluation. In: MADAUS, G. F.;STUFFLEBEAM, D., et al (Ed.).
Program Evaluation: An historical overview. Norwell, MA: Kluwer Academic Publishers, 1983.
MALEN, B.; RICE, J. K. A Framework for Assessing the Impact of Education Reforms on School
Capacity: Insights From Studies of High-Stakes Accountability Initiatives. EDUCATIONAL
POLICY, v. 18, n. 5, p. 631-660, November 2004 2004.
Disponível em: <
http://epx.sagepub.com/content/18/5/631.abstract >. Acesso em: 06/10/10.
MANNA, P. The No Child Left Behind Act and educational accountability in the United States.
Prepared for the conference on Understanding and Evaluating New Accountability Regimes:
Canada in Comparative Perspective, University of Toronto, Canada, February 5-6, 2010. 2010.
MCMEEKIN, R. W. Hacia una comprensión de la accountability educativa y cómo puede
aplicarse en los países de América Latina. In: MCMEEKIN, J. C. R. W. (Ed.). Accountability
educacional: posibilidades y desafíos para América Latina a partir de la experiencia
internacional. Santiago, Chile: PREAL - CIDE, 2006.
MEC/INEP. Vencendo o Desafio da Aprendizagem nas Séries Iniciais: A Experiência de
Sobral/Ce.
Brasilia:
MEC/INEP,
2005.
Disponível
em:
<
www.sic.inep.gov.br/index.php?option=com_docman&task... >.
MIZALA, A.; ROMAGUERA, P. RENDIMIENTO ESCOLAR Y PREMIOS POR DESEMPEÑO. LA
EXPERIENCIA LATINOAMERICANA. Centro de Economía Aplicada, Universidad de ChileAbril,
2003. 2003
MIZALA, A.; ROMAGUERA, P. Teachers’ Salary Structure and Incentives in Chile. In: VEGAS, E. E.
(Ed.). Incentives to Improve Teaching: Lessons from Latin America. Washington, D.C: The
World Bank, 2005.
MORTIMORE, P. et al. School Matters. Berkeley, CA: : University of California Press, 1988.
MOVIMENTO. Movimento contra Testes de Alto Impacto em Educação. 2010. Disponível em:
< http://sites.google.com/site/movimentocontratestes/home >. Acesso em: 04/06/2011.
194
© 2011. Fundação Victor Civita. Todos os direitos reservados.
MUNIZ, R. M.; SILVEIRA, M. C. D.; BECHELAINE, C. O Caminho em Direção à Gestao por
Resultados em Minas Gerais: uma análise do Plaos Mineiros de Desenvolvimento Integrado. In:
GUIMARÃES, T. B.;PORDEUS, I. A., et al (Ed.). Estado para Resultados. Belo Horizonte: Editora
UFMG, 2010.
MURALIDHARAN, K.; SUNDARARAMAN, V. Teacher performance pay : experimental evidence
from India. National Bureau of Economic Research. Cambridge, Mass., p.37, [11] p. 2009
NICHOLS, S. L.; GLASS, G. V.; BERLINER, D. C. High-Stakes Testing and Student Achievement:
Problems for the No Child Left Behind Act. Education Policy Research Unit (EPRU)/ Education
Policy Studies Laboratory/ Arizona State University06/09/2010. 2005. (EPSL-0509-105-EPRU)
NYSED, N. Y. S. E. D. The Impact of High-Stakes Exams on Students and Teachers. Albany, NY.
2004
OLIVEIRA, L. K. M. D. ANÁLISE DA IMPLEMENTAÇÃO DE PROGRAMAS ESTADUAIS: avaliação
em larga escala e o efeito na Proficiência em Matemática dos alunos da 4ª série do Ensino
Fundamental 2007.
OLIVEIRA, N. V.; GUEDES, P. M. A aspiração das famílias por melhores escolas públicas. In:
FUNDAÇÃO VICTOR CIVITA (Ed.). Estudos & Pesquisas Educacionais Nº 1. SP: Fundação Victor
Civita, 2010.
OLIVEIRA, R. P. D.; GADELHA, C. G. Evolução da Educação e da Saúde. In: ESTRATÉGICOS, C. D.
G. E. E. (Ed.). Projeto Brasil 2003-2010: Trajetórias e desafios. Brasília: Centro de Gestão e
Estudos Estratégicos, 2010.
PEREIRA, M. C. AS AVALIAÇÕES EXTERNAS MINEIRAS: CONTEXTO DE POLÍTICAS DE
RESPONSABILIZAÇÃO. XXIV Simpósio Brasileiro de Política e Administração da Educação
Universidade Federal do Espírito Santo (UFES), Vitória, Espirito Santo.: Associação Nacional de
Política e Administração da Educação (ANPAE) 2009.
PETERS, G. B. Os dois futuros do ato de governar: processos de descentralização e
recentralização no ato de governar. Revista do Serviço Público, v. vol. 59, n. nº 3, p. p. 298307, jul./ set. 2008.
PORTO, C. A.; SILVEIRA, J. P. O Planejamento e a Gestão Estratégica e sua Funçao em Minas
Gerais. In: GUIMARÃES, T. B.;PORDEUS, I. A., et al (Ed.). Estado para Resultados. Belo
Horizonte: Editora UFMG, 2010.
PRINCE, C. D. K., JULIA; AZAR, TAMARA MORSE; BHATT, MONICA; WITHAM, PETER J. Building
Teacher and Community Support for New Compensation Systems. Center for Educator
Compensation Reform. Washington, D.C. 2008
RAND. Designing Effective Pay-for-Performance in K–12 Education. Policy Brief. Santa Monica,
CA: Rand education 2009.
RANSON, S. The Changing Governance of Education. Educational Management Administration
& Leadership, v. 36, n. 2, p. 201-219, 2008.
RAPPLE, B. Payment by results: An example of assessment in elementary education from
nineteenth century Britain. Education Policy Analysis Archives, v. 2, n. 1, p. 1-23, 1994.
195
© 2011. Fundação Victor Civita. Todos os direitos reservados.
RAVELA, P. A., PATRICIA; VALVERDE, GILBERT; WOLFE, RICHARD; FERRER GUILLERMO;
MARTÍNEZ RIZO, FELIPE; AYLWIN, MARIANA; WOLFF, LAURENCE,. Las evaluaciones educativas
que América Latina necesita. Preal. Santiago: 2008. 2008
REZENDE, V. O PAPEL DO GESTOR ESCOLAR NA IMPLANTAÇÃO DO PROGRAMA DE
QUALIDADE NA ESCOLA DE ENSINO MÉDIO. I Congresso Ibero-Brasileiro e VI Congresso LusoBrasileiro na Espanha e em Portugal. Cáceres e Mérida na Espanha 2010.
RODRIGUES, J. R. S. Responsabilização e Resultados Escolares no Rio de Janeiro. 2007.
(Mestrado). Departamento de Educação, PUC-Rio, PUC-Rio, Rio de Janeiro.
RUTTER, M. et al. Fifteen Thousand Hours: Secondary Schools and their Effects on Children.
London: Open Books, 1979.
SANTIAGO CONSULTORES Y ASESORÍAS PARA EL DESARROLLO. Evaluación del Programa de las
900 Escuelas. MINISTERIO DE EDUCACIÓN. Santiago, Chile 2000.
SÃO PAULO (ESTADO) SECRETARIA DA EDUCAÇÃO. Currículo do Estado de São Paulo:
Matemática e suas tecnologias. São Paulo,
2010.
Disponível em: <
http://www.rededosaber.sp.gov.br/portais/Portals/43/Files/MEST.pdf >.
SASS, T. R. The Stability of Value Added Measures of Teacher Quality and Implications for
Teacher Compensation Policy. National Center for Analysis of Longitudinal Data in Education
Research,
Washington,
D.C.,
2008.
Disponível
em:
<
http://www.urban.org/uploadedpdf/1001266_stabilityofvalue.pdf >. Acesso em: 09/06/2011.
SEDU/ES. Relatório Técnico Modelo da Bonificação: Secretaria de Estado da Educação do
Estado de Espirito Santo -: 66 p. 2010.
SEE/DF. SIADE 2009: Sumário Executivo Avaliação de Rendimento. Brasilia: Governo do
Distrito Federal 2010.
SEGATTO, C. I. COMO IDEIAS SE TRANSFORMAM EM REFORMAS: Um estudo comparativo
das mudanças educacionais orientadas pelo desempenho nos estados brasileiros. 2011.
Mestrado (Mestre em Administração Pública e Governo). Escola de Administração de
Empresas de São Paulo Fundação Getúlio Vargas
SHEPARD, L. A Checklist for Evaluating Large-Scale Assessment Programs. The Evaluation
Center, Western Michigan University. Kalamazoo. 1977
SHULHA, L. M.; COUSIN, J. B. Evaluation use: theory, research and practice since 1986.
American journal of Evaluation., v. vol 18, p. p.195-208, 1997.
SOARES, J. F. Índice de desenvolvimento da Educação de São Paulo (IDESP): bases
metodológicas. . Revista São Paulo em Perspectiva, São Paulo, Fundação SEADE, v. V.23, n.
n.1, p. 29-41, Janeiro-Junho 2009 2009.
SOARES, S. AVALIAÇÃO EDUCACIONAL COMO INSTRUMENTO PEDAGÓGICO. TRABALHO E
SOCIEDADE, IETS, Rio de janeiro, v. Ano 2, n. Nº 4, p. p.23-25, Agosto 2002 2002.
SOARES, T. Influência do professor e do ambiente em sala de aula sobre a proficiência
alcançada pelos alunos avaliados no SIMAVE-2002. Estudos em Avaliação Educacional, v. 28,
p. 103-123, 2003.
196
© 2011. Fundação Victor Civita. Todos os direitos reservados.
______. Modelo de três níveis hierárquicos para a proficiência dos alunos de 4ª série avaliados
no teste de Língua Portuguesa do SIMAVE/PROEB-2002. Revista Brasileira de Educação, v.
no.29 n. May/Aug. , p. 73-87, 2005 2005.
SOARES, T.; TEIXEIRA, L. Efeito do perfil do diretor na gestão escolar sobre a proficiência do
aluno. Estudos em Avaliação Educacional. São Paulo: Fundação Carlos Chagas, v. 17, p. 34,
2006.
SOUSA, S. M. Z. L. POSSÍVEIS IMPACTOS DAS POLÍTICAS DE AVALIAÇÃO NO CURRÍCULO
ESCOLAR. Cadernos de Pesquisa, v. 119, p. p.175-190, 2003. Disponível em: <
http://www.scielo.br/pdf/cp/n119/n119a09.pdf >. Acesso em: 05/12/10.
SOUSA, S. M. Z. L.; OLIVEIRA, R. P. D. Sistemas de Avaliação Educacional no Brasil:
características, tendências e uso dos resultados. Universidade de São Paulo, Faculdade de
Educação, Centro de Estudos e Pesquisas em Políticas Públicas de Educação - CEPPPE2007.
2007
SPRINGER, M. O., Ed. Performance Incentives: Their Growing Impact on American K-12
Education. Wadhington, D.C.: Brooking Institution Press, p.336ed. 2009.
SUNDERMAN, G. L. Holding NCLB accountable : achieving accountability, equity, & school
reform. Thousand Oaks, CA: Corwin Press, 2008. xvi, 262 p. ISBN 9781412957878 (cloth)
Disponível em: < http://www.loc.gov/catdir/enhancements/fy0828/2007040309-b.html
SUPOVITZ, J. Can high stakes testing leverage educational improvement? Prospects from the
last decade of testing and accountability reform. Journal of Educational Change Published
online: 28 March 2009: 211-227 p. 2009.
TAYLOR, J.; NGUYEN, A. N. An Analysis of the Value Added by Secondary Schools in England: Is
the Value Added Indicator of Any Value?*. Oxford Bulletin of Economics and Statistics, v. 68,
n. 2, p. 203-224, 2006. ISSN 1468-0084.
THE NATIONAL COMMISSION ON EXCELLENCE IN EDUCATION. A Nation at Risk.The
Imperative for Educational Reform. Washington, D.C.: U.S. Government Printing Office 1983.
VALENZUELA, A. Leaving children behind : how "Texas-style" accountability fails Latino
youth. Albany: State University of New York Press, 2005. viii, 313 p. ISBN 0791462390
(hardcover alk. paper) 0791462404 (pbk. alk. paper). Disponível em: <
http://www.loc.gov/catdir/toc/ecip0418/2004012237.html >.
VEGAS, E.; UMANSKY, I. Improving Teaching and Learning through Effective Incentives: What
Can We Learn from Education Reforms in Latin America? The World Bank. Washington, DC:
2005.
VIDAL, E. M.; VIEIRA, S. L. GESTÃO EDUCACIONAL E RESULTADOS NO IDEB: UM ESTUDO DE
CASO EM 10 MUNICÍPIOS CEARENSES. VI REUNIÃO DA ABAVE Fortaleza, Ceará, 31 de agosto a
02 de setembro, 2011 2011.
VOLANTE, L. Teaching to the test: What every educator and policy-maker should know.
Canadian Journal of Educational Administration and Policy, v. 35, p. 1-19, 2004.
197
© 2011. Fundação Victor Civita. Todos os direitos reservados.
WINTERS, M. A. R., GARY W.; MARSH, RYAN H.; GREENE, JAY P.; HOLLEY, MARC J. . The
Impact of Performance Pay for Public School Teachers: Theory and Evidence. Harvard
University. 2008. (PEPG 08-15)
198
© 2011. Fundação Victor Civita. Todos os direitos reservados.
ANEXO 1
Organização dos arquivos da pesquisa em Google Docs
Exemplos: a) Nível 2; b) Nível 5; c) Nível 2.
a) Nível 2
b) Nível 5
c) Nível 2
199
© 2011. Fundação Victor Civita. Todos os direitos reservados.
ANEXO 2
Entrevistados
ENTREVISTADO
DATA
FILIAÇÃO INSTITUCIONAL
Adriana Bauer
28/02/11
Fundação Carlos Chagas
Aléssio Costa Lima
23/02/11
SEE CE
Aline Elisa Cotta D' Ávila
16/02/11
SEE ES
Andressa Rocha
17/02/11
SEE ES
Fernanda Scaciota Simões da Silva
31/03/11
SEE PR
Francisco Soares
21/03/11
GAME/UFMG
Iaci Cavalcanti Pequeno
23/02/11
SEE CE
Ilda Hochman
08/02/11
SEE MG
Janine Mattar Pereira de Castro
16/02/11
SEE ES
João Filocre
08/02/11
EX-SEE MG
Leonara Margotto Tartaglia
16/02/11
SEE ES
Lina Kátia Mesquita de Oliveira
31/01/11
CAEd
Lúcia Matos
04/05/11
SEE MG
Margareth Zaponi
21/02/11
SEE PE
Maria Conceição Conholato
28/02/11
FDE SP
Maria Inêz Barroso Simões
09/05/11
SEE MG
Maurício Holanda Maia
23/02/11
SEE CE
Nilma Fontanive
05/04/11
Fundação Cesgranrio
Olivier Bezerra
22/03/11
SEE DF
Patrícia Dantas
22/02/11
SEE PE
Rafael Morais
08/02/11
SEE MG
Ruben Klein
05/04/11
Fundação Cesgranrio
Valdelina Solomão Lima
16/02/11
SEE ES
William Massei
28/02/11
SEE SP
200
© 2011. Fundação Victor Civita. Todos os direitos reservados.
ANEXO 3 Ambiente NVIVO. Queries/Políticas de Incentivos por Estado
201
© 2011. Fundação Victor Civita. Todos os direitos reservados.
Download

a avaliação externa como instrumento de gestão