LEO LYNCE VALLE DE LACERDA Sistema Nacional de Avaliação da Educação Superior: Sistema de avaliação ou exame de desempenho? ITAJAÍ (SC) 2015 UNIVERSIDADE DO VALE DO ITAJAÍ Vice-Reitoria de Pesquisa, Pós-Graduação, Extensão e Cultura - ProPPEC Programa de Pós-Graduação em Educação - PPGE Curso de Doutorado em Educação LEO LYNCE VALLE DE LACERDA Sistema Nacional de Avaliação da Educação Superior: Sistema de avaliação ou exame de desempenho? . Orientadora: Tese apresentada ao colegiado do Programa de Pós Graduação em Educação da Universidade do Vale do Itajaí como requisito parcial à obtenção do grau de Doutor em Educação – área de concentração: Educação – (Linha de Pesquisa - Políticas para a Educação Básica e Superior) Orientador: Professora Doutora Cássia Ferri ITAJAÍ (SC) 2015 UNIVALI Universidade do Vale do Itajaí Vice-Reitoria de Pesquisa, Pós-Graduação, Extensão e Cultura Programa de Pós-Graduação em Educação - PPGE Curso de Doutorado em Educação CERTIFICADO DE APROVAÇÃO LEO LYNCE VALLE DE LACERDA Sistema Nacional de Avaliação da Educação Superior: Sistema de avaliação ou exame de desempenho? Tese avaliada e aprovada pela Comissão Examinadora e referendada pelo Colegiado doOrientadora: PPGE como requisito parcial à obtenção do grau de Doutor em Educação. Itajaí (SC), __ de ___________ de 2015 Membros da Comissão: Orientador: ______ _______________________________ Profa. Dra. Cássia Ferri Membro Externo: __________________________________ Prof. Dr. Almerindo Janela Afonso Membro Externo: __________________________________ Profa. Dra. Amândia Maria de Borba Membro Externo: __________________________________ Prof. Dr. Nelson Santos Machado Membro representante do colegiado: ________________________________ Profa. Dra. Regina Célia Linhares Hostins AGRADECIMENTOS À professora Doutora Cássia Ferri por sua orientação tranquila e segura. Ao professor Doutor Almerindo Janela Afonso pela oportunidade ímpar de elaborar parte desta tese sob sua supervisão. Aos demais membros da banca, pela paciência que (certamente) tiveram ao ler esta tese. A Elisabeth Juchem Machado Leal pela revisão textual. A todos os amigos, colegas, professores e colaboradores do programa que me auxiliaram neste percurso. A Univali por ter me concedido bolsa de estudo para o Doutorado e Estágio Doutoral. Ao povo brasileiro que me proporcionou cinco meses de bolsa de estudos no exterior. A ele dedico esta tese. RESUMO Este estudo foi realizado no âmbito da linha de pesquisa em Políticas Públicas para a Educação Básica e Superior e se insere no conjunto dos estudos do Grupo de Pesquisa em Políticas Públicas de Currículo e Avaliação. A pesquisa avaliou o papel do Exame Nacional de Desempenho dos Estudantes e dos índices dele derivados em relação às demais modalidades do Sistema Nacional de Avaliação da Educação Superior - Sinaes, quais sejam, a Avaliação dos cursos de Graduação (ACG) e a Avaliação das Instituições de Educação Superior (Avalies), contrastando o Sinaes com o sistema de regulação português, no qual o exame de desempenho está ausente. Em um primeiro movimento, investigou-se a operacionalização das modalidades do Sinaes e o processo que levou à centralidade do Enade. Um segundo movimento foi realizado a fim de comparar os processos de avaliação realizados pelo Brasil e Portugal, a fim de pesquisar as similaridades e diferenças dos dois sistemas, além de colher a percepção dos pesquisadores portugueses da área de avaliação do Ensino Superior com relação a eles. No terceiro movimento analisaram-se as relações entre insumos e desempenho dos estudantes do triênio 2008-2010 do Enade para cada área nos seguintes estratos: região federativa, organização acadêmica e categorias administrativas. Justificou-se esta pesquisa tendo em vista que ainda não se realizou um estudo completo de um ciclo trienal do Enade, de forma a avaliar objetivamente suas potencialidades e limitações no âmbito das demais modalidades do sistema. Para tanto, foram empregados métodos de revisão bibliográfica e análise documental, análise quantitativa por meio de regressão linear múltipla de um ciclo completo do Enade e coleta da percepção de pesquisadores portugueses em avaliação do ensino superior por meio de entrevista semiestruturada. Concluiu-se que o Sinaes, em dez anos de operacionalização, erigiu uma modalidade, o Enade, como a principal fonte de indicadores para a regulação, subordinando as demais a esta. Apesar disto, ao contrastar o Sinaes com o sistema português, os benefícios desta modalidade no processo avaliativo não foram percebidos. Além disso, o exame dos resultados de um triênio mostrou que os índices gerados por este não podem ser generalizados para a diversidade das Instituições de Ensino Superior - IES brasileiras e áreas de formação. Assim, defendeu-se a tese de que o Sinaes, na forma como vem sendo operacionalizado, não atendeu aos seus princípios originais de globalidade do processo avaliativo, respeito à identidade e a diversidade educacional superior brasileira. A centralidade do Enade no processo avaliativo e regulatório descaracterizou o sistema. No entanto, pode-se afirmar que é possível um resgate dos princípios originais, em maior ou menor grau, a partir da reconfiguração de suas modalidades. Palavras-chave: Política Educacional. Sistema de Avaliação. Sinaes. Enade. ABSTRACT This study was carried out as part of the line of research Public Policies for Basic and Higher Education, and is part of a series of studies conducted by the Research Group on Public Policies of Curriculum and Assessment. This research evaluated the role of the Exame Nacional de Desempenho dos Estudantes [National Student Performance Examination] and its derived indices, in relation to the other modalities of the Sistema Nacional de Avaliação da Educação Superior [National System for Assessment of Higher Education] - Sinaes, namely the Assessment of Graduation courses [ACG] and the Assessment of Higher Education Institutions [Avalies], comparing the Sinaes with the Portuguese regulatory system that does not include the performance assessment. Firstly, the operationalization of the Sinaes’ modalities and the process that led to the centrality of the Enade were analyzed. Secondly, the assessment processes carried out by Brazil and Portugal were compared, in order to search for the similarities and differences between the two systems and gather the views of Portuguese researchers in the area of assessment of Higher Education in relation to them. Third, an analysis was carried out of the relations between inputs and student performance in the three-year period (2008 to 2010) of the Enade for each area, in the following strata: federative region, academic organization, and administrative categories. This study is justified by the fact that no complete study of a three-year cycle of the Enade has yet been carried out with the aim of objectively assessing its potential and limitations within the scope of the other modalities of the system. The methods of literature review and document analysis were used, with quantitative analysis by means of semi-structured interviews. It is concluded that the Sinaes, in its ten years of operation, established a modality - the Enade - as the main source of indicators for the regulation, subordinating the others to it. Despite this, when comparing the Sinaes with the Portuguese system, benefits of this modality in the assessment process were not noticed. Besides, the examination of the results of a three-year period showed that the indices generated by it cannot be generalized to the diversity of the Brazilian Higher Education Institutions [HEI] and areas of training. The thesis is defended that the Sinaes, in the form in which it has been operationalized, does not fulfil the principles originally established of being a global evaluation system, respecting identity and the diversity of the Brazilian Higher Education System. The centrality of the Enade in the evaluation and regulatory process have led to the system losing its original character. However, it can be said that a return to the original principles is possible, to a greater or lesser extent, based on a reconfiguration of its modalities. Key words: Educational policy. Assessment System. Sinaes. Enade LISTA DE SIGLAS A3ES – Agência Nacional de Avaliação e Acreditação do Ensino Superior ACG - Avaliação dos cursos de graduação AHELO - Assessment of Higher Education Learning Outcomes Avalies - Avaliação das Instituições de Educação Superior CAC – Comissão de Autoavaliação do Curso Capes – Coordenação de Aperfeiçoamento de Pessoal de Nível Superior CC - Conceito do Curso CCA – Comissão Central de Avaliação IDC – Índice de Desempenho do Curso IDI – Índice de Desempenho Institucional CEC – Conceito Externo do Curso CEI – Conceito Externo Institucional CGC – Conceito Geral do Curso CGI – Conceito Geral Institucional CI - Conceito Institucional CIC – Conceito Interno do Curso CII – Conceito Interno Institucional Cnaves – Conselho Nacional de Avaliação do Ensino Superior Conaes – Conselho Nacional de Avaliação da Educação Superior CPA - Comissão Própria de Avaliação CPC - Conceito Preliminar de Curso CRUP – Conselho de Reitores das Universidades Portuguesas CSA – Comissão Setorial de Avaliação DGES – Diretoria Geral do Ensino Superior Enade - Exame Nacional de Desempenho dos Estudantes ENC – Exame Nacional dos Cursos ENEM - Exame Nacional do Ensino Médio Enqa - European Association for Quality Assurance in Higher Education EUA – European University Association GERES - Grupo Executivo da Reforma da Educação Superior IDD – Indicador de diferença entre o desempenho esperado e observado IES – Instituição de Educação Superior IGC – Índice geral de cursos INSAES – Instituto Nacional de Supervisão e Avaliação da Educação Superior MEC – Ministério da Educação PAIUB - Programa de Avaliação Institucional das Universidades Brasileiras PARU - Programa de Avaliação da Reforma Universitária Proies - Programa de Estímulo à Reestruturação e ao Fortalecimento das Instituições de Ensino Superior Prouni - Programa Universidade para Todos (Prouni), QAHECA – Quality Assurance for the Higher Education Change Agenda Sinaes - Sistema Nacional de Avaliação da Educação Superior Unesco - Organização das Nações Unidas para a educação, a ciência e a cultura LISTA DE TABELAS Tabela 1 - Número e percentual de cursos com notas Enade e IDD de acordo com a região federativa das 55 áreas avaliadas no estudo. ....................................................... 99 Tabela 2 – Número e percentual de cursos com notas Enade e IDD de acordo com a combinação entre organização acadêmica e categoria administrativa das 55 áreas avaliadas no estudo. ...................................................................................................... 100 Tabela 3 – Número de cursos e correlações encontradas para o Enade contínuo de acordo com a região federativa. .................................................................................... 132 Tabela 4 - Número de cursos e correlações encontradas para o Enade contínuo de acordo com a combinação entre organização acadêmica e categoria administrativa. .. 133 Tabela 5 - Número de cursos e correlações encontradas para o IDD contínuo de acordo com a região federativa................................................................................................. 144 Tabela 6 - Número de cursos e correlações encontradas para o IDD contínuo de acordo com a combinação entre organização acadêmica e categoria administrativa. .............. 145 LISTA DE QUADROS Quadro 1 – Análise comparativa entre os sistemas de avaliação da Educação Superior no Brasil e em Portugal .................................................................................................. 65 Quadro 2 – Áreas e correlações semiparciais significativas entre os insumos utilizados no Conceito Preliminar de Curso e o Enade contínuo para as Instituições de Ensino Superior do Brasil de acordo a região federativa. ........................................................ 134 Quadro 3 – Áreas e correlações semiparciais significativas entre os insumos utilizados no Conceito Preliminar de Curso e o Enade contínuo para as Universidades Públicas de acordo com a região federativa. .................................................................................... 136 Quadro 4 – Áreas e correlações semiparciais significativas entre os insumos utilizados no Conceito Preliminar de Curso e o Enade contínuo para as Universidades Privadas de acordo com a região federativa. .................................................................................... 138 Quadro 5 – Áreas e correlações semiparciais significativas entre os insumos utilizados no Conceito Preliminar de Curso e o Enade contínuo para as Faculdades Privadas de acordo com a região federativa. .................................................................................... 140 Quadro 6 – Áreas e correlações semiparciais significativas entre os insumos utilizados no Conceito Preliminar de Curso e o Enade contínuo para os Centros Universitários Privados de acordo a região federativa. ........................................................................ 142 Quadro 7 – Áreas e correlações semiparciais significativas entre os insumos utilizados no Conceito Preliminar de Curso e o Enade contínuo para os Institutos Superiores (InsPr) e Faculdades Integradas Privados (FaIPr) de acordo a região federativa. ........ 142 Quadro 8 – Áreas e correlações semiparciais significativas entre os insumos utilizados no Conceito Preliminar de Curso e o IDD contínuo para as Instituições de Ensino Superior do Brasil de acordo a região federativa. ........................................................ 146 Quadro 9 – Áreas e correlações semiparciais significativas entre os insumos utilizados no Conceito Preliminar de Curso e o IDD contínuo para as Universidades Públicas de acordo com a região federativa. .................................................................................... 148 Quadro 10 – Áreas e correlações semiparciais significativas entre os insumos utilizados no Conceito Preliminar de Curso e o IDD contínuo para as Universidades Privadas de acordo com a região federativa. .................................................................................... 149 Quadro 11 – Áreas e correlações semiparciais significativas entre os insumos utilizados no Conceito Preliminar de Curso e o IDD contínuo para as Faculdades Privadas de acordo com a região federativa. .................................................................................... 151 Quadro 12 – Áreas e correlações semiparciais significativas entre os insumos utilizados no Conceito Preliminar de Curso e o IDD contínuo para os Centros Universitários Privados de acordo a região federativa. ........................................................................ 151 Quadro 13 – Áreas e correlações semiparciais significativas entre os insumos utilizados no Conceito Preliminar de Curso e o IDD contínuo para os Institutos Superiores, Faculdades Integradas e Faculdades Tecnológicas Privadas de acordo a região federativa. ..................................................................................................................... 152 LISTA DE GRÁFICOS Gráfico 1 – Média (linha central), erro-padrão (caixa) e intervalo de confiança (extremos) da nota Enade (NEnade) da área de Engenharia do grupo VII de acordo com a combinação entre Organização Acadêmica e Categoria Administrativa das IESs brasileiras ........................................................................................................................ 97 Gráfico 2 – Correlação positiva entre a nota de Doutores (ND) e desempenho no Enade (NEnade) na área de Engenharia do grupo VII. ............................................................. 98 Gráfico 3 – Correlações entre a nota do Regime de Trabalho (NR) e o Enade contínuo (NEnade) para a área de Ciências Econômicas de acordo com a região federativa. .... 103 Gráfico 4 – Correlações entre a nota de Doutores (ND) e o Enade contínuo (NEnade) para a área de Ciências Econômicas de acordo com a região federativa. .................... 104 Gráfico 5 – Correlações entre a nota da Infraestrutura (NI) e o Enade contínuo (NEnade) para a área de Enfermagem de acordo com a combinação entre organização acadêmica e categoria administrativa. ............................................................................................... 106 Gráfico 6 – Correlações entre a nota da Infraestrutura (NI) e o Enade contínuo (NEnade) para a área de Engenharia do grupo III de acordo com a combinação entre organização acadêmica e categoria administrativa. .......................................................................... 107 Gráfico 7 – Correlações entre a nota do Regime de Trabalho (NR) e o Enade contínuo (NEnade) para a área de Farmácia de acordo com a combinação entre organização acadêmica e categoria administrativa. .......................................................................... 108 Gráfico 8 – Correlações entre a nota da Organização Didático-Pedagógica e o Enade contínuo (NEnade) para a área de Educação Física de acordo com a combinação entre organização acadêmica e categoria administrativa. ...................................................... 109 Gráfico 9 – Correlações entre a nota da Organização Didático-Pedagógica (NO) e o Enade contínuo (NEnade) para a área de Ciências Contábeis de acordo com a combinação entre organização acadêmica e categoria administrativa e a região federativa. ..................................................................................................................... 111 Gráfico 10 – Correlações entre a nota da Organização Didático-Pedagógica (NO) e o Enade contínuo (NEnade) para a área de Engenharia do grupo II de acordo com a combinação entre organização acadêmica e categoria administrativa e a região federativa. ..................................................................................................................... 112 Gráfico 11 – Correlações entre a nota da Infraestrutura (NI) e o Enade contínuo (NEnade) para a área de Direito de acordo com a combinação entre organização acadêmica e categoria administrativa e a região federativa. ........................................ 113 Gráfico 12 – Correlações entre a nota de Doutores (ND) e o Enade contínuo (NEnade) para a área de Pedagogia de acordo com a combinação entre organização acadêmica e categoria administrativa e a região federativa. ............................................................. 114 Gráfico 13 – Correlação entre a nota de Doutores (ND) e o Enade contínuo (NEnade) para a área de Engenharia de grupo VIII. ..................................................................... 115 Gráfico 14 – Correlação significativa entre a nota da Infraestrutura (NI) e o ENnade contínuo (NEnade) para a área de Ciências Sociais. .................................................... 116 Gráfico 15 – Correlações entre a nota de Doutores (ND) e o IDD contínuo (NIDD) para a área de Matemática de acordo com a região federativa. ............................................ 119 Gráfico 16 – Correlações entre a nota de Doutores (ND) e o IDD contínuo (NIDD) para a área de Pedagogia de acordo com a região federativa. .............................................. 120 Gráfico 17 – Correlações entre a nota de Mestres (NM) e o IDD contínuo (NIDD) para a área de Arquitetura e Urbanismo nas Regiões Norte e Sul. ......................................... 121 Gráfico 18 – Correlações entre a nota da Infraestrutura (NI) e o IDD contínuo (NIDD) para a área de Direito de acordo com a região federativa. ........................................... 122 Gráfico 19 – Correlações entre a nota de Mestres (NM) e o IDD contínuo (NIDD) para a área de Tecnologia em Redes de Computadores de acordo com a combinação entre organização acadêmica e categoria administrativa. ...................................................... 124 Gráfico 20 – Correlações entre a nota de Mestres (NM) e o IDD contínuo (NIDD) para a área de Administração de acordo com a combinação entre organização acadêmica, categoria administrativa e região federativa. ................................................................ 126 Gráfico 21 – Correlações entre a nota da Organização Didático-Pedagógica e o IDD contínuo (NIDD) para a área de Ciências Contábeis de acordo com a combinação entre organização acadêmica, categoria administrativa e região federativa. ......................... 127 Gráfico 22 – Correlação entre a nota da infraestrutura (NI) e o IDD contínuo (NIDD) para a área de Ciências Sociais. .................................................................................... 129 Gráfico 23 – Correlação entre a nota de Doutores (ND) e o IDD contínuo (NIDD) para a área de Música. ............................................................................................................. 130 LISTA DE FIGURAS Figura 1 – Modelo regressivo múltiplo entre os insumos e desempenho. ...................... 93 Figura 2 – Modelo regressivo múltiplo indicando a multicolinearidade, relações significativas entre os insumos. ...................................................................................... 94 Figura 3 – Relação atual entre as modalidades e seus índices do Sinaes. .................... 157 Figura 4 – Relação entre as modalidades e seus índices do Sinaes no Cenário 1. ....... 162 Figura 5 – Relação entre as modalidades e seus índices do Sinaes no Cenário 2. ....... 165 Figura 6 – Relação entre as modalidades e índices do Sinaes no Cenário 3. ............... 168 SUMÁRIO INTRODUÇÃO .............................................................................................................. 18 1. MOVIMENTO I - O ENADE FRENTE ÀS DEMAIS MODALIDADES DO SINAES .......................................................................................................................... 30 2. MOVIMENTO II – O SISTEMA DE GARANTIA DA QUALIDADE DO ENSINO SUPERIOR DE PORTUGAL E O SISTEMA NACIONAL DE AVALIAÇÃO DA EDUCAÇÃO SUPERIOR DO BRASIL: uma perspectiva comparada ......................... 42 2.1 Percurso metodológico.......................................................................................... 46 2.2 A Educação Superior em Portugal ........................................................................ 48 2.3 A avaliação e a regulação do Ensino Superior em Portugal ................................. 52 2.4 Os sistemas português e brasileiro de avaliação ................................................... 56 2.4.1 Comparativo entre os sistemas de avaliação do Brasil e Portugal ................. 57 2.4.2 A percepção de pesquisadores portugueses. .................................................. 72 2.4.2.1 Referenciais, pressupostos e características dos sistemas de avaliação. . 73 2.4.2.2 Processo de autoavaliação ....................................................................... 77 2.4.2.3 Exame de desempenho ............................................................................ 79 2.4.2.4 Consequências da regulação .................................................................... 81 3. MOVIMENTO III- CARACTERIZAÇÃO DA ESTRUTURA DAS RELAÇÕES ENTRE OS INDICADORES DO ENADE 2008-2010 ................................................. 86 3.1 O Exame Nacional de Desempenho dos Estudantes............................................. 86 3.2 O referencial metodológico .................................................................................. 89 3.3 Delineamento da investigação .............................................................................. 90 3.4 Caracterização das relações entre insumos e desempenho ................................... 99 3.4.1 Enade contínuo (nota Enade) ....................................................................... 100 Grupo I: Ciências Econômicas, Filosofia, Física, Geografia, Secretariado e Zootecnia. .......................................................................................................... 102 Grupo II: Agronomia, Biomedicina, Educação Física, Enfermagem, Engenharia do grupo III, Engenharia do grupo VI, Engenharia do grupo VII, Farmácia, Fisioterapia, Medicina Veterinária, Nutrição, Química, Relações Internacionais, Serviço Social, Tecnologia em Automação Industrial, Tecnologia em Gastronomia e Tecnologia em Redes de Computadores. .................................. 105 Grupo III: Administração, Arquitetura, Biologia, Ciências Contábeis, Computação e Informática, Comunicação Social, Design, Direito, Engenharia do grupo I, Engenharia do grupo II, Engenharia do grupo IV, Fonoaudiologia, História, Letras, Matemática, Medicina, Odontologia, Pedagogia, Psicologia, Tecnologia em Análise e Desenvolvimento de Sistemas, Tecnologia em Gestão Ambiental, Tecnologia em Radiologia e Turismo............................................. 110 Grupo IV: Ciências Sociais, Engenharia do grupo VIII, Música, Teatro, Tecnologia em Gestão de Processos Gerenciais, Tecnologia em Gestão de Recursos Humanos, Tecnologia em Gestão Financeira, Tecnologia em Marketing e Tecnologia em Moda. ..................................................................................... 115 3.4.2 IDD contínuo ................................................................................................ 117 Grupo I: Arquitetura e Urbanismo, Biologia, Comunicação Social, Direito, Engenharia do grupo III, Engenharia do grupo IV, Engenharia do grupo VII, Física, Geografia, Matemática, Pedagogia, Psicologia, Tecnologia em Gastronomia e Zootecnia. .................................................................................. 118 Grupo II: Biomedicina, Enfermagem, Fonoaudiologia, Medicina Veterinária, Nutrição, Tecnologia em Automação Industrial, Tecnologia em Gestão Ambiental e Tecnologia em Redes de Computadores ....................................... 123 Grupo III: Administração, Agronomia, Ciências Contábeis, Computação e Informática, Design, Educação Física, Engenharia do grupo I, Engenharia do grupo II, Farmácia, Filosofia, Fisioterapia, História, Letras, Medicina, Odontologia, Tecnologia em Desenvolvimento de Sistemas e Turismo. .......... 125 Grupo IV: Ciências Econômicas, Ciências Sociais, Engenharia do grupo VI, Engenharia do grupo VIII, Música, Química, Relações Internacionais, Secretariado, Serviço Social, Teatro, Tecnologia em Gestão de Recursos Humanos, Tecnologia em Gestão Financeira, Tecnologia em Marketing, Tecnologia em Moda, Tecnologia em Processos Gerenciais e Tecnologia em Radiologia. ......................................................................................................... 128 3.5 Síntese da estrutura das relações nos estratos ..................................................... 131 3.5.1 Enade contínuo ............................................................................................. 131 3.5.2 IDD contínuo ................................................................................................ 143 4. CONCLUSÕES, CONSIDERAÇÕES FINAIS E POSSIBILIDADES. ................. 155 REFERÊNCIAS ........................................................................................................... 174 APÊNDICES ................................................................................................................ 181 ANEXOS ...................................................................................................................... 538 INTRODUÇÃO A primeira referência específica à avaliação de instituições de ensino data de 1934, quando Ralph Tyler, nos Estados Unidos, elabora um estudo longitudinal intitulado The Eigth-Year Study (1932-1940). Deste autor surge a ideia que avaliar é averiguar o cumprimento de objetivos previamente traçados por meio de um diagnóstico quantitativo suficientemente detalhado dos processos relacionados à educação (TYLER, 2007, p. 99). A partir daí a avaliação ganha alcance nacional nos Estados Unidos, por meio de programas estaduais ou federais; com isso evidencia-se a complexidade de avaliar a educação como um processo global, que envolve não somente o desempenho dos alunos, mas a atuação de professores e gestores, os currículos e as estruturas. É neste contexto que se insere a Avaliação da Educação Superior que, impulsionada pela necessidade de profissionais para atender a crescente industrialização iniciada nos anos 1950 e ainda a corrida espacial dos anos 1960, passa a “fazer parte essencial das agendas e estratégias governamentais” (DIAS SOBRINHO, 2003, p. 59) que estabelecem para a educação os mesmos critérios de eficiência e produtividade utilizados no ambiente empresarial. Esse movimento em direção ao modelo produtivo econômico ocorreu não somente nos Estados Unidos, mas em vários países europeus como a França, Inglaterra, Suécia e Finlândia (DIAS SOBRINHO, 2003, pp. 60-61). A partir dos anos 1980 destaca-se o modelo inglês, fortemente vinculado ao setor industrial, no qual os recursos públicos para a educação superior, seja pública ou privada, passam a ser distribuídos de acordo com a relevância das pesquisas na produção tecnológica de bens utilitários. Este modelo foi adotado por países da América Latina, dos quais o Chile é o exemplo mais conspícuo1. Apesar das variações e nuances dos modelos regionais adotados nos países ocidentais, em todos eles a avaliação da educação superior evoluiu para uma estreita ligação com a lógica dos processos econômicos, adotando suas regras unívocas de entrada e saída (insumo e produto educacionais), resultados mensuráveis, produção em massa e controle externo da “qualidade” do produto final; o Estado, neste último aspecto, assumindo seu papel de controle por meio da avaliação: 1 Em 1973 o governo do Chile implanta sua política de privatização e regulação da educação em todos os níveis, promovendo medidas de distribuição de recursos com base nos processos regulatórios, conforme detalha Sobrinho em sua obra Avaliação: políticas educacionais e Reformas da Educação Superior. 18 [...] países diferentes, ocupando lugares distintos no sistema mundial, estão a percorrer caminhos bastante semelhantes no desenvolvimento das políticas de avaliação. Estes percursos podem caracterizar-se, genericamente, por um crescente controlo nacional sobre os processos avaliativos (AFONSO, 2000, p. 62). Este papel sofreu modificações. Após a Segunda Grande Guerra, ocorre o aparecimento do Estado-providência 2 , advindo da “necessidade de o Estado ter uma decisiva intervenção econômica e, por outro, de ter que criar condições para atender às novas e crescentes expectativas e necessidades sociais” (AFONSO, 2000, pp. 99-100), entre as quais a educação. A crise econômica da década de 1970 trouxe modificações basilares no papel do Estado, com a diminuição significativa de seu poder interventor na economia, este assumindo então um caráter mais próximo às atividades produtivas, em crescente processo de transnacionalização. Surge o Estado-competidor e “nesse contexto, as reformas educativas e a reestruturação dos sistemas educativos voltam a ser pensadas à luz de mudanças mais globais no sistema capitalista” (AFONSO, 2007, p. 91). Tal modificação incidiu diretamente nos processos de avaliação da educação superior, e, a partir da década de 1980, no papel do Estado. Afonso sugeriu três fases para este novo papel, o Estado-avaliador: uma primeira fase, entre as décadas de 1980 e 1990, em que “a adoção de políticas de avaliação (incluindo a avaliação em larga escala no interior de um mesmo país) dependeu, em grande medida, de uma (ainda) expressiva autonomia relativa dos Estados nacionais” (AFONSO, 2013b, p. 271), ainda ocorrente em vários países; a segunda, do final dos anos 1990 e nesta década, na qual se percebe uma “[...] retração crescente da autonomia relativa do Estado-nação e maior protagonismo de instâncias internacionais e transnacionais” (AFONSO, 2013b, p. 278), e uma terceira fase emergente, na qual os processos educacionais, entre eles a avaliação, tendem à crescente padronização e modularização, em detrimento das especificidades nacionais. O percurso brasileiro neste movimento global da avaliação da educação superior é examinado a seguir. 2 Segundo Santos (1993, p.43), este modelo de Estado estrutura-se na relação entre capital e trabalho sob controle do Estado e no direito individual aos serviços essenciais (trabalho, educação e saúde) assegurado por investimentos públicos nestas áreas. 19 A avaliação no Brasil A reforma universitária brasileira de 1968 pode ser considerada como o ponto inicial do processo de alinhamento da educação superior brasileira ao movimento global econômico vigente. Nesta reforma a ênfase foi dada ao aparelhamento das universidades federais para a produção de ciência e tecnologia adequada à estratégia de desenvolvimento econômico do país, centrada nos critérios da “eficiência, produtividade, racionalização e excelência”, como destacado por Dias Sobrinho (2003, p. 68). Alia-se a isto o início da ampliação do acesso ao ensino superior, tanto pela implantação de novas universidades federais quanto pela abertura da educação à iniciativa privada. Esta dinâmica perdura até o início da década de 1980, na qual as discussões acerca da avaliação culminam na primeira tentativa de implantação de um programa de avaliação nacional para a educação superior, o Programa de Avaliação da Reforma Universitária – PARU, de 1983. Seu principal objetivo era o de “conhecer as condições reais nas quais se realizavam as atividades de produção e disseminação do conhecimento do sistema de educação superior.” (BARREYRO; ROTHEN, 2008, p. 133). Por meio deste programa inicia-se a ideia de uma autoavaliação formativa na prática das avaliações institucionais. No entanto, o PARU não chegou a atingir a consecução de seu objetivo, tendo sido desativado após um ano de existência. O Ministério da Educação cria, em 1985, a Comissão Nacional para a reformulação da Educação Superior3, uma comissão de notáveis que teve como produto final o documento “Uma nova política para a educação superior brasileira”. É com base neste documento que, em 1986, é criado o Grupo Executivo da Reforma da Educação Superior (GERES) para propor de fato uma reforma na educação superior. Porém, suas propostas foram limitadas à “reformulação da legislação pertinente à Educação Superior nas Instituições públicas” (BARREYRO; ROTHEN, 2008, p. 143), com vistas a aumentar sua eficiência na geração de pesquisas, diferentemente da iniciativa privada, que estaria mais voltada à formação do profissional para o mercado de trabalho. Neste contexto a função da avaliação seria: 3 Composta por 24 membros, com formação e atuação em diversos segmentos nacionais, a comissão contava com representantes: do Conselho Nacional de Educação, de Reitores, Pró-Reitores, professores e estudantes de universidades e faculdades e secretarias de educação estaduais e municipais. Seu objetivo central era a reformulação da educação superior e a criação de uma nova política. 20 A avaliação, na visão do GERES, teria a função primordial de controlar a qualidade do desempenho da Educação Superior, especialmente a pública. No caso do setor privado, o próprio mercado faria a regulação, pois esse setor depende do sucesso do seu produto para obter os recursos para a sua manutenção e expansão. Assim nessa lógica, o financiamento da educação superior cumpriria, para o setor público, o mesmo papel que o mercado tem em relação ao privado. (BARREYRO; ROTHEN, 2008, p. 145). A década de 1990 inaugura uma nova fase nas políticas educacionais no Brasil, com a adesão do país ao neoliberalismo. A reforma do Estado implantada nesta década produz “alterações substantivas nos padrões de intervenção estatal, redirecionando mecanismos e formas de gestão [...], particularmente as politicas educacionais em sintonia com organismos multilaterais” (DOURADO, 2002, p. 241). Entre 1993 e 1995 duas publicações internacionais, a “Educação superior: aprender com a experiência”, do Banco Mundial, publicado em 1994, e o “Documento de política para a mudança e desenvolvimento na educação superior”, lançado pela UNESCO em 1993 em versão preliminar e em 1995 em sua versão final, representaram “duas visões distintas absolutamente opostas sobre a função da educação superior com relação à sociedade e sobre a própria sociedade” (DIAS, 2004, p. 895). Esta polarização encontra eco nos diferentes movimentos nacionais, materializados no Plano Decenal de Educação para Todos – 1993-2003, de 1993, e na Lei de Diretrizes e Bases da Educação de 1996, ambos alinhados a visão economicista adotada pelo Banco Mundial, e no desenvolvimento do Programa de Avaliação Institucional das Universidades Brasileiras (PAIUB), em 1993, formulado com a pretensão de ser um programa abrangente, sistemático e contínuo (BRASIL, 1993; BRASIL, 1994) e com uma proposta concordante com aquelas lançadas pela UNESCO. O PAIUB, de certa forma, resgata o que foi produzido pelo PARU, em um contraponto com o documento do GERES, o que poderia ser caracterizado como uma dinâmica pendular no processo de construção da identidade da prática avaliativa brasileira, ora em um polo em que a autoavaliação formativa é preferida, caso do PARU, ora em que o viés produtivista, quantitativo e pontual foi priorizado, como havia sido no GERES, até então. O PAIUB tenta se posicionar entre estes dois polos, congregando os documentos anteriores e contando para isso com um grupo 21 representativo das IESs brasileiras. Este programa teve adesão de várias IESs4 (PAIUB, 1996) e muitos dos programas internos de avaliação institucional nasceram dele. Este programa sofreu uma minimização com a publicação da Lei de Diretrizes e Bases da Educação e do Decreto nº 2.026/96, que estabelecia procedimentos de avaliação do desempenho global das instituições, do ensino de graduação e de pósgraduação, além do Exame Nacional dos Cursos - ENC, mais conhecido como Provão. A partir desta lei, inicia-se o desenvolvimento de um novo Plano Nacional de Educação que, após um período de intenso antagonismo entre duas propostas conflitantes, do Ministério da Educação e da Sociedade, que novamente ecoa as duas visões opostas acerca da educação, um plano final é produzido com preponderância da proposição inicial do MEC5, de cunho técnico-instrumental. Novamente o “pêndulo” da avaliação nacional vai em direção à aferição de resultados, de acordo com os movimentos mais amplos em escala mundial. Na educação superior, o Decreto nº 3.860/2001 detalhou os indicadores e critérios a serem observados no processo de avaliação. A implantação do Censo da Educação Superior pela Portaria nº 2.517 de 2001 complementou esse processo (BRASIL, 2001), que se manteve até o estabelecimento em 2004 do Sistema Nacional de Avaliação da Educação Superior do Brasil. O objeto de pesquisa: O Sistema Nacional de Avaliação da Educação Superior Sinaes Em 2004 foi aprovada a Lei nº. 10.861 (BRASIL, 2004) que instituiu o Sistema Nacional de Avaliação da Educação Superior – Sinaes6, coordenado pela Comissão de Avaliação da Educação Superior – Conaes, criada pela mesma lei. Considerado como uma evolução efetiva no processo de avaliação da Educação Superior Brasileira 4 Citam-se a UFSC, UnB, UEL, UFSM e outras, tais como as universidades da região Nordeste que assinaram a carta de Recife, constante no primeiro número publicado da Revista Avaliação (ver Avaliação, v.1, n. 1, 1996, disponível em:< http://periodicos.uniso.br/ojs/index.php?journal=avaliacao&page=issue&op=view&path%5B%5D=59. 5 A discussão destas propostas é detalhada no documento Planejamento Educacional Brasileiro, postado no sítio do Forum Nacional de Educação. Ver em http://fne.mec.gov.br/images/pdf/planejamento_educacional_brasil.pdf 6 O Sinaes teve como base o documento Sistema Nacional de Avaliação da Educação Superior (Sinaes): bases para uma nova proposta da educação superior, síntese dos estudos realizados pelos membros da Comissão Especial da Avaliação da Educação Superior (CEA), designada pelas Portarias MEC/SESu nº 11, de 28 de abril de 2003, e nº 19, de 27 de maio de 2003 22 (WEBER, 2010, p. 1259), o Sinaes não só resgatou os princípios iniciais do PARU e PAIUB, como estabeleceu procedimentos objetivos para sua operacionalização. Com objetivo de avaliar as Instituições de Educação Superior (IESs), seus cursos de graduação e o desempenho acadêmico dos seus estudantes, o Sinaes integrou três grandes modalidades de avaliação: A avaliação das IESs (Avalies), com o objetivo de identificar o perfil da Instituição, sua atuação junto à comunidade, suas ações sociais, seus projetos e programas, se utiliza de dois procedimentos básicos de avaliação: a autoavaliação, realizada pela Comissão Própria de Avaliação (CPA), uma comissão interna institucional que trabalha em um universo de dez dimensões a serem avaliadas e que englobam desde os documentos norteadores como o plano de desenvolvimento institucional e projeto pedagógico institucional, até os aspectos relacionados à sustentabilidade financeira da instituição; e a avaliação externa in loco, estabelecida por meio de comissões de especialistas. A Avaliação dos Cursos de Graduação (ACG), que identifica as condições de ensino oferecidas pela instituição: sua infraestrutura física, salas de aula e laboratórios, seus recursos humanos, em especial o corpo docente e a organização didático-pedagógica. A avaliação é realizada por meio de uma comissão de avaliadores específicos da área do curso que dispõe de um instrumento padrão para a avaliação. A avaliação do desempenho dos estudantes (Enade), que objetiva estabelecer indicadores de desempenho dos estudantes no âmbito dos conteúdos previstos nas diretrizes curriculares do curso de graduação, das habilidades e competências mínimas requeridas para o exercício profissional de qualidade. O estabelecimento do novo sistema foi pautado em princípios fundamentais (SINAES, 2004, pp. 86-93), entre os quais se destacam: Responsabilidade social com a qualidade da educação superior; Reconhecimento da diversidade do sistema; Respeito à identidade, à missão e à história das instituições; 23 Globalidade, isto é, compreensão de que a instituição deve ser avaliada a partir de um conjunto significativo de indicadores de qualidade, vistos em sua relação orgânica e não de forma isolada e Continuidade do processo avaliativo. Tais princípios promoveram uma nova visão 7 sobre o processo avaliativo institucional. Sinalizava-se a passagem de um modelo de regulação8 para um modelo de avaliação democrática (CONTERA, 2002, p.134), em que os processos avaliativos são baseados em colaboração e participação, ao invés de um enfoque competitivo, e os indicadores utilizados apontariam para a qualidade institucional como um todo e não apenas para o desempenho, que no novo sistema estaria representado por apenas uma das modalidades, o Enade9. A avaliação das IESs brasileiras abandonava um modelo quantitativo (o Exame Nacional dos Cursos) para um modelo misto. Contera (2002, p.134) destaca que neste modelo, autorregulador, do ponto de vista filosófico, [...] critica-se a racionalidade instrumental como sendo incapaz de argumentar a qualidade valorativa dos fins com os quais se relaciona. Recupera-se o interesse emancipatório concebido não exclusivamente como o interesse cognoscitivo prático da ciência, como interesse emancipador através da auto-reflexão. Suas diretrizes caracterizaram esta intenção e, apoiados em pressupostos tanto acadêmicos quanto políticos, estabeleciam seis pontos-chave: a participação ativa dos sujeitos; os valores acadêmicos fundamentais; o papel das IESs como instituições estratégicas para as políticas setoriais nas áreas científica, tecnológica e social; o papel do Estado; o recredenciamento periódico das IESs e a implantação de um sistema de avaliação que tenha como principal objetivo a melhoria da qualidade acadêmica e da gestão institucional (BRASIL, 2004, p. 10-11). Estas diretrizes apontavam diretamente para um processo de avaliação em que, por um lado, avaliados também seriam avaliadores, de forma que “[...] o sujeito do processo pode ser também objeto de avaliação em determinadas etapas e sempre de acordo com as normas estabelecidas” (DIAS SOBRINHO, 2000, p. 119); o processo 7 Também poderia se dizer que o sistema resgatou e ampliou a visão concebida pelo PARU décadas antes, que já estabelecia as diversas modalidades de avaliação. 8 9 Segundo Pedroso e colaboradores (2013, p. 58), é provável que o Brasil tenha sido o primeiro país a utilizar o exame de desempenho de estudantes do ensino superior como uma componente permanente em um sistema de avaliação. 24 fosse marcado pela liberdade institucional de estabelecer seus princípios norteadores e sua relação com a realidade em que se insere e a figura da universidade considerada como parte fundamental no estabelecimento de políticas sociais. Por outro lado se explicitava o papel do Estado como agente regulador para a promoção contínua da qualidade da educação superior. Este delicado equilíbrio entre autonomia institucional em seu processo de autorregulação e regulação externa por meio do Estado é apontado no documento inaugural do novo sistema: (1) o deslocamento de centro de avaliação de uma prova para um conjunto diversificado de instrumentos, (2) a integração dos instrumentos de avaliação e de informação e dos processos avaliativos desenvolvidos por diferentes órgãos do Ministério da Educação e dos sistemas estaduais, (3) a valorização dos aspectos qualitativos e interpretativos nos processos e instrumentos, (4) a institucionalização de programas permanentes de capacitação de avaliadores, (5) a criação e consolidação da cultura de auto-avaliação nas Instituições de Ensino Superior, e (6) a implantação de processos de meta-avaliação. (RISTOFF, 2004, p.179). Ressaltam-se aqui os principais pontos de mudança do Sinaes em relação às práticas avaliativas anteriores: a diversificação de instrumentos para atender a pluralidade institucional; o retorno dos aspectos qualitativos nos processos avaliativos; a natureza contínua deste processo e o aspecto formativo e emancipatório da avaliação, pautado na investigação, autorreflexão e autotransformação institucional. Por meio da interação entre suas três modalidades: a avaliação somativa do processo de ensino, configurada no desempenho dos alunos no Enade, a avaliação por pares para os cursos (ACG) e a avaliação formativa de toda a instituição, por meio do processo contínuo de autoavaliação dirigido pela CPA – a Avalies, o sistema previa sua autorregulação, a partir de sua meta-avaliação (prevista no item 3.3.3 na proposta original do Sinaes, BRASIL, 2004, p. 112). Nestes dez anos de implantação do sistema, a proposta inicial de uma dinâmica entre as três modalidades (que efetivasse o processo de avaliação e consequentemente obtivesse recortes adequados para a regulação) não ocorreu da maneira idealizada, conforme demonstrado no decorrer deste trabalho. O Enade se transformou na principal modalidade: os índices derivados dos seus resultados foram (e são) utilizados de forma automática nos processos regulatórios de renovação de curso e a ACG somente nos processos de reconhecimento ou nas renovações de reconhecimento em que o curso não 25 é contemplado no Enade. Quanto a Avalies, sua relação com as duas outras modalidades é fraca ou inexistente. A relação entre Avalies e ACG se resume a um único indicador que trata da inserção da IES no contexto socioeconômico regional, a ser elaborado pela CPA para apreciação da comissão de avaliação externa na ACG. Não ocorre relação direta entre Avalies e Enade e nem a Avalies é considerada de alguma forma na construção dos índices de regulação CPC e IGC. Espera-se que a Avalies, como processo maior de avaliação frente às duas outras modalidades, utilize os resultados destas últimas em seu processo de autoavaliação. Mas os resultados da Avalies, expostos nos relatórios de autoavaliação publicados bianualmente, não são considerados no processo regulatório, ou seja, findam em si mesmos, não provocando movimentos posteriores no sistema de avaliação. Em relação ao Enade, apesar do CPC ter sido utilizado desde o ano 2008 pela mídia como um índice de classificação da qualidade das IESs, não foram realizados suficientes estudos que permitam caracterizar as relações entre os insumos utilizados para o CPC e o desempenho dos estudantes expresso no Enade, e consequentemente expor a “estrutura” causal entre estes insumos escolhidos como indicadores da qualidade do curso e o índice final desta qualidade, o desempenho do estudante concluinte. Um exame das publicações nas principais revistas científicas brasileiras desde o final do primeiro triênio do Enade em 2006 não mostrou estudos de um ciclo completo do Enade, apesar da preocupação dos estudiosos da área acerca da centralização desta modalidade no processo de regulação dos cursos de graduação brasileiros. Diante deste panorama, propôs-se neste estudo uma investigação do Sinaes em três movimentos: um exame interno do Sinaes com o intuito de avaliar o processo que culminou no papel central do Enade frente às suas duas outras modalidades. Um olhar externo ao Sinaes, contrastando-o com outro sistema no qual inexiste o exame de desempenho dos estudantes e um terceiro movimento no qual o desempenho aferido em um triênio do Enade é relacionado com os indicadores de qualidade utilizados no computo do Conceito Preliminar de Curso. Com base nisto, pretende-se discutir as potencialidades e fragilidades que o Enade apresenta em seu papel em relação às demais modalidades do sistema – Avalies e ACG e indicar possibilidades futuras em relação ao Sinaes, como subsídio à meta-avaliação do sistema. 26 A pesquisa desenvolvida propôs as seguintes questões: Qual foi o percurso do Sinaes em seus dez anos de operacionalização? Como as suas modalidades foram se configurando neste percurso de forma a culminar na centralidade do exame do desempenho frente às demais? Como se processa a avaliação do ensino superior português, no qual o exame de desempenho é ausente? Que similaridades e diferenças podem ser observadas entre os dois sistemas? Quão justificável é o papel central do Enade no Sinaes? Quão generalizável é o seu principal índice derivado, o Conceito Preliminar de Curso – CPC, como indicador de qualidade dos cursos de graduação brasileiros? Que possibilidades podem ser divisadas para o Sinaes? Com base nestas questões orientadoras, propôs-se como objetivo geral do estudo avaliar o papel do Exame Nacional do Desempenho dos Estudantes - Enade e dos índices dele derivados em relação às demais modalidades do Sistema Nacional de Avaliação da Educação Superior – Sinaes: a Avaliação dos cursos de Graduação – ACG e a Avaliação das Instituições de Educação Superior - Avalies, contrastando o Sinaes com o sistema português no qual inexiste o exame de desempenho, com vistas à metaavaliação do sistema. Para tanto se definiram como objetivos específicos: 1. Investigar o desenvolvimento do Sinaes desde sua implantação em 2004, a operacionalização de suas três modalidades e, em detalhe, o processo que levou à centralidade do Enade como modalidade principal e fonte de indicadores ao processo regulatório. 2. Comparar os processos de avaliação realizados pelo Brasil e por Portugal, contrastando-os em seus pressupostos e operacionalização e colhendo a percepção dos pesquisadores portugueses da área de avaliação do Ensino Superior com relação aos dois sistemas. 3. Caracterizar o desempenho dos cursos das IESs no triênio 2008-2010 do Enade, por meio dos indicadores Enade e IDD publicados do exame. 4. Analisar as relações entre os indicadores considerados como insumos e o desempenho. 5. Analisar as relações para cada área nos seguintes estratos: região federativa, organização acadêmica e categorias administrativas. 27 6. Estabelecer o grau de generalização do índice derivado do Enade, o Conceito Preliminar de Curso. 7. Propor possibilidades para o Sinaes, modificando em maior ou menor grau a relação atual do Enade em relação às demais modalidades do sistema. O primeiro objetivo foi proposto como o ponto inicial do processo de investigação: uma análise diacrônica na estrutura interna do sistema. No segundo, procurou-se um afastamento do sistema nacional, e sua comparação com outro sistema de avaliação. A escolha da experiência portuguesa para esta comparação fundamentou-se nas especificidades deste país em termos do seu sistema de avaliação e de suas políticas educacionais, nas influências que sofreu devido à sua integração no espaço europeu de ensino superior e na expressiva produção colaborativa na área de avaliação educacional, expressa tanto em publicações conjuntas em revistas portuguesas e brasileiras, como no contínuo debate realizado em eventos de ambos os países 10 . Os objetivos seguintes justificaram-se devido ao fato de que ainda não se realizou um estudo completo de um ciclo trienal do Enade, de forma a avaliar objetivamente suas potencialidades e limitações no processo avaliativo. Por fim, o sétimo objetivo se autojustifica, considerando a necessidade da avaliação do Sinaes após dez anos de operacionalização. Os resultados da investigação foram divididos de acordo com os movimentos anteriormente citados. No primeiro, com base na análise bibliográfica da produção cientifica acerca do Sinaes e análise dos principais documentos a ele associados, discute-se a operacionalização do sistema nestes dez anos desde sua implantação e a adoção do Enade como principal modalidade do sistema. No segundo, o processo de evolução do sistema brasileiro é contrastado com o que ocorreu em Portugal, discutindo-se as similaridades e diferenças de ambos os sistemas de avaliação. No terceiro, é realizada a caracterização de um ciclo completo do Enade para que se possa dispor de dados objetivos que permitam avaliar a extensão do uso dos indicadores derivados do Enade no processo de avaliação da qualidade do Ensino Superior brasileiro. 10 Destacam-se as revistas portuguesas Revista Portuguesa de Educação, Revista Lusófona de Educação, Sísifo entre outras. Do Brasil, as revistas Avaliação, Educação e Sociedade, Revista Brasileira de Educação e outras. Entre os eventos vale citar o Congresso Internacional de Avaliação, O Congresso Ibero-Americano de Docência Universitária e o Colóquio Luso-Brasileiro. 28 Com o intuito de facilitar a leitura, a metodologia empregada no segundo e no terceiro movimento está detalhada na própria seção. Ao final são realizadas considerações acerca dos resultados encontrados e apresentadas propostas para o Sinaes. 29 1. PRIMEIRO MOVIMENTO - O ENADE FRENTE ÀS DEMAIS MODALIDADES DO SINAES Para que se possa entender o processo que levou à centralidade do Enade no Sinaes, torna-se útil examinar os princípios estabelecidos na gênese do sistema e a relação entre avaliação e regulação 11 preconizada por este. Como já citado, em seu documento original (BRASIL, 2004), percebe-se uma tentativa do Sinaes de aproximar modelos distintos de avaliação: a melhoria da qualidade da Educação está em última instância sob o olhar avaliativo da própria instituição, mas também é regulada pelo ambiente externo, por meio de mecanismos de avaliação baseados em índices. Nesta relação observa-se que o processo de avaliação “não se baseará exclusivamente em pontuações, pesos e resultados quantitativos; repousará também na avaliação qualitativa” (BRASIL, 2004, p. 131), considerada como um dos principais desafios “a valorização dos aspectos qualitativos e interpretativos nos processos e instrumentos” (RISTOFF, 2004, p. 179). Também se faz referência ao papel da sociedade e do Estado na relação entre regulação e avaliação: A criação de um sistema, combinando regulação e avaliação educativa, em suas dimensões interna e externa, deve ser de responsabilidade compartilhada do Estado e das instituições, mas interessa também e sobretudo à população, que tem os direitos de contar com um sistema educativo que cumpra com os principais anseios e necessidades mais gerais da sociedade, e de saber como as instituições estão realizando seus mandatos sociais relativos ao avanço do conhecimento e à formação de cidadãos que também sejam bons profissionais. (BRASIL, 2004, p. 22). Mais adiante o documento explicita sua concepção de regulação. Lê-se: Para superar a concepção e a prática da regulação como mera função burocrática e legalista, é necessário construir uma outra lógica, com um outro sentido filosófico, ético e político: que a regulação não se esgote em si mesma, e, principalmente, articulada à avaliação educativa propriamente dita, seja também uma prática formativa e construtiva. (BRASIL, 2004, p. 88) Tem-se aqui o ponto central da relação entre avaliação e regulação estabelecida para o novo sistema: a regulação deve ser uma prática formativa e construtiva12, e não 11 Apesar da ênfase dada na presente pesquisa na relação dos índices derivados da avaliação nos processos de regulação, vale notar que tais índices (principalmente o CPC e o IGC) também são utilizados nos processos de supervisão do MEC: termos e medidas de saneamento, medidas cautelares, suspensão de oferta de cursos e descredenciamento de instituições. 12 Ou regulação autônoma, em contraposição às práticas de monitoramento e controle periódico dos processos educativos, por meio de regras e procedimentos instrumentais, ou seja, uma regulação de controle. Na pesquisa este segundo conceito foi utilizado para caracterizar os sistemas investigados. 30 se limitar ao exame de resultados pontuais. Isto demonstra a intenção inicial de submeter os índices estabelecidos no sistema à apreciação qualitativa processual. Ora, em que tripé se assentaria a prática formativa da avaliação? Certamente não no Enade, que tem seu resultado demarcado em ciclos claramente definidos; e não pela ACG, que está limitada à visita periódica de um conjunto de avaliadores que não mantém uma visão integrada entre si e nem no tempo acerca da realidade da IES avaliada. O aspecto formativo do sistema somente se encontra na Avalies13, no processo de autoavaliação da IES que, este sim, tem condições de realizar um exame abrangente em tempo e espaço, com sujeitos envolvidos com a realidade institucional. Como Dias Sobrinho se refere, “a avaliação institucional não se impõe de atos fortuitos e episódicos, conduzidos por indivíduos aleatórios: não reconhecidos como sujeitos de um processo oficial” (DIAS SOBRINHO, 2000, p. 115). No entanto, finalizado o primeiro ciclo em 2007, o Sinaes passou por transformações importantes, derivadas do fato de que sua operacionalização ofereceu obstáculos de difícil superação, devido principalmente aos problemas relacionados à grande demanda dos exames realizados pelos alunos ingressantes e concluintes no Enade14 e a metodologia por amostragem utilizada. Além disso, a operacionalização das demais modalidades, a Avalies e ACG, não possibilitou a integração das modalidades; como consequência, a ACG foi minimizada em favor do Enade e a Avalies permaneceu sem apreciação externa, a não ser como relatório auxiliar nos processos de recredenciamento das Instituições de Educação Superior (IESs). Detecta-se uma “hibridização” sofrida pelo Sinaes: Os três pilares que constituem o Sistema atualmente são derivados das experiências anteriores [...]. A cumulação dos mecanismos de avaliação foi realizada sem considerar que cada um deles é produto de valores e paradigmas divergentes: a visão formativa/emancipatória do PAIUB, fundada na participação e na autonomia institucional, a visão somativa da Avaliação das Condições de Ensino e o mecanismo de ranking do Provão. (BARREYRO & ROTHEN, 2006, p. 971). 13 O que exige uma Avalies forte o suficiente para que tenha condições de realizar o processo mais complexo dentre as três modalidades. 14 Em 2007, 189.614 alunos prestaram o exame, dos quais 118.610 ingressantes e 71.004 concluintes. 31 Com isso ocorre uma redução da avaliação para se adequar à premência da regulação, dificultada pelo universo de IESs 15 , o crescente aumento no número de cursos de graduação e também no número de alunos. A centralidade do Enade na interação entre as três modalidades de avaliação se explicita com a publicação de índices cuja construção depende em boa parte do desempenho alcançado pelos alunos no exame, apresentando claramente a “[...] lógica do input/output e o critério da eficiência como padrão predominante da avaliação” (SANTOS FILHO, 2000, p. 44), constituindo os critérios base para o processo de regulação. Neste momento, após dez anos desde sua implantação, uma visão retrospectiva é possível de ser estabelecida para a operacionalização do Sinaes. Grosso modo, três períodos distintos podem ser percebidos: O primeiro ciclo (2004-2006) no qual a principal fonte de discussão acerca do novo sistema de avaliação recaiu sobre a metodologia de amostragem para o Enade, culminando com sua transformação para um exame censitário em 2008 (ROTHEN & BARREYROS, 2011, p. 32), em uma configuração similar ao anterior exame nacional de cursos, o “Provão”. Um segundo ciclo (2007-2009) em que uma nova reformulação do Enade é realizada, o desempenho dos estudantes ingressantes não é mais utilizado para a composição do conceito Enade final do curso, e o Enade passa a ser utilizado na construção de novos índices: o conceito preliminar do curso (CPC) e o índice geral de cursos (IGC). Um terceiro período (o ciclo avaliativo de 2010-2012) em que as reformulações do Sinaes recaem na construção do CPC, cujo algoritmo sofre modificações em termos que composição: os ingressantes não mais realizam o Enade e um dos índices que compõe o CPC e resulta do desempenho dos ingressantes, o IDD, passa a ser calculado com base no desempenho dos estudantes ingressantes no Exame Nacional do Ensino Médio, o ENEM (de acordo com a nota técnica número 29, BRASIL, 2012). Paralelamente a isto, os instrumentos de avaliação externa (a ACG) também sofrem reformulações em seus algoritmos, tanto na composição dos indicadores quanto nos 15 Entre 2000 e 2008 o número de IES cresceu de 1.637 para 2.252, configurando um aumento de mais de 30% em oito anos. Ver resumo técnico do Censo da Educação Superior, disponível em: http://download.inep.gov.br/download/censo/2008/resumo_tecnico_2008_15_12_09.pdf 32 pesos de cada um deles. Uma visita ao sítio do Inep16 mostra o total de notas técnicas relativas aos índices Enade, IDD, CPC e IGC, e comprovam a constante reelaboração dos índices de desempenho institucional. Desde 2007, notas técnicas17 foram lançadas relativas à modificação destes índices, alterando ou aperfeiçoando o tratamento numérico. Número inferior é visto para as reformulações dos instrumentos de avaliação externa da ACG, mas reformulações destes instrumentos ocorreram durante o período18, parte delas relativas à avaliação da crescente modalidade à distância. Em contrapartida, o manual de orientações do processo de autoavaliação da IES, base para o terceiro eixo do “tripé” do Sinaes, a Avalies, permaneceu inalterado desde 200419, ou seja, do ano de implantação do Sinaes. Interessante notar que a Avalies é das modalidades do sistema aquela que possui forte carga qualitativa, derivada do obrigatório processo de autorreflexão que uma autoavaliação demanda. A centralidade do Enade no sistema de avaliação, sua utilização na regulação e na publicação de “ranqueamentos” parecem mostrar que a “qualidade da educação resumiu-se ao rendimento escolar, ou à performatividade, estimulando ansiedades e a competição” (GARCIA, 2010, p. 453). De fato, o Enade tem sido a fonte predominante de indicadores para o processo regulatório, culminando no disposto pela Portaria Normativa MEC 4/2008 (BRASIL, 2008) que estabeleceu a dispensa de avaliação in loco para os cursos que obtivessem CPC acima de três. Isto representa um marco na subordinação das modalidades de avaliação do Sinaes, pois, a partir daí, a ACG torna-se opcional de acordo com o resultado apontado no Enade. E a Avalies? Esta já é subordinada, pois seus resultados são utilizados somente como base inicial do processo 16 Desde 2008 foram 18 notas técnicas publicadas até 2015, ver em http://portal.inep.gov.br/notastecnicas. 17 Em especial as notas técnicas referentes ao conceito Enade e ao CPC, reformuladas em 2008, 2009, 2010 e 2013. Em 2012 a nota técnica número 29 incluiu o desempenho dos estudantes no ENEM no cálculo do IDD. Em 2013 a nota técnica número 72 reformulou os insumos de organização pedagógica e infraestrutura do CPC. Ver em http://portal.inep.gov.br/notas-tecnicas 18 Ver as portarias referentes a estas reformulações em http://portal.inep.gov.br/superiorcondicoesdeensino-legislacao_normas. No sítio estão postados 20 links que remetem a instrumentos de avaliação e suas atualizações, referentes a credenciamentos de IES, autorizações, reconhecimentos e renovação de reconhecimentos de cursos. 19 Em 9 de outubro de 2014 foi publicada a nota técnica número 65 do Inep: um novo roteiro para o relatório de autoavaliação institucional, que propõe uma estrutura para o relatório, sem sugerir indicadores de avaliação como o manual de orientações de 2004. 33 avaliativo da ACG e no exame de um indicador de avaliação específico 20 para a CPA. Temos assim um percurso de subordinação explicitado: AvaliesACG Enade. Tem-se desse modo uma prática desarticulada entre as três modalidades que compõem o Sinaes: o Enade gerando um conjunto de índices utilizados majoritariamente no processo regulatório, a ACG e Avalies externa gerando índices (o conceito do curso CC e seu par institucional o conceito institucional, o CI) que, ou são submetidos a uma “revisão” pelo Enade, como é o caso do CC em relação ao CPC, ou não estabelecem relação, como é o caso do CI e do IGC, e a Avalies, cujos resultados de avaliação não são utilizados no processo regulatório, a não ser como coadjuvante da ACG. A operacionalização do Sinaes demonstra que a já citada subordinação entre as três modalidades é inversamente proporcional à natureza qualitativa e autorregulatória de um processo de avaliação: a modalidade principal, o Enade, limitado ao desempenho do estudante, pontual e somativo; a ACG, como modalidade intermediária na subordinação, vinculada a um conjunto maior de dimensões de avaliação que não somente o desempenho, mas submetida ao olhar pontual dos avaliadores externos em sua visita a IES, e a Avalies, que, além de abranger todo o universo institucional, conta com um processo contínuo de autorreflexão, mas permanece como a modalidade mais subordinada do processo. Esta polarização no processo de avaliação reporta-se a discussões amplamente realizadas em países em que o processo de avaliação assemelha-se atualmente ao que foi chamado por Shore (2009, p.32) como cultura de auditoria: Auditorias, indicadores de desempenho, exercícios de comparação competitiva, ranking de universidades, gerenciamento por metas, exercícios punitivos de classificação de pesquisa e avaliações periódicas da qualidade de ensino são as tecnologias que foram usadas para disseminar os métodos de novo gerenciamento público na governança de universidades. Weber explicita a preocupação com relação à ênfase dada ao desempenho dos estudantes na avaliação geral da instituição ao expor que esta característica “... finda por transformar a proposta do Sinaes de avaliação como processo formativo em simples avaliação de resultados.” (WEBER, 2010, p. 1264). 20 Presente no novo instrumento de avaliação externa, de 2013, homologado pela Portaria nº 92, de 31 de janeiro de 2014. Nele consta o requisito legal número 7 que prevê a obrigatoriedade da CPA e o indicador 5.6 que trata da infraestrutura para esta. 34 Tais índices têm sido foco de debate na comunidade acadêmica. Uma das variáveis discutidas na composição do índice geral de cursos (IGC) é a composição do corpo docente. Peixoto analisou os resultados das universidades que obtiveram conceitos gerais mais elevados no período 2008-2009 e concluiu que: “[...] as universidades analisadas não são homogêneas no que se refere à capacidade de produção de conhecimento, a abrangência e qualidade da sua pós-graduação e na composição de seu corpo docente” (PEIXOTO, 2010, p.32). Outros autores especificam a problemática encontrada na formulação do índice geral de cursos em relação aos insumos relativos ao corpo docente, contrastando a realidade das IESs federais com as privadas. Citando Bitencourt, Casartelli e Rodrigues (2009, p. 679): Um aspecto adicional que merece ser revisto é a forma de pontuar os percentuais de doutores nas IES. Hoje, por exemplo, uma IES que cumpre com o requisito de 1/3 de doutores fica com uma pontuação muito baixa neste quesito, especialmente devido aos altos índices de doutores nas universidades federais. O mesmo ocorre em relação a professores em regime de tempo integral. Trabalhos como o de Embiruçu, Fontes e Almeida (2010) propõem uma métrica mais completa para a avaliação do desempenho docente, que utiliza indicadores de ensino, pesquisa e extensão, como suporte à avaliação das instituições, complementando variáveis como titulação e regime de trabalho. Outras variáveis utilizadas para a construção dos índices, tais como a opinião dos alunos acerca da infraestrutura e organização didático-pedagógica, também são objetos de crítica: Uma das limitações desta sistemática é que a avaliação dos equipamentos e da organização dos planos de ensino é realizada pelos alunos. Ouvir a percepção do aluno é lúcido e desejável. Contudo, tomá-la como referência para a regulação do sistema parece absurdo. (ROTHEN E BARREYROS, 2011b, p. 31). Tais discussões refletem a preocupação da comunidade acadêmica envolvida com a avaliação sobre a utilização de índices de aferição da qualidade da educação superior brasileira promovida pelo Sinaes, tanto na sua adoção como parâmetro de regulação quanto na sua composição. 35 Já se observou na prática a adoção da performatividade 21 como critério avaliativo, por meio dos indicadores da eficiência institucional (os já citados Enade, IDD, CPC e IGC), típicos de um modelo sinalizado no corpo da proposta do Sinaes, para efeito de distinção com sua proposta baseada no modelo holandês de avaliação: “[...] de um lado está o modelo de inspiração anglo-americana baseado em sistemas predominantemente quantitativos para produzir resultados classificatórios” (BRASIL, 2004, p.16-17). Esta performatividade é detalhada pelas características citadas por Santos Filho (2000, p. 44): o “predomínio da racionalidade instrumental, a prevalência do tecnicismo, a regra da lógica do input/output e o critério da eficiência como padrão predominante da avaliação” e se tornam os critérios base para o processo de avaliação, tendo em vista o caráter facilitador destes índices nos processos de comparação e classificação. Ball (2010, p. 45) descreve estas vantagens da performatividade: Além de suas funções oficiais, como respostas à responsabilização, ambos os aspectos principais da performatividade educacional – comparação e mercadorização – estão relacionados ao fornecimento de informação para consumidores dentro do fórum do mercado educacional. E esses são, portanto, também diferentes modos de fazer as escolas e universidades mais responsivas ou ao menos aparentemente responsivas aos seus consumidores. No entanto, corre-se o risco de reduzir o papel da universidade. Goergen, quando diz que “a universidade não se restringe ao sistêmico, como quer o olhar empresarial quando, por exemplo, tenta aplicar o conceito de qualidade total a academia” (GOERGEN, 2000, p. 155), destaca o perigo deste alinhamento com o mercado, que passa por deixá-la longe do seu papel principal, que seria o de investigar e explorar o conhecimento por si. Na raiz do problema está o posicionamento quase sempre incorreto da quantificação nos processos de avaliação. Como explicita Dias Sobrinho: “A medida é um recurso que às vezes se utiliza para facilitar as consequentes operações avaliativas [...] a medida apresenta o objeto através de instrumentos específicos e em geral organiza os resultados em forma quantitativa” (DIAS SOBRINHO, 2000, p. 122). Configurações quantitativas de um objeto deve ser o início do processo avaliativo e não o seu fim. Diz ainda Dias Sobrinho (2000, p. 129): 21 No sentido dado por Ball (2010, p. 38): “[...] uma tecnologia, uma cultura e um modo de regulação [,,,] um sistema que implica julgamento, comparação e exposição”. 36 É uma deturpação qualificar e classificar ordinalmente as instituições ou parte delas por critérios de produtividade baseados em quantificações de extensão, volume e números de aspectos e categorias isolados para fins de análise como se eles fossem a realidade e não índices parciais da realidade. No entanto, é mais comum observarmos a apresentação de estatísticas como produto final de uma avaliação com vistas à tomada de decisão do que como ponto de partida. Exemplos dessa inversão do papel da quantificação em avaliação não faltam. Basta um exame do relatório da Unesco acerca da educação mundial (UNESCO, 2009, pp. 73-75): o cálculo do um índice de paridade de gênero, que deveria ser o início de um processo investigativo é apresentado como o fim do processo, como se por meio de um único indicador se pudesse captar a realidade socioeducacional de um povo ou nação, suas nuances e necessidades. A complexidade que uma avaliação exige não deve ser empecilho para sua consecução, e por isso é fundamental que o processo seja de fato um processo, e não um recorte pontual. Dias Sobrinho afirma: “[...] informações objetivas que constituem a dimensão fatual de uma realidade ainda não realizam propriamente a avaliação, embora sejam imprescindíveis para qualquer processo avaliativo” (DIAS SOBRINHO, 2000, p. 120). Isso mostra que por maior que seja o esforço a ser despendido para a consecução da avaliação, ele é necessário para que o processo menor de regulação possa ser realizado. Caso contrário, a regulação se impõe à avaliação por seu movimento mais pontual e menos complexo. A redução da realidade complexa que permeia uma instituição de educação por meio da descrição de índices implica perigo maior do que a redução da avaliação à regulação. A vinculação de tais índices ao “desempenho do produto final”, a exemplo do que ocorre com os índices CPC e IGC derivados do Enade, causa um nivelamento entre a educação e a produção material humana. O estabelecimento de tal nivelamento cria uma lógica difusa e mista em que certos mecanismos e procedimentos típicos da produção em larga escala são aplicados no contexto educacional, comumente designada como lógica de quase-mercado22. Nesta lógica, a instituição perde parte de sua natureza, sob a necessidade imperiosa da simplificação e comparabilidade. Como Ball pontua, “organizações complexas como escolas e universidades são diversas e multifacetadas, 22 Segundo Afonso: “[...] uma série de mecanismos e dispositivos que favorecem o desenvolvimento de lógicas e valores de mercado, mas que não são rigorosamente mercado”. (AFONSO, 2010, 1144-1145). 37 ainda que sejam, às vezes, sobremaneira contestadas e, frequentemente, contraditórias” (BALL, 2010, p. 44). As quantificações raramente admitem contradição em seus descritores, e a educação se vê na tarefa de se reduzir para se adaptar ao processo de regulação ao quase-mercado. Os sujeitos também são adequados a esta lógica: Profissionalidade é substituída por responsabilização, coleguismo por competição e comparação inter-pessoal de performances. Essas são formas de poder que são concebidas e reproduzidas por intermédio da interação social, na vida cotidiana das instituições. (BALL, 2006, p. 15). A construção dos índices utilizados pelo Sinaes obedece a esta lógica. Sigamos a sequência lógica dos índices atuais23: do desempenho dos estudantes concluintes dos cursos de graduação produz-se o Enade contínuo e seu equivalente qualitativo, o conceito Enade, em uma escala estatisticamente padronizada e posteriormente categorizada em valores que variam de 1 a 5. Posteriormente, o desempenho dos estudantes ingressantes de cada curso no ENEM é utilizado para produzir o indicador de diferença entre o desempenho esperado e observado, o IDD. Estes dois índices são utilizados na elaboração do CPC, com pesos relativos24 de 20% para o Enade e 35% para o IDD. Os demais 45% dos pesos do CPC ficam distribuídos entre o percentual de mestres (7,5%), doutores (15%), docentes em tempo integral (7,5%) e pelas notas atribuídas pelos alunos aos equipamentos disponíveis para aulas práticas (7,5%) e completude dos planos de ensino (7,5%). Observa-se a importância do Enade no CPC: 70% do computo é derivado do exame25, desempenho e opinião dos alunos. Segue-se ao CPC o IGC, a partir da média ponderada dos CPCs dos cursos da IES somado ao conceito Capes dos cursos de pós-graduação stricto sensu. A regulação prevê que cursos com CPC maior ou igual a 3 ficam dispensados da avaliação in loco, caso queiram, e as IESs com IGC maior ou igual a 3 também ficam dispensadas da ACG. Em outras palavras, o desempenho dos estudantes no Enade determina se uma avaliação geral da IES é necessária ou não, um exemplo do que Ball descreve como 23 Preferiu-se aqui recorrer à forma atual de composição do índice, que se utiliza do desempenho dos ingressantes no Enem para o cálculo do IDD. 24 Nota-se a modificação dos pesos na composição atual do CPC em relação àquela utilizada até 2010. 25 Um aumento de 10% do peso em relação ao que foi estudado neste trabalho, significando uma centralização ainda maior no exame após 2010. 38 “ferramentas de monitoramento da performance” (BALL, 2012, p. 28). Performance26 passa a ser a condição principal para a qualidade educacional, explicitado no documento oficial do MEC intitulado “Manual dos indicadores de qualidade” em que se descreve os algoritmos computacionais destes índices (BRASIL, 2011). Outra característica que emerge da construção dos índices é seu refinamento computacional, inteligível a poucos da área educacional, apontando para um desenvolvimento típico das tecnologias associadas ao que Ball define como fabricação. De fato, examinemos a seguinte afirmação: Entretanto, o trabalho da fabricação aponta para um segundo paradoxo. Tecnologias e cálculos que se apresentam como meios para tornar as organizações do setor público mais transparentes podem, na verdade, torná-las mais opacas, uma vez que artefatos representacionais são construídos com cada vez mais deliberação e sofisticação. (BALL, 2010, p. 45). A afirmação nos remete à construção do CPC e IGC que, sob a ótica da transparência, em que a avaliação é realizada por meio de insumos claramente identificados na equação do índice, o que temos é um artefato representacional sofisticado, balizado por meio de uma equação de regressão linear múltipla, mas que nada indica da qualidade dos cursos de pós-graduação que fazem parte do índice, nem da qualidade do docente em tempo integral da instituição ou da qualidade dos planos de ensino opinada pelo aluno, para dar alguns exemplos acerca dos insumos utilizados na construção destes índices. Avançando no processo, tem-se a publicação dos índices como estratégia final de atendimento à lógica do quase mercado. Um exemplo disto pode ser visto no cadastro nacional das Instituições de Educação Superior, disponibilizado no site do eMEC (http://emec.mec.gov.br/), que não realiza ranqueamento entre as IESs, mas disponibiliza os resultados dos cursos e das IESs em termos dos índices aqui discutidos, sem obviamente fazer qualquer referência ao processo de autoavaliação da IES, considerado pelo governo como um processo interno e de responsabilidade da IES em termos de sua divulgação à comunidade. 26 Performance na acepção de Ball (2010, p.38): “desempenhos de sujeitos individuais ou de organizações que servem de parâmetros de produtividade ou de resultado, ou servem ainda como demonstrações de “qualidade” ou “momentos” de promoção ou inspeção”. 39 Em resumo, em dez anos de operacionalização do Sinaes, o Enade tomou a frente às demais modalidades, tanto por sua dimensão quanto sua característica técnicoinstrumental. Na distribuição de esforços, pesou em muito o fato de que o universo da Avalies é de cerca de 2.500 IES, a ACG com 12.000 cursos e o Enade, a cada ano, quase 200.000 concluintes. Além disso, o principio cartesiano-positivista da neutralidade não é respeitado na Avalies, na qual avaliador e avaliado se confundem; nem na ACG, na qual o avaliador externo é par do avaliado, enquanto que no Enade, o desempenho do aluno é considerado medida neutra e suficientemente distante na composição do desempenho institucional. Além disso, o desempenho é um produto mensurável do processo, mais simples de ser apreendido pelo público não especializado do que os juízos de valor. Este exame da interrelação das modalidades do Sinaes permite estabelecer as seguintes conclusões acerca do percurso do sistema e da centralidade do Enade frente às demais modalidades: A proposta inicial de articulação das três modalidades que constituem o Sinaes não foi efetivada, devido principalmente à dimensão do Enade em relação às demais e sua natureza técnico-instrumental. A complexidade do processo avaliativo foi reduzida a verificação do performance do curso e da IES, computadas a partir do desempenho do aluno no Enade. O Enade tornou-se central no processo regulatório, constituindo-se na modalidade geradora do principal índice de regulação, o Conceito Preliminar do Curso – CPC. As demais modalidades, ACG e Avalies, aprimoraram-se em graus menores do que o Enade, e a Avalies não foi considerada no processo de regulação. A utilização de índices de desempenho priorizou a dimensão quantitativa do processo avaliativo. Os índices derivados no Enade foram se complexando nos dez anos de operacionalização do sistema, tornando-se de difícil compreensão para o público não especializado. 40 A construção e publicação dos índices relativos ao curso e a IES e suas consequências atendem uma lógica de produção em larga escala, nivelando o processo educacional a produção material. O próximo movimento dedica-se a um exame do Sinaes visto externamente, em um contraste com o processo de acreditação de ciclos realizado em Portugal, por meio da Agência de Avaliação e Acreditação do Ensino Superior de Portugal – A3ES, no qual inexiste o exame de desempenho. 41 2. SEGUNDO MOVIMENTO – O SISTEMA DE GARANTIA DA QUALIDADE DO ENSINO SUPERIOR DE PORTUGAL E O SISTEMA NACIONAL DE AVALIAÇÃO DA EDUCAÇÃO SUPERIOR DO BRASIL: uma perspectiva comparada Examinou-se aqui a evolução e a situação atual de Portugal no contexto europeu da regulação do ensino superior, com vistas a estabelecer uma perspectiva comparada com o sistema nacional brasileiro. Caracterizou-se especificamente o fenômeno europeu, investigando a evolução da situação portuguesa até os dias atuais. A partir daí foram estabelecidas análises comparativas entre o sistema de avaliação português, operacionalizado pela A3ES e o Sistema Nacional de Avaliação da Educação Superior brasileiro – Sinaes, conduzido pela Comissão Nacional de Avaliação da Educação Superior (Conaes) pela Secretaria de Regulação da Educação Superior (Seres) e Instituto Nacional de Pesquisas Educacionais Anísio Teixeira (Inep), identificando as similaridades e especificidades em ambos os sistemas. Os sistemas de avaliação europeus existentes no Ensino Superior têm suas origens na implantação da universidade moderna ao final do século dezenove, quando o Estado assume um papel central, e atua “como regulador único do sistema de ensino superior recorrendo aos mecanismos tradicionais de regulação pública” (AMARAL e MAGALHÃES, p. 9). Segundo Neave (2001, p. 215), pertence à Suécia o título de primeiro país europeu a estabelecer um sistema unificado de educação superior. A partir daí, a década de 1980, sobretudo nos seus anos finais, marca o estabelecimento concreto de sistemas de avaliação com fins regulatórios, com destaque nos Estados Unidos e Reino Unido (em seguida os demais países da comunidade britânica), mas com dispositivos legislativos específicos criados em países europeus como a França, Holanda, Alemanha e Itália e, mais tardiamente, Espanha e Portugal. Este movimento, configurado no que se denominou de “Estado Avaliador” 27 , apresenta características que o distinguem do que até então existia: sua dimensão técnica associada à produtividade, seus indicadores e suas medidas de referência, isto é, seus padrões estandardizados e seus critérios mínimos de qualidade. 27 Segundo Neave, o Estado avaliador seria uma reconfiguração das funções e poderes do Estado em relação à Educação Superior, em um movimento do centro para a periferia. O Estado, no centro, conservaria seu poder sistêmico e global com um mínimo de sistemas políticos de controle, e delegaria a instâncias intermediárias a operacionalização dos demais processos relacionados à regulação do ensino superior. (NEAVE, 1988. p.7). 42 No caso específico da Europa, o desenvolvimento do “Estado Avaliador” e seus desdobramentos a posteriori tiveram como principais impulsionadores: o crescente número de estudantes no ensino superior, a insuficiência de fundos públicos e a gradual e constante integração econômica e política da região (NEAVE, 2001, p.32). No primeiro, transformações qualitativas acompanharam o aumento quantitativo: o perfil etário dos estudantes foi se diversificando, tanto pela entrada de mais jovens quanto de mais velhos, estes últimos devido ao surgimento do que foi rotulado como educação continuada para a vida. Além disto, a duração dos cursos superiores sofreu redução, com ciclos mais curtos e cursos modulares. Este processo foi acompanhado por uma diversificação de áreas de estudo, com a entrada de novas áreas de conhecimento, notadamente aquelas ligadas à tecnologia das engenharias, informação e comunicação, ao mesmo tempo em que a formação genérica passou a ser desejada nos ciclos mais curtos para uma (suposta) absorção mais ampla pelo mercado profissional. Por fim, o espaço educativo no ensino superior se transformou com o surgimento da educação a distância, das universidades on-line. Tal cenário também se observou no Brasil, com cerca de dez anos de diferença em relação à Europa. Esta ampliação do ensino superior não foi acompanhada pelo aumento do financiamento público. Restou à própria instituição prospectar na iniciativa privada e no mercado consumidor, o estudante, a complementação necessária a sua sobrevivência. Semelhante ao que ocorre em qualquer empresa, as instituições de ensino superior públicas (e mais notadamente as universidades, dotadas de infraestrutura física, organizacional e humana em maior escala) se viram na tarefa de diversificar suas fontes de financiamento, antes atreladas somente ao Estado, o que resultou em uma minimização da fronteira entre ensino público e privado. Aliado a isto se ampliou a competição entre instituições, não tanto pela excelência do conhecimento produzido e propagado por estas, mas por sua eficiência em promover as parcerias mais vantajosas. A integração econômica e política da comunidade europeia se constituiu no terceiro fator promotor da atual política de regulação do ensino superior. Antes caracterizadas por sua estreita relação com o conhecimento humano, as universidades se veem agora mais próximas das atividades produtivas (descrito anteriormente no segundo fator) e, portanto, da dinâmica econômica dos países. À medida que a economia europeia (e mundial) integra-se cada vez mais em um mercado comum, e os movimentos políticos se ajustam a essa integração econômica (e vice-versa, mas a meu 43 ver, com predominância da economia nesta relação), o ensino superior tem seu principal “produto” transformado do conhecimento puro para o imediatamente útil à sociedade. Isto ocorre em uma sociedade cuja relação com o conhecimento tem seu desenvolvimento caracterizado por duas facetas: uma gradual dependência humana dos dispositivos tecnológicos e a consequente padronização do seu uso. Assim, tornou-se imperativo a existência de mecanismos capazes de acompanhar (e regular) as performances das instituições no alcance dos objetivos a que se propõem, de forma a que se possam aplicar tais mecanismos indistintamente da localização ou contexto regional em que se insere a instituição. Estabelece-se a tríade mercado consumidorsuporte financeiro-integração regional e global, como fato para o desenvolvimento de sistemas de avaliação da qualidade do ensino superior em escala europeia. Ambos, Portugal e Brasil incluem-se neste processo maior de estruturação dos sistemas de avaliação para regulação do Ensino Superior. O Estado português, como se verá mais adiante, alinha-se aos processos de acreditação posteriormente a maioria dos países da comunidade europeia, à exceção talvez de Espanha. De fato, sua agência avaliadora e acreditadora, a A3ES, é uma das mais novas agências na comunidade 28. O Sinaes, por sua vez, como já observado anteriormente, foi estabelecido dez anos depois de um movimento que poderia ter se configurado em um sistema de avaliação autogerado pelas instituições de ensino nacionais, o Programa de Avaliação das Universidades Brasileiras – PAIUB (BRASIL, 1993; 1994). De forma similar ao contexto português, o Estado brasileiro se viu diante da crescente expansão da educação superior na década de 1990 e da consequente necessidade de regulação das entradas e saídas deste novo processo. Considerando que os sistemas de avaliação brasileiro e português podem ser investigados dentro do fenômeno mundial de reconfiguração das funções do Ensino Superior, percebeu-se a necessidade de uma ampliação da visão do sistema brasileiro realizada no primeiro movimento da tese, de forma a captar o Sinaes como um todo e não analiticamente em suas partes. Nesta fase, tornou-se necessário o exame comparado deste com outro sistema de avaliação em um contexto que seja suficientemente próximo 28 Das 41 agências (membros ou associadas) da European Association for Quality Assurance in Higher Education - ENQA, somente cinco foram criadas após a A3ES, conforme a informação divulgada no sítio da ENQA, ver http://www.enqa.eu/. 44 ao brasileiro para que se possam investigar processos com raízes em comum, mesmo que com operacionalizações distintas. Este movimento, portanto, teve como objetivo comparar os sistemas de avaliação e regulação de Portugal e do Brasil, além de investigar a percepção de pesquisadores portugueses da área de avaliação do Ensino Superior com relação a tais sistemas. Para tanto, foi realizada uma pesquisa bibliográfica para captar a evolução dos movimentos relacionados ao Ensino Superior de Portugal, e mais especificamente suas teorias e práticas avaliativas até culminar com a presença da agência de avaliação e acreditação, investigando os principais êxitos e desafios que o sistema português tem apresentado. Além disto, a pesquisa captou a percepção dos especialistas em relação aos processos de avaliação do ensino superior português e brasileiro. Pretendeu-se com esta pesquisa fornecer informações qualitativas como subsídio para a meta-avaliação do Sinaes, que em dez anos de existência necessita de revisões críticas no que se refere a sua operacionalização. Cabe ressaltar que, desde 2012, existe um projeto de lei brasileiro que modifica sua atual configuração 29 , pelo qual os processos de regulação, hoje conduzidos pela Seres, seriam transferidos para uma autarquia do MEC denominada Instituto Nacional de Supervisão e Avaliação da Educação Superior (INSAES), a exemplo do que já ocorre com os processos de avaliação conduzidos pelo Inep. A decisão de se utilizar o sistema português como um elemento comparativo na meta-avaliação do Sinaes se fundamenta na semelhança das trajetórias de avaliação entre os dois países, ambos inseridos tardiamente no contexto de regulação do ensino superior mundial30, com experiências realizadas na avaliação sob inspiração do modelo holandês 31 e, como citado anteriormente, na produção científica conjunta na área de avaliação. Assim, também se tornou relevante investigar a percepção dos pesquisadores portugueses em relação à experiência obtida nos ciclos de avaliação anteriores, quanto nos conduzidos pela A3ES, pois, apesar do Brasil ainda não ter estabelecidas políticas 29 O projeto de lei PL 4372 de 2012 foi aprovado em 12 de junho de 2013 na Comissão de Educação e Cultura da Câmara dos Deputados e aguarda parecer favorável do Relator na Comissão de Constituição e Justiça e de Cidadania (CCJC). 30 Considerou-se esta “entrada” a criação, em 2004, do Sinaes no Brasil e da A3ES, em 2007, no caso português. 31 A primeira experiência portuguesa em um sistema de regulação teve como inspiração o modelo holandês de avaliação, como ser verá adiante. O Sinaes faz, em sua proposta original, referência específica a este modelo de avaliação (ver BRASIL, 2004, pag. 16). 45 específicas de acreditação32, segue a tendência de outros países da América Latina nesta direção (CATANI, 2009, p.578), e estes, por sua vez, têm suas “políticas de avaliação e acreditação [...] afetadas pela agenda internacional” (LEITE; GENRO, 2012, p. 778). Tal percepção não seria possível de ser coletada em outro contexto que não o português, visto que a realidade brasileira em relação às políticas para o Ensino Superior é mais bem conhecida pelos pesquisadores portugueses do que a de outras nacionalidades. Este breve exame da situação portuguesa em relação à avaliação do Ensino Superior permite perceber sua utilidade em lançar luz sobre o momento atual de reconfiguração do Sinaes brasileiro, tanto por sua inspiração no modelo holandês de avaliação quanto por sua operacionalização de cunho racional-tecnológico. Com isso, espera-se compreender suficientemente a dinâmica portuguesa e seus processos de avaliação e regulação, ampliando a visão destes em relação à situação brasileira e desta forma aprimorando as discussões e proposições a serem estabelecidas nesta tese. 2.1 Percurso metodológico Este movimento foi desenvolvido essencialmente por meio de uma abordagem qualitativa, considerando-se duas atividades de recolha de dados: a primeira consistiu em uma pesquisa bibliográfica documental da produção técnica e acadêmica acerca da avaliação portuguesa do ensino superior, e sua contextualização no panorama do Ensino Superior português. Para tanto buscaram-se as principais revistas portuguesas da área, além das publicações dos pesquisadores portugueses em publicações de outros países, e particularmente no Brasil. A segunda, de cunho empírico, consistiu na elaboração, aplicação e análise de uma entrevista semiestruturada feita a quatro especialistas portugueses em ensino superior, com intuito de captar suas percepções com relação ao momento português de avaliação sob a égide da A3ES, a agência nacional de acreditação, além de coletar opiniões, quando possível, acerca do sistema brasileiro de avaliação e sua atual operacionalização. A escolha dos pesquisadores justificou-se por sua qualificação na área de Políticas do Ensino Superior, e sua familiaridade com o 32 Apesar da ausência de uma politica específica de acreditação o país participa do sistema ARCU-SUL, no âmbito do Mercosul, que realiza acreditação de cursos de graduação nas áreas de Arquitetura, Agronomia, Enfermagem, Engenharia, Medicina, Odontologia e Veterinária. Segundo Barreyro, Laboria e Hizume (2015, p. 65), dos quatro países participantes até 2012, a Argentina é aquele com mais cursos acreditados (37), seguido pelo Paraguai com 18 cursos e Uruguai com 11 cursos. O Brasil realizou em 2015 processos de avaliação em cursos de Odontologia, sendo convidados somente cursos com CPC 4 ou 5, mas os resultados da acreditação ainda não foram publicados. 46 desenvolvimento do sistema de regulação brasileiro. Dois entrevistados pertencem ao Centro de Investigações de Políticas de Ensino Superior (Cipes) de Portugal. As entrevistas semiestruturadas tiveram como suporte um roteiro (Apêndice A) que estabeleceu questões relativas aos sistemas português e brasileiro. As questões sobre Portugal tiveram como foco o papel da agência na regulação do Ensino Superior, suas práticas e seu alinhamento com a política europeia para o Ensino Superior. Quanto ao Sinaes, a entrevista procurou investigar a percepção dos pesquisadores em relação aos princípios adotados pelo sistema e sua prática distinta em relação a Portugal: a presença de uma autoavaliação institucional e de um exame de desempenho do estudante. As entrevistas foram realizadas nos meses de novembro e dezembro de 2014, nos locais de trabalho dos entrevistados, transcritas e editadas para posterior análise. Na análise das entrevistas, as categorias de análise foram estabelecidas de forma preliminar por meio da análise documental prévia, e, após, a partir de análise de conteúdo aplicada às entrevistas, conforme preconizado por Bardin (2011). Apesar das categorias de análise terem sido estabelecidas a priori, de acordo com o desenho comparativo derivado da análise documental prévia, procurou-se construir outras categorias de acordo com os conteúdos encontrados na entrevista, tendo em vista que o caráter semiestruturado desta possibilitou a expressão livre do entrevistado acerca de outros temas relacionados ao principal tema do estudo. Assim o quadro final das categorias foi concluído levando-se em consideração as duas fontes de dados. Tal metodologia se mostrou indispensável para ampliar a compreensão acerca do objeto de estudo, analisado quantitativamente no terceiro movimento desta tese. 47 2.2 A Educação Superior em Portugal A Educação Superior em Portugal pode ser caracterizada em três fases distintas, a revolução de 1974 como um divisor de águas entre a primeira e segunda fase. Antes da revolução o período foi marcado pela exclusividade da Universidade de Coimbra, única até o advento da República, e pelas universidades de Lisboa e Porto, fundadas em 1911. Esta fase foi caracterizada pelo estabelecimento da Constituição Universitária de 1911, que concedia às universidades autonomia econômica e acadêmica (MAGALHÃES E SANTIAGO, 2012, p. 228). O Reitor era apontado pelo governo a partir de uma lista tríplice escolhida pelo Senado Universitário, autoridade máxima do governo universitário, composto ainda pela Assembleia Geral Universitária e pelos conselhos das faculdades e das escolas, compostos por acadêmicos e estudantes. Em 1926 estabelece-se o governo ditatorial em Portugal, e com isso aprofundase a dependência das universidades em relação à estrutura e aos processos do Estado Novo, tornando as universidades semelhantes a mais um setor do Estado. Esse processo teve seu fim em 1970, quando se inicia a reforma Veiga Simão do Ensino Superior, com a criação de novas universidades com autonomia administrativa e pedagógica (MAGALHÃES E SANTIAGO, 2012, p. 230). A reforma Veiga Simão não chegou a ser implantada devido à Revolução de Abril de 1974, mas introduziu o conceito de democracia em um regime nacionalista e conservador, lançando as bases para a reforma universitária que veio em seguida. A partir do restabelecimento do Estado democrático em Portugal, em 1974, a Educação Superior volta a apresentar configurações de cunho mais participativo com ênfase na atuação dos corpos acadêmico e discente, sob a forma de colegiados (MAGALHÃES E SANTIAGO, 2012, p. 231). Esta segunda fase, após um período pósrevolucionário nos dois primeiros anos com grandes transformações no modo operacional das instituições, passa por um período de normalização que dura até meados dos anos 1980. A partir desta decáda surgem novas instituições de Ensino Superior: as chamadas Universidades Novas, tais como a Universidade do Minho e a Universidade de Aveiro, os Institutos Politécnicos (Vila Real, Covilhã, Porto e outros), que promovem um aumento no número efetivo de alunos do ensino superior nos anos de 1973/74 e 1976/77 (SEIXAS, 2003, p. 70), integrando-se às universidades públicas já existentes, além da Universidade Católica, criada em 1971, configurando o atual sistema 48 binário do Ensino Superior de Portugal. Também nesta fase, em 1979, é criado o Conselho de Reitores das Universidades Portuguesas (CRUP), como estrutura associativa das universidades públicas portuguesas (além da universidade católica), que permitiu uma descentralização das atividades até então centradas no Ministério da Educação no que diz respeito ao Ensino Superior. Esta fase também foi caracterizada por uma limitação do acesso ao ensino superior visto que “a necessidade de preservar a qualidade do ensino e de planear o desenvolvimento do ensino superior de acordo com as necessidades do País, aparecem como a principal justificação de medidas de política educativas conducentes a limitação do acesso ao ensino superior” (SEIXAS, 2003, p.73). Esta situação irá perdurar até o final da década de 1980, quando “o sistema de ensino português registrará uma verdadeira explosão dos seus efectivos” (SEIXAS, 2003, p. 77), com o desenvolvimento do setor privado. A década de 1980 registrou a entrada da iniciativa privada no ensino superior, em 1986, e estabeleceu marcos legislativos tais como a Lei de Bases do Sistema Educativo (1986), o Ato da Autonomia universitária (1988) 33 e a lei que concede autonomia (em menor grau que às universidades) aos Institutos Politécnicos (1990). A partir de 1990 e durante a década que se segue, a participação das instituições privadas no Ensino Superior tendeu a aumentar, e como consequência, ocorreu o aumento exponencial nas matrículas: de 106.472 alunos inscritos em 1986 para 313.495 em 1996, um aumento relativo de 194% nestes dez anos. A participação da iniciativa privada passou de 14% para um máximo de 37% ao final de 1996 34 (CERDEIRA, 2013). Uma das principais causas foi a abolição da prova geral de acesso e consequente nota mínima: a abolição da nota mínima de acesso contribui para um aumento do número de candidatos ao ensino superior e está sem dúvida na base da verdadeira explosão do ensino superior privado e também do forte crescimento do ensino superior politécnico público, num contexto de restrições formais no acesso ao ensino superior (SEIXAS, 2003, p. 77). 33 Elaborado a partir de uma iniciativa do CRUP em 1982, e não do Estado, uma distinção do processo português em relação a outros países europeus (MAGALHÃES; SANTIAGO, 2012, p. 236). 34 A partir deste ano dá-se um movimento contrário com gradativa queda de participação até 22% em 2011. 49 A entrada do Ensino Superior privado em Portugal merece uma atenção especial. A começar pela dificuldade na distinção do caráter público ou privado da instituição de ensino baseada tão somente em sua natureza jurídica35. Tal dificuldade alia-se à figura da universidade católica que por sua existência torna tênue a fronteira entre público e privado, ou de bem público e bem privado. A entrada do Ensino Superior privado em Portugal dá-se primeiramente por essa via, e pode-se reconhecer nesta uma similaridade com o modelo apontado por Levy (1986) para a realidade latino-americana, que aponta três fases na entrada do setor privado no Ensino Superior: o ensino religioso, o ensino de elite e o ensino de massas36. Os fatores principais que intervieram no crescimento do Ensino Superior privado foram, por um lado, a incapacidade do setor público (e da universidade católica) de responder à crescente demanda iniciada na década de 1980. Como apontado por Seixas, “desde 1980 o volume de candidaturas ao ensino superior tem sido sempre superior ao número de vagas, registrando-se mesmo uma descida da oferta do ensino superior público na primeira metade da década de 1980” (SEIXAS, 2003, p. 80), devido à limitação dos números de vagas das universidades públicas, o numerus clausus. Por outro lado, a abolição de uma nota mínima de acesso se conjugou com a oferta limitada do setor público, propiciando um espaço para crescimento do setor privado. Estes fatores se associam à situação geral do país, já comentada no item anterior, de impossibilidade de aumentar os gastos públicos no setor; o contrário se verifica: queda no financiamento público das universidades e nos honorários acadêmicos, sustentado pelo discurso político da necessidade de maior eficiência e eficácia no setor: De 1992 a 1995, na segunda fase de governação do Primeiro Ministro Cavaco Silva, os Ministros da Educação reforçam o discurso político que acentua a relação da educação com a competitividade económica, entendida como processo incontornável no percurso para a modernização do país. Uma gestão orientada para a eficácia do sistema e centrada nos resultados é o mote dos discursos políticos deste período governamental. (TEODORO; ANIBAL, 2007 p. 21). 35 Deve-se salientar que essa complexidade na distinção entre público e privado também ocorre no Brasil, culminando com a publicação da Lei das comunitárias (Lei nº 12.881, de 12 de novembro de 2013, BRASIL, 2013), que estabelece três categorias administrativas para as IES brasileiras: públicas, privadas e comunitárias. 36 Apesar de Portugal corresponder a este processo apontado por Levy, o caso brasileiro é mais paradigmático. A correspondência é perfeita quando se analisa o contexto das universidades católicas (e mais recentemente das evangélicas), das escolas de elite tais como a Fundação Getúlio Vargas e outras, e das instituições particulares de ensino superior. A semelhança de Portugal com o padrão latinoamericano talvez reforce a ideia de “país periférico” no contexto europeu. 50 Tal contexto dá margem a este rápido crescimento do setor privado. A partir de 1995 esse fenômeno deixa de existir e inicia-se um lento decréscimo, parte deste devido à tendência negativa da evolução demográfica no país, parte devido à reintrodução de critérios mínimos para o acesso (SEIXAS, 2003, p. 83). Esse declínio afetou mais pronunciadamente o ensino superior privado, visto que a oferta de vagas no ensino público dos politécnicos cresceu no período, deslocando parte das candidaturas do setor privado para o público. Aliado a isto, a crescente dificuldade da população em financiar seus estudos devido à crise financeira do país foram os fatores que levaram à queda no crescimento deste setor. O crescimento do setor educacional e as dificuldades decorrentes geradas por este em relação à alocação e distribuição dos fundos estatais em um sistema cada vez maior e mais complexo constituíram os principais fatores para a implantação de sistemas de controle da qualidade do Ensino Superior, inaugurando um novo movimento no papel do Estado em suas políticas, que a partir do final dos anos 1990 introduz diversos decretos-lei que visam estimular a procura de financiamento não estatal para as atividades do Ensino Superior. As políticas educacionais passam a emular os conceitos já estabelecidos na economia, tais como qualidade total, racionalização, eficiência e eficácia: [...] os sistemas de avaliação da qualidade, implícitos e informais, assumem agora uma forma explícita e formal, necessária para a acreditação das novas instituições e informação dos estudantes quanto a qualidade das instituições (SEIXAS, 2003, p.182). A transformação de sistemas elitistas de ensino superior em sistemas de massas, associada ao aparecimento de novas instituições e ao crescimento das já existentes e a uma diversificação do sistema (SEIXAS, 2003, p.182) impõe ao governo a elaboração de um padrão para a qualidade do ensino, já que um padrão individual é impossível de ser comparável. Alia-se a isto o contexto financeiro restritivo dos Estados, a mobilidade de estudantes entre instituições, a adequação do ensino superior à tendência tecnológica do mercado e à natureza espacialmente difusa deste, o que traz a necessidade de mão de obra dispersa espacialmente. Isso faz como que os padrões de qualidade de formação de mão de obra sejam mais eficazes caso possam ser aplicados fora do contexto nacional. É tal panorama que leva ao estabelecimento de sistemas de avaliação e regulação para o setor educacional na Europa, e, como se verá mais adiante, em Portugal. 51 2.3 A avaliação e a regulação do Ensino Superior em Portugal Expansão, diversificação e recursos financeiros: palavras-chave na compreensão da necessidade de avaliação e regulação da qualidade do Ensino Superior. O desenvolvimento de sistemas de garantia de qualidade na década de 1980 em diversos países no mundo veio em resposta a esta necessidade, que tornou imprescindível a regulação pelo Estado do Ensino Superior como uma forma de prestação de contas das atividades de ensino. Em Portugal, antes da década de 1980, as primeiras questões levantadas acerca da avaliação da qualidade do Ensino Superior dispostas na legislação ocorrem pós-revolução de 1974, com destaque ao artigo 76 da Constituição da República Portuguesa. Mas é em 1986, com a Lei de Bases do Sistema Educativo, que as questões relativas à garantia de qualidade e uso de indicadores estatísticos para avaliação são dispostas em artigos específicos na legislação (ROSA; SARRICO, 2012, p. 250). A publicação da Lei da Autonomia Universitária em 1988 reforça a necessidade de avaliação das universidades portuguesas, e em 1990, esta necessidade aparece na Lei da Autonomia para os Institutos Politécnicos. Tais legislações não estavam totalmente implantadas no contexto educacional português quando o CRUP decidiu promover um amplo debate acerca do tema da avaliação do Ensino Superior com vistas a estabelecer um sistema de avaliação para o país. Em 1992 é realizado um seminário internacional promovido pelo CRUP, cujo resultado final consistiu em uma proposta deste sistema, fortemente relacionado ao modelo holandês de avaliação, tendo em vista suas características compatíveis com a Lei da Autonomia Universitária. Tal vinculação decorre da forte componente autoavaliativa no modelo holandês, mais voltado para a melhoria da qualidade do que para a certificação de programas. Em 1994 é criado o sistema nacional de avaliação, sob a Lei nº 38, de 21 de novembro, (PORTUGAL, 1994) e, em 1998, o Conselho Nacional de Avaliação do Ensino Superior – CNAVES, por meio do Decreto-Lei n.º 205/98, de 11 de julho (PORTUGAL, 1998). Operacionalmente, o CNAVES cria quatro conselhos de avaliação, de acordo com as combinações entre os tipos de organização: universidade ou politécnico e a categoria administrativa: pública ou privada. O primeiro ciclo avaliativo, experimental, é finalizado em 1999 com a participação somente das universidades públicas e da universidade católica. Este ciclo foi caracterizado por seu foco na melhoria da qualidade do ensino e no desenvolvimento de uma cultura de autoavaliação, ao invés da produção de classificações de instituições ou cursos. Sua 52 principal contribuição consistiu em fornecer subsídios para a elaboração de guias37 para o segundo ciclo, que foi realizado entre 2000 e 2005, e abrangeu todas as instituições de Ensino Superior. No segundo ciclo avaliativo pode ser observado um esforço em aproximar o sistema português da tendência europeia, com a adoção de alguns elementos de accountability e participação de avaliadores internacionais nas equipes de avaliação, tentativa dificultada por questões financeiras e pelo “uso da língua portuguesa como língua de trabalho” (ROSA; SARRICO, 2012, p. 255). Alguns pontos fracos podem ser apontados nesta primeira tentativa de um sistema nacional de avaliação do Ensino Superior português, conforme descrito por Rosa e Sarrico (2012, p. 256): Insuficiência na preparação dos avaliadores externos, tendo como consequência uma diversidade na qualidade dos relatórios de avaliação, impedindo sua comparabilidade; Excessivo custo do sistema, principalmente no que se referiu ao pagamento dos avaliadores; Ausência de uniformidade de processos, procedimentos e critérios nos ciclos avaliativos; Ausência de resultados visíveis do sistema de ensino superior. Dentre estes fatores, o fato dos resultados dos ciclos avaliativos não terem produzido consequências – nomeadamente “não tinham produzido um único resultado negativo, visível, com eliminação de cursos sem qualidade aceitável” (A3ES, 2013, p. 4) –, acabou por induzir o governo a encomendar uma meta-avaliação do sistema pela ENQA (European Network for Quality Assurance in Higher Education), que em seu relatório (ENQA, 2006, p. 34) destacou cinco pontos frágeis do sistema: 1. Ausência de independência da entidade coordenadora da avaliação, o CNAVES, em relação aos avaliados, ou seja, as Instituições de Ensino Superior. Por ser uma emanação das próprias IESs, aliado à baixa atenção dada ao processo pelo governo, contribuem para uma imagem acrítica do CNAVES, cujos resultados não parecem acrescentar valor à qualidade do Ensino Superior. 37 Em Portugal o termo é guião. Utilizei o termo guia para adequação da linguagem utilizada no Brasil. 53 2. Variabilidade e inconsistência nos objetivos, procedimentos e relatórios dos avaliadores, advindos provavelmente de uma deficiência no treinamento destes, mas também devido à natureza altamente descentralizada do CNAVES, o que dificulta o estabelecimento de um corpo robusto de avaliadores; 3. Alta dependência entre os avaliadores, tendo em vista a dimensão relativamente pequena do universo de instituições a ser avaliado no país por avaliadores egressos destas mesmas instituições, o que compromete a objetividade e independência da avaliação; 4. Ausência visível de consequências e meta-avaliação do sistema, tanto por parte do governo quanto do próprio CNAVES, que não promove espaços de discussão dos relatórios e das ações institucionais deles decorrentes; 5. Fraca evidência de que os processos, publicações e encontros promovidos pelo CNAVES promovam o que em outros países é compreendido como melhoria da qualidade, ou seja, um processo de identificação, comunicação e implementação de “boas práticas” nos currículos, ensino e aprendizagem e garantia da qualidade do Ensino Superior. Além destes pontos, os critérios adotados pelo sistema não eram compatíveis com os indicadores de qualidade passíveis de serem incorporados em um sistema de distribuição de recursos. A recomendação final da ENQA, a criação de uma agência de avaliação nos moldes de outras já estabelecidas no espaço europeu, é acatada pelo governo português; em 2007, o sistema é formalmente extinto e cede lugar à Agência de Avaliação e Acreditação - A3ES (Lei 369/2007, Portugal, 2007) que atualmente coordena as etapas de avaliação com o apoio dos órgãos e conselhos representativos, tais como o CRUP junto com o CNAVES – Conselho Nacional de Avaliação da Educação Superior e a DGES – Direcção Geral do Ensino Superior. Nestes quase dez anos de atuação da A3ES, as discussões acerca do atual modelo de regulação de Educação Superior versam sobre seu estabelecimento em um momento histórico de Portugal distinto de países europeus vizinhos, o que acabou por causar uma “natureza mista entre autorregulação e regulação estatal” (vide MAGALHÃES, 2001, p. 138; AFONSO, 2001, p. 25), esta por sua vez estabelecida sob os princípios da declaração de Bolonha, cujo texto “[...] não se revela nada enigmático quanto à opção pelo princípio da competitividade em termos não só de emulação, de eficiência e de financiamento, mas também de lógica mercantil” (LIMA, AZEVEDO E CATANI, 54 2008, p.10). Neste contexto, o Ensino Superior português, sob a A3ES, sofre transformações que tornam “as universidades, e as instituições do ensino superior em geral, [...] cada vez mais claramente administradas e geridas como organizações, e cada vez menos como instituições educativas na sua especificidade”. (MAGALHÃES, 2006, p. 31). No desafio de tornar as IESs mais eficientes em sua função de prestação de serviços, corre-se o risco de minimizar cada vez mais a necessária liberdade acadêmica para o exercício da formação humana. Há um risco que se corre quando os processos são uniformizados na procura de máxima eficiência e esse risco é visível quando se observa a dimensão que a organização administrativa tem assumido nas instituições de ensino, e no aparente retorno de tecnologias pedagógicas já utilizadas em décadas passadas, com vistas à organização e comparação de conteúdos programáticos entre instituições. Esta é uma preocupação em ampla medida: “O processo de Bolonha na educação superior europeia tem sido bastante analisado em termos de alta racionalização desde o protagonismo da racionalidade a priori que se manifesta na seleção de resultados da aprendizagem e no recurso a princípios típicos das pedagogias cientificas e por objetivos, à contabilização rigorosa e estandardizada de créditos, passando pela arquitetura do sistema de ciclos conferentes de graus acadêmicos, bem como pelos sistemas de acreditação e avaliação, reconhecidos à escala europeia” (LIMA, 2012a, p. 149). A pressão sofrida por Portugal para se conformar ao padrão estabelecido em outros países europeus produziu e ainda produz movimentos em sua dinâmica regulatória, tornando mais presente a problemática associada a formas nascentes de accountabilty (AFONSO, 2003; AFONSO, 2009). Neste movimento, os processos de autoavaliação submergem diante daqueles descritos por Afonso: “a atuação dos peritos e das agências (nacionais e internacionais), os dispositivos de monitorização, coordenação e seguimento das políticas, e as características das auditorias” (AFONSO, 2013a, p. 24). Este panorama aproxima o Brasil de Portugal quanto ao uso de “critérios uniformes e estandartizados” (LIMA, 2012b. P. 70), bem como ao papel do Estado (CABRITO, 2004) e das agências financiadoras na Educação, como apontado por Jezine e colaboradores (2011): “existem convergências e divergências entre os países no que se refere ao acesso ao ensino superior. Das convergências destaca-se a orientação ao mercado e ingerência de agências financiadoras” (p. 75), em um percurso apontado por Afonso como “modelos tecnocráticos mais preocupados com os meios do que com os fins da educação” (AFONSO, 2000, p. 47). Este mesmo autor sugere que a crescente 55 modularização, padronização e ampliação da oferta do Ensino Superior por grandes redes de ensino em sistemas de franquia sinalizam uma nova fase para o papel do Estado no âmbito da avaliação (AFONSO, 2013b, p. 278). Santiago e Carvalho, (2011, p. 408) ao analisarem as novas condições impostas à educação pelo crescente “gerencialismo” da Educação Superior, resumem: Essa tecno-orientação, ou a imposição de princípios de racionalidade econômica e utilitária na produção de conhecimento, constitui uma tentativa profunda de reconfigurar o paradigma tradicional de ciência. A autonomia de decisão sobre o que investigar, o controle do desenvolvimento da pesquisa e a avaliação por pares deixaram de ser uma prerrogativa exclusiva dos acadêmicos. Exigem-se resultados a curto prazo e se impõe, externamente, uma hierarquia do conhecimento crescentemente baseada na pertinência social e econômica da “resolução de problemas”. Apesar do temor da mercantilização e homogeneização do ensino, ainda se acredita em uma recondução dos processos de avaliação a modelos mais globais e autônomos, como pode ser percebido na avaliação de Teodoro e Aníbal (2007, p. 25) acerca do caráter híbrido das atuais políticas educativas portuguesas: A especificidade portuguesa não pode ser entendida, pois, como característica de um estadio intermédio mundial, mas resultado de heterogeneidades que se articulam e geram sentidos próprios e estruturas concordantes. Nesta construção social o modelo global da modernização só produzirá significado se recontextualizado. É com este argumento que parece poder defender-se, como o fazem alguns, a possibilidade de uma política educativa que não se atenha prevalentemente a processos de “racionalização da educação” e que permita uma escola, produto de sujeitos globais e locais, “espaço público de experimentação gerido de um modo dialógico” É neste contexto complexo que a A3ES tem realizado seu papel regulador em Portugal. No próximo item sua operacionalização é investigada e comparada com o modo de operação que o sistema nacional brasileiro tem utilizado em seus dez anos de existência. 2.4 Os sistemas português e brasileiro de avaliação A comparação entre os sistemas de avaliação e regulação foi estruturada em duas partes. Na primeira é realizada a comparação dos sistemas a partir da análise documental. Na segunda é descrita e discutida a percepção dos pesquisadores portugueses entrevistados, como forma complementar à análise documental. 56 2.4.1 Comparativo entre os sistemas de avaliação do Brasil e Portugal No início da década de 1990, eram vários os países da Europa que dispunham de agências dedicadas à avaliação e/ou acreditação de cursos e instituições de ensino superior: Suécia, Holanda, França, Alemanha, Dinamarca, Reino Unido e outros. Com a crescente integração econômica dos países ligados à Comunidade Europeia, iniciam-se os primeiros movimentos interinstitucionais entre estes países em relação à qualidade do Ensino Superior, “acompanhando de perto a evolução dos sistemas de avaliação nos países membros da União Europeia e inserindo-se num processo de internacionalização da avaliação” (SANTOS, 2011, p.17). Tais experiências, promovidas pelas próprias instituições de ensino e investigação, tiveram como fatores desencadeadores a crescente mobilidade estudantil entre os países, mas principalmente o reconhecimento de títulos profissionais em um espaço de trabalho cada vez mais integrado. Destas experiências, aquela de que mais países participaram foi o projeto “Quality Assessment in the Field of Higher Education” que, entre 1994 e 1995, envolveu 17 países europeus e 46 instituições de Ensino Superior, duas destas portuguesas, o Instituto Superior Técnico e o Instituto Politécnico do Porto (SANTOS, 2011, p.18). Este projeto teve repercussões que culminaram, no ano de 2000, com a criação da “European Network for Quality Assurance in Higher Education” – ENQA, que integrou inicialmente sete38 agências de avaliação e acreditação de cinco países: Dinamarca, Alemanha, Finlândia, Espanha e Reino Unido, além de representantes dos ministérios da educação e organizações representativas de diversos outros países. Cinco anos após a criação da ENQA, 18 agências de dez países já a integravam como membros plenos. Em 2007, ano em que é criada a A3ES portuguesa, 21 agências europeias eram membros plenos da ENQA39. As agências de avaliação e acreditação europeias não são homogêneas, apesar de compartilharem as mesmas diretrizes e procedimentos advindos da ENQA. Como existem diferentes dinâmicas envolvidas nos processos destas agências, torna-se necessária sua contextualização para que se entenda a atuação da A3ES no panorama do 38 Danish Evaluation Institut - EVA (Dinamarca); Central Agency for Evaluation and Accreditation ZeVA e German Accreditation Council - GAC (Alemanha); Finnish Education Evaluation Council FINNEC (Finlândia); Catalan University Quality Assurance Agency, Barcelona -AQU e Andalusian Agency of Knowledge, Department of Evaluation and Accreditation, Córdoba -AAC-DEVA (Espanha); Quality Assurance Agency for Higher Education - QAA (Reino Unido). 39 A A3ES tornou-se membro associado à ENQA em 2009, membro afiliado em 2011 e em junho de 2014 tornou-se membro pleno. 57 Ensino Superior em Portugal e no contexto do espaço europeu. Grosso modo, podemos situar as agências europeias em três “categorias” de processos: avaliação externa, acreditação e auditoria. O primeiro destes refere-se à melhoria da qualidade das atividades relacionadas à educação40 superior; o segundo está circunscrito a certificação de determinada instituição ou curso por meio de critérios mínimos estabelecidos a priori; o terceiro diz respeito à monitoração externa dos dois primeiros, quando conduzidos pela própria instituição (autorregulação). As agências europeias se diferenciam quanto à operacionalização destes processos. A maior parte das agências realizam os processos de avaliação e acreditação, parte delas somente em nível de cursos e outras também em nível institucional, ocorrendo variação conforme o país observado. Há poucas agências que somente realizam auditorias, e destas a maior parte refere-se à auditoria em nível institucional (SANTOS, 2011, p.22). Tais distinções também ocorrem em relação às categorias de instituições que são avaliadas, pois cerca de metade das agências incidem sobre um tipo específico de organização acadêmica: as universidades (SANTOS, 2011, p. 24). Ao que parece, existe um desenvolvimento gradual em torno dos três tipos de processos existentes com vistas a um tipo ideal: na medida em que o processo de avaliação interna é institucionalizado ao ponto de se criar um sistema interno de qualidade robusto, este se torna capaz de apoiar um processo interno de acreditação de cursos. Nesta perspectiva, a avaliação e acreditação externas se tornam desnecessárias, e a auditoria do sistema de garantia de qualidade da instituição passa a ser o único alvo da avaliação externa. No caso específico de Portugal, a A3ES está configurada41 como uma agência que realiza procedimentos de avaliação e acreditação de cursos, e em alguns casos com processos de certificação de sistemas internos de garantia da qualidade (auditoria), ainda em caráter experimental, ou seja, a certificação ainda não substitui o processo de acreditação dos cursos. São realizadas avaliações e acreditações para cursos dos três ciclos do Ensino Superior: licenciaturas, mestrados e doutorados Para todos, tanto ciclos já em funcionamento quanto novos ciclos, o início do processo se dá por meio da autoavaliação dos cursos, não ocorrendo uma avaliação institucional geral. Um guia de procedimentos para a autoavaliação é disponibilizado para as instituições que devem 40 Utilizei o termo educação ao invés de ensino para ratificar a dimensão ampla em que a avaliação trabalha. 41 A descrição que se segue tem como base o Manual de Avaliação disponibilizado no sítio da A3ES. Disponível em http://www.a3es.pt/pt/acreditacao-e-auditoria/manual-de-avaliacao. 58 proceder à autoavaliação conforme suas disposições. Segue-se a elaboração de um relatório de autoavaliação (em língua portuguesa e inglesa) que é postado em plataforma eletrônica para a próxima fase: a avaliação externa. Nesta é formado um painel de avaliação por peritos independentes, sem relação com a instituição de ensino superior avaliada, composto por três a cinco membros, um dos quais, pelo menos, estrangeiro. A estes peritos é disponibilizado o relatório de autoavaliação para leitura prévia. Durante a visita da Comissão de Avaliação Externa são examinados os espaços físicos, ouvidos os representantes da comunidade acadêmica e representantes de associações profissionais. Ao final da visita é realizada uma reunião final com as autoridades acadêmicas do curso em avaliação e apresentado o relatório oral. A partir da finalização da visita a comissão tem um prazo para a emissão do relatório final da avaliação externa. Este é submetido à instituição que poderá contrapor as conclusões efetuadas pela comissão. Uma vez aprovado, o relatório é encaminhado para parecer final pela A3ES que publica o resultado da acreditação em área específica do seu sítio, com a decisão de acreditar, acreditar preliminarmente ou não acreditar. Os resultados são publicados pela A3ES, discriminando-se as universidades e centros politécnicos, públicos e privados. A certificação tem um prazo máximo de seis anos e no ano anterior à caducidade deste prazo a instituição deverá solicitar a renovação da acreditação. A A3ES já realizou dois ciclos de avaliação, um entre 1995 e 2000, com a participação das universidades públicas e outro entre 2000 e 2005, que abarcou todas as Instituições de Ensino Superior, a partir do qual se estabeleceu um processo transitório de acreditação preliminar conduzido pela A3ES, que culminou no fechamento de um primeiro ciclo em 2011. Atualmente um segundo ciclo encontra-se em processo. Um exame dos guias existentes na A3ES revela seu alinhamento com as diretrizes apontadas pela ENQA, a agência europeia. São estes standards e guidelines estabelecidos pela ENQA, em torno das ideias de garantia da qualidade versus melhoria da qualidade, que são, nos dias atuais, objeto de constantes debates na comunidade da área educacional. Fala-se aqui a respeito de indicadores estabelecidos que versem sobre os presumíveis inputs para o ensino de qualidade, ou para os processos relacionados à aprendizagem, ou para os outputs, mais especificamente os exames de desempenho dos estudantes ao final do curso, ou seu estabelecimento no mercado laboral. As agências têm modificado e testado tais mudanças em seus indicadores, ao mesmo tempo em que cumprem os requisitos estabelecidos pela ENQA. Essas preocupações foram objeto de 59 um projeto específico – Quality Assurance for the Higher Education Change Agenda (QAHECA) –, promovido pela Associação das Universidades Europeias (EUA), que em 2009 publicou um relatório final (EUA, 2009), resumindo suas considerações em sete pontos: 1. Os processos de garantia de qualidade devem ser contextualizados, ou seja, respeitar a cultura identitária institucional e nacional. 2. Os processos internos de garantia de qualidade devem assumir uma abordagem de desenvolvimento. 3. O processo precisa envolver toda a comunidade acadêmica. 4. Os atores-chave no processo devem estar efetivamente engajados e serem capacitados para tal. 5. Os processos precisam ser intercolaborativos tanto entre agências como entre instituições, de forma que cada instituição possa se valer de uma abordagem crítica de uma experiência externa, e não somente copiar a experiência. 6. Os processos precisam ser proativos, e com isso assumir riscos, mesmo que novas propostas não sejam um sucesso. Deve assumir o insucesso, não proibindo o risco. 7. O compartilhamento das experiências é fundamental para o desenvolvimento futuro da garantia de qualidade. Nestas recomendações é interessante notar a menção ao respeito à identidade institucional (recomendação 1) e à assunção de riscos (recomendação 6), duas propostas que vão em direção contrária ao atual modo de operação da regulação do Ensino Superior europeu. De fato, o respeito à cultura identitária institucional não se compatibiliza com a necessidade de procedimentos estandardizados que possibilitem a comparação de instituições. Também não é crível que as instituições assumam riscos “desnecessários” em seus processos acadêmicos quando a avaliação externa tem como resultado final a acreditação ou não de determinado curso ou sistema interno de garantia de qualidade. Assim o que se tem é uma contradição entre contextos: o do texto e o da prática. Como pontuado por Licínio Lima, (2011, p. 75). [...] esta filosofia avaliativa, mais orientada para a confirmação ou a informação do que para a descoberta, ou seja, mais contábil ou calculativa do que heurística e interpretativa, tende a conferir menor protagonismo à avaliação dos processos e as dimensões programáticas 60 e políticas, e maior centralidade a avaliação dos produtos ou resultados, a quantificação, a comparação e hierarquização. Tais contradições também podem ser encontradas no sistema de avaliação brasileiro, o Sinaes, conforme já discutido. O Quadro 1 sumariza a análise que foi realizada entre os sistemas e suas agências operacionalizadoras. A comparação de ambos mostrou que tanto o sistema português quanto o brasileiro demonstram certa contradição entre os princípios e objetivos em que se baseiam ou propõem, e seu modo de operacionalização. Em seu documento oficial (BRASIL, 2004), o Sinaes estabelece princípios como respeito à identidade institucional e o reconhecimento da diversidade do sistema educacional brasileiro, similar ao que se tem na legislação portuguesa. No entanto, a operacionalização do Sinaes não tem ido ao encontro deste princípio, notadamente no que ser refere à adoção de indicadores de qualidade aferidos a partir do exame de desempenho dos estudantes, o Enade, construídos independentemente do contexto em que a IES se insere. No caso português, o sistema binário do Ensino Superior, dividido entre universidades e institutos politécnicos, é contemplado por meio dos guias específicos a cada um destes tipos de organização acadêmica. Ao observar os demais princípios e características dos dois sistemas, percebe-se similaridade no que se refere à universalidade e periodicidade do processo avaliativo e regulatório, e ao papel da avaliação na melhoria da qualidade. Como distinção, percebe-se que as características assumidas pelo sistema português são mais objetivadas do que os princípios adotados pelo Sinaes, cujo texto é mais amplo e genérico. Na legislação portuguesa 42 , faz-se menção específica à adoção dos padrões firmados no processo de Bolonha, na possibilidade do contraditório e recurso pela IES no processo de acreditação, na participação de peritos estrangeiros, estudantes, na utilização do processo regulatório para orientação da oferta do Ensino Superior e na publicação da avaliação. Algumas destas características não estão explicitadas no Sinaes em seu documento original, mas também integram o sistema: a possibilidade de recurso, a avaliação por pares sem vínculo com o contexto em que a IES avaliada se insere, e a publicidade dos resultados da avaliação. Outras, tais como a utilização dos resultados para regulação da oferta, encontram-se nos objetivos do sistema: “orientar a expansão da oferta” 43 . Outra distinção que se nota é que no Sinaes há menção específica sobre identificar mérito e 42 43 Refiro-me ao decreto-lei número 369/2007. Os objetivos do Sinaes encontram-se publicados no sítio do Inep, ver http://portal.inep.gov.br/superiorsinaes-objetivos 61 valor das atividades de ensino, pesquisa, extensão, gestão e formação nas IESs; na legislação da A3ES não há tal especificidade, somente se faz referência ao “desempenho das instituições de ensino superior e dos seus ciclos de estudo”. Já características como orientação da avaliação em relação ao mercado de trabalho, divulgação do desempenho das IESs e internacionalização do processo de avaliação são explicitadas na A3ES, e não constam no Sinaes. Um destaque da A3ES frente ao Sinaes é a participação dos estudantes no processo. Enquanto que no Sinaes não existe de fato uma participação compulsória dos estudantes no processo de avaliação, na A3ES está “em curso um exercício experimental de participação dos estudantes como membros de pleno direito das Comissões de Avaliação Externa, nos casos em que as instituições aceitarem essa participação dos alunos”.44. Em relação à forma de estruturação e universalidade dos sistemas (ver itens: agência, modalidades, abrangência e uso na distribuição de recursos financeiros no Quadro 1), há correspondência parcial na maior parte dos aspectos e correspondência total no que ser refere à abrangência na estrutura acadêmica, ambos atuando no nível da IES e no nível dos cursos. Quanto ao uso na distribuição de recursos, no Sinaes este se limita à vinculação de editais e sistemas de bolsas de estudo como o ProUni e ProIES 45 disponíveis para instituições não públicas, ao desempenho aferido por meio do CPC, o conceito preliminar de curso. No caso português não há vinculação com a distribuição de recursos públicos para as unidades de ensino e investigação, que é realizada pela Fundação para a Ciência e Tecnologia, do Ministério da Educação, que dispõe de guia próprio para seus painéis de avaliação 46 tanto para projetos de pesquisa quanto para bolsas de doutoramento. Em relação à abrangência no grau acadêmico, o Sinaes regula somente o nível de graduação, enquanto que a A3ES trabalha com todos os níveis, da graduação ao doutorado. Em relação à IES, o Sinaes não é obrigatório para as IESs vinculadas aos sistemas estaduais de ensino, enquanto que a A3ES é universal no sistema de ensino português. No entanto, na prática o Sinaes tem sido utilizado para todas as IESs brasileiras. 44 Ver em http://www.a3es.pt/pt/o-que-e-a3es/plano-de-atividades. Programa Universidade para Todos (Prouni), instituído Lei nº 11.096, de 13 de janeiro de 2005, e Programa de Estímulo à Reestruturação e ao Fortalecimento das Instituições de Ensino Superior (Proies), instituído pela Lei nº 12.688, de 18 de julho de 2012. 46 Ver http://www.fct.pt/apoios/projectos/guioes.phtml.pt. 45 62 Quanto às modalidades de avaliação dos sistemas, o Sinaes conta com três tipos: Avalies, ACG e Enade. A primeira, a Avalies, não tem correspondência direta com o modo de operação da A3ES. A Avalies estabelece dois modos de avaliação institucional: a autoavaliação institucional, promovida por comissões internas de avaliação, a Comissão Própria de Avaliação – CPA, e a avaliação externa da IES, realizada por pares, que realiza credenciamento ou recredenciamento institucional. Ao contrário do Sinaes, em Portugal não existe o processo de autoavaliação institucional, mas ocorre a autoavaliação do curso, como fase prévia à avaliação externa. No Brasil, a autoavaliação tem como produto final um relatório de autoavaliação 47 . A avaliação institucional externa, com fins de credenciamento ou recredenciamento, tem periodicidade idêntica à regulação de cursos, três anos, podendo ocorrer dispensa de recredenciamento pela avaliação externa conforme o Índice Geral de Cursos – IGC da IES, o índice institucional derivado dos CPCs dos cursos da IES. Este mecanismo é similar àquele existente para os cursos de graduação. Quanto aos exames de desempenho, Portugal não conta com uma modalidade deste tipo para apoiar a regulação do ensino superior. Existe um projeto em desenvolvimento de abrangência europeia, o projeto AHELO48, promovido pela OCDE, em fase inicial de estudo. Com relação à avaliação externa, a operacionalização da A3ES é muito similar àquela realizada pelo Inep para a modalidade ACG – avaliação dos cursos de graduação, constante do Sinaes. Nesta, a principal diferença é a ausência de um processo de autoavaliação do curso prévio à avaliação externa. No que se refere aos demais procedimentos, ambas ocorrem tanto para novas ofertas quanto para os cursos já em funcionamento. A distinção do Sinaes é que a avaliação externa de cursos já existentes pode ser dispensada conforme o CPC do curso proveniente em grande parte do Enade. A composição da comissão de avaliação é similar em número à da A3ES, contando com um membro estrangeiro, enquanto que no Brasil os membros não podem pertencer à IES do mesmo Estado que a IES avaliada. A agenda de visita in loco segue o mesmo padrão para os dois sistemas, assim como a elaboração do relatório de avaliação. O 47 a partir de 2014 o relatório final passou a ter periodicidade trienal, compatibilizando-se com a vigência da regulação efetuada pela ACG e Enade. 48 Assessment of Higher Education Learning Outcomes, ver no sítio da OCDE a íntegra do projeto: http://www.oecd.org/edu/skills-beyondschool/testingstudentanduniversityperformancegloballyoecdsahelo.htm. 63 período de vigência da certificação é de três anos no Sinaes e de três a seis anos, conforme a deliberação da A3ES. Ocorre correspondência parcial entre os sistemas no que se refere ao instrumento de avaliação, tanto nos critérios quanto na escala. Um exame das grandes categorias de análise dos instrumentos mostra que na A3ES a avaliação tende a ser mais abrangente que no Sinaes nos aspectos do corpo não docente e parcerias no curso. No Sinaes os critérios de análise em relação ao acervo são quantitativos, ao contrário do instrumento da A3ES; a avaliação do coordenador do curso possui diversos critérios, enquanto que na A3ES a avaliação consta de um único critério: “Docente(s) responsável(eis) pela coordenação do ciclo de estudos: tem o perfil adequado/não tem o perfil adequado”. De forma geral, ambos os instrumentos abrangem suficientemente os aspectos pedagógicos, de infraestrutura e corpos docente e discente. Na atribuição de valores, a escala utilizada pela A3ES é mais simples: ou binária do tipo adequado/não adequado, ou em três níveis: sim/não/em parte. No Sinaes a escala possui cinco níveis, de insuficiente a excelente, exceto no cumprimento de requisitos legais em que a escala é idêntica à da A3ES para esses aspectos: cumpre/não cumpre. Em vários critérios o Sinaes atribui quantidades aos diferentes níveis da escala, como no caso da carga horária de coordenação de curso em que os extremos da escala (1-insuficiente a 5-excelente) correspondem a “quando a carga horária prevista/implantada para o (a) coordenador (a) for menor que 10 horas” e “quando a carga horária prevista/implantada para o (a) coordenador (a) do curso for maior ou igual a 25 horas semanais dedicadas totalmente à coordenação” respectivamente. No guia da A3ES os critérios sempre se constituem em indicações de caráter mais qualitativo, que dependem em maior grau da interpretação dos peritos da comissão. Destaca-se que no Sinaes a escala dos instrumentos de avaliação (também nos processos de credenciamento e recredenciamento institucionais) é idêntica numericamente à escala do Enade, de 1 a 5, em que 1 corresponde à condição insuficiente, 5, à excelente e o ponto médio 3, à condição de suficiência, considerada no sistema o mínimo exigido para funcionamento da IES ou do curso de graduação. Isso permite comparações quantitativas nas avaliações realizadas por ambas as modalidades: o Enade e a ACG. 64 Quadro 1 – Análise comparativa entre os sistemas de avaliação da Educação Superior no Brasil e em Portugal Dimensão Princípios/Características Objetivos Brasil Portugal Sistema 1. Universalidade, obrigatoriedade e periodicidade. 1. A responsabilidade social com a 2. Multidimensionalidade do objeto de avaliação. qualidade da educação superior 3. Adoção dos padrões firmados no 2. O reconhecimento da diversidade do desenvolvimento do Processo de Bolonha sistema 4. Reconhecimento da avaliação nas atividades 3. O respeito à identidade, à missão e à de investigação científica e de desenvolvimento. história das instituições. 5. Possibilidade do contraditório nos processos 4. A globalidade, isto é, compreensão de avaliação e pela recorribilidade das decisões de que a instituição deve ser avaliada a neles tomadas. partir de um conjunto amplo e 6. Participação de peritos estrangeiros no significativo de indicadores de processo de avaliação. qualidade, vistos em sua relação 7. Participação dos estudantes orgânica e não de forma isolada. 8. Publicidade da avaliação 5. A continuidade do processo 9. Orientação em direção a fins de implantação avaliativo. das instituições de ensino superior no panorama internacional, na vida da comunidade e no mercado de trabalho. 1. Identificar mérito e valor das 1. Concretizar os critérios de avaliação, de modo instituições, áreas, cursos e programas, a obter a tradução dos seus resultados em nas dimensões de ensino, pesquisa, apreciações qualitativas; extensão, gestão e formação; 2. Definir as consequências da avaliação efetuada 2. Melhorar a qualidade da educação para o funcionamento das instituições e dos seus superior, orientar a expansão da oferta; ciclos de estudos; 3. Promover a responsabilidade social 3. Desenvolver a avaliação da qualidade de das IESs, respeitando a identidade desempenho das instituições de ensino superior e Correspondência Em parte Em parte 65 Dimensão Agência/Órgão Tipo de modalidades Abrangência regional Brasil institucional e a autonomia. Conaes – Conselho Nacional de Avaliação da Educação Superior Seres – Secretaria de Regulação da Educação Superior Inep – Instituto Nacional de Pesquisas Educacionais Anísio Teixeira Avalies: autoavaliação institucional realizada pela CPA – Comissão Própria e avaliação externa da IES ACG: Avaliação dos cursos de graduação, processos de reconhecimento e renovação de reconhecimento de curso. Enade: Exame Nacional do Desempenho dos Estudantes Somente Brasil. Existe outro sistema, o ARCU-SUL, que tem abrangência no MERCOSUL, do qual o Brasil faz parte. Portugal dos seus ciclos de estudos; 4. Promover a acreditação de ciclos de estudos e instituições, tendo em vista a garantia de cumprimento dos requisitos legais do seu reconhecimento; 5. Promover a divulgação fundamentada à sociedade sobre a qualidade do desempenho das instituições de ensino superior; 6. Promover a internacionalização do processo de avaliação. Correspondência A3ES – Agência de Avaliação e Acreditação do Ensino Superior Em parte Acreditação prévia de novos ciclos (equivale a reconhecimento de curso) Avaliação e acreditação de ciclos em funcionamento (equivale a renovação de reconhecimento de curso) Auditoria de sistemas internos de garantia de qualidade (em nível institucional) Em parte A A3ES é membro pleno da ENQA (European Agency of Quality Assurance) de abrangência europeia, com 42 agências nacionais de 25 países, além de membros associados. Em parte 66 Dimensão Abrangência do universo das IESs Abrangência do grau acadêmico Abrangência na estrutura acadêmica Uso na distribuição de recursos financeiros Brasil Todas pertencentes ao sistema federal e à maioria dos sistemas estaduais Somente graduação. Demais graus são avaliados pela CAPES. – Coordenação de Aperfeiçoamento do Pessoal de Nível Superior Nível institucional na Avalies, para credenciamento e recredenciamento institucional. Nível de curso na ACG, para reconhecimento e renovação de reconhecimento de curso de graduação. Portugal Todas: universidades e institutos politécnicos, públicos e privados. Nível institucional nos processos de auditoria de sistemas de garantia de qualidade Nível de curso na acreditação dos ciclos. Sim Sim Sim Sim Autoavaliação de curso Não existe Autoavaliação institucional Exame de desempenho Sim Sim Existência Tipos de Guia/Instrumento de avaliação Critérios do Guia/Instrumento de avaliação Todos os ciclos: licenciaturas, mestrados e doutorados. Sim. Fase obrigatória e prévia à avaliação externa Não existe Não existe Avaliação Externa Sempre para novos cursos Dispensável na renovação de curso conforme o conceito preliminar de curso – CPC, obtido via Enade. ACG: Reconhecimento e renovação de reconhecimento de curso Organização didático-pedagógica, corpo docente e infraestrutura. Sempre ocorre Guia para novos ciclos e para ciclos em funcionamento Estrutura curricular e planos de estudos, organização interna, recursos materiais e parcerias, pessoal docente e não docente, Correspondência Em parte Em parte Não Não Não Em parte Sim Em parte 67 Dimensão Escalas do Guia/Instrumento de avaliação Via procedimental Comissão de avaliação externa Vista in loco Relatório de avaliação Período de vigência do processo Brasil Cinco níveis: não existente, insuficiente, suficiente, muito bom e excelente Plataforma eletrônica Três membros para regulação de IES Dois membros para regulação de curso Os membros não podem ser recrutados no Estado em que atuam como profissionais Visita a instalações e agenda com a comunidade acadêmica A comissão não emite parecer conclusivo ao final da visita Postado pela comissão na plataforma eletrônica, com possibilidade de recurso. De três anos, prorrogáveis automaticamente conforme o CPC. Portugal estudantes e ambientes de ensino aprendizagem, avaliação da aprendizagem Correspondência Dois (sim/não) ou três (sim/não/em parte) níveis Em parte Plataforma eletrônica Três a cinco membros em todos os casos, sendo um necessariamente estrangeiro. Visita a instalações e agenda com a comunidade acadêmica A comissão não emite parecer conclusivo ao final da visita Enviado para a IES pela Comissão de Avaliação que poderá solicitar revisão ou aprovar para envio a A3ES De três a seis anos conforme deliberação da A3ES Sim Em parte Sim Em parte Em parte Fonte: o autor 68 De forma geral, os sistemas se caracterizam por grande similaridade com relação à adequação dos instrumentos para a comparabilidade do objeto de avaliação, seja a IES, seja o curso de graduação. Ambos os sistemas tendem à convergência de critérios mínimos para o funcionamento da IES e à atribuição de quantidades que permitam hierarquização qualitativa, apesar de que ainda nenhum dos dois sistemas possua uma carteira de indicadores quantitativos que permita uma classificação sistemática e automática das IESs. Apesar disso, estudos têm sido desenvolvidos na A3ES 49 com vistas à adoção deste tipo de avaliação como apoio à avaliação externa; no Sinaes a elaboração dos índices de qualidade CPC e IGC tendem cada vez mais a compor indicadores deste tipo para a classificação das IESs. O que se nota é que para ambos os casos é adequada à conclusão: Daqui resulta uma concepção de avaliação de tipo tecnocrático e gerencial, predominantemente externa e quantitativa, estandardizada, centrada na comparação entre produtos e, em geral, recusando processos de autoavaliação conduzidos livremente por critérios próprios, fruto da autonomia acadêmica e da capacidade de autogoverno. (LIMA; AZEVEDO; CATANI, 2008, p.18). Tal característica pode ser confirmada no Sinaes quando se percebe a inocuidade dos relatórios de autoavaliação promovidos pelas IESs, sem expressão no processo de regulação, ao mesmo tempo em que a crescente quantificação de aspectos relativos à IES permite uma “normalização” do desempenho das IESs, ampliando o poder comparador e generalizador da avaliação: Estaremos perante a uma convergência normativa indispensável à integração das instituições, mas logo orientada para a divergência competitiva e diferenciadora, baseada na rivalidade institucional. (LIMA; AZEVEDO; CATANI, 2008, p.14). O fenômeno da divergência competitiva é mais notório quando se examina a publicação e as consequências do Índice Geral de Cursos – o IGC, no Brasil. As instituições acabam por ser classificadas na escala de 1 a 5 do IGC 50 , independentemente de suas características organizacionais, se universidade ou centro universitário ou faculdade. Para o público em geral, uma IES classificada como quatro (4) é melhor que uma classificada como três (3), mesmo que a primeira seja um Centro Universitário e a segunda seja uma Universidade, com oportunidades de pesquisa e 49 Ver o documento Indicadores de Desempenho para Apoiar os Processos de Avaliação e Acreditação de Cursos, disponível em< http://www.a3es.pt/sites/default/files/Estudo_IndicadoresDesempenho.pdf.-> 50 Conforme discutido anteriormente. 69 extensão que o primeiro não dispõe. Devido à presença destes índices de curso, o CPC, e de instituições, o IGC, a classificação e hierarquização das IESs são explícitas no Sinaes, enquanto que no processo de regulação português a certificação do curso ou IES não leva diretamente a sua classificação hierárquica. É importante destacar que a presença destes índices no Sinaes só é possível devido à existência de um exame de desempenho, inexistente em Portugal. Sem este exame, a regulação no Sinaes estaria conformada à avaliação externa, que também culmina em índices, o conceito de curso – CC e o conceito institucional CI, mas que não são atualmente publicados da mesma forma que o CPC e o IGC51. É de se notar que ambos os sistemas tiveram sua origem associada ao modelo holandês de avaliação. O sistema português teve sua origem nas discussões promovidas pelo CRUP quando da criação do primeiro sistema de avaliação do Ensino Superior português, discutido anteriormente, no qual o modelo holandês foi privilegiado como modelo a ser adotado para o novo sistema. Com relação ao Sinaes, em seu documento original há referência explícita ao modelo holandês (BRASIL, 2004, p. 16) e ao PAIUB (BRASIL, 2004, p.19) que também tem inspiração neste modelo, cuja característica distintiva é a forte presença da componente autoavaliativa. Em suas estruturas, tanto em Portugal quanto no Brasil, a autoavaliação faz parte do processo avaliativo: na A3ES a autoavaliação é uma fase obrigatória e prévia à avaliação externa dos pares e ocorre no âmbito do curso avaliado. No Sinaes, a autoavaliação é uma modalidade distinta das outras duas (a ACG, a avaliação externa dos pares e o Enade, o exame de desempenho dos estudantes) e ocorre no âmbito da instituição. Assim, à primeira vista, a componente autoavaliativa está assegurada em ambos os sistemas de regulação, até mesmo destacada no texto original do Sinaes (negrito na citação original): Os instrumentos em vigor, que sejam considerados válidos, devem ser preservados e aperfeiçoados, porém integrados a uma outra lógica que seja capaz de construir um sistema nacional de avaliação da educação superior, articulando regulação e avaliação educativa (BRASIL, 2004, p. 22). No entanto, esta componente não está integrada ao processo regulatório em nenhum dos dois sistemas. Na A3ES, sua existência é vinculada fortemente ao guia da avaliação externa, com critérios estabelecidos a priori nos quais a instituição não tem autonomia 51 Conforme detalhado no primeiro movimento. 70 para propor quaisquer adequações ao contexto institucional ou regional, nem propor outros critérios que sejam específicos de sua atuação. No Sinaes, o processo de autoavaliação conduzido pela CPA culmina em um relatório que não é utilizado em profundidade pela avaliação externa; ao contrário disto, a avaliação externa se utiliza de um indicador chamado “relato institucional”, que é elaborado pela CPA para o instrumento de avaliação externa. A dificuldade em integrar o processo de autoavaliação às demais práticas avaliativas – a avaliação externa no caso da A3ES e ainda o exame de desempenho no caso do Sinaes – reside em dois pontos centrais: a não neutralidade dos envolvidos e a não padronização advinda de critérios contextualizados, o que conforma o processo avaliativo a uma prática adequada ao conceito que Lima (1997, p. 55) denominou de Educação Contábil: Revalorizando concepções mecanicistas das organizações e da administração educativas, a educação contábil tende a centrar-se no cálculo e na mensuração dos resultados (desvalorizando os processos e os resultados mais difíceis de contabilizar), favorece a padronização (em prejuízo da diversidade), apoia-se em regras burocráticas e em tecnologias estáveis e rotineiras, promove a decomposição e fragmentação dos processos educativos em unidades elementares e mais simples, passíveis de “mercadorização”. De fato, os resultados alcançados pela autoavaliação não poderiam ser padronizados e nem mensurados em toda a sua extensão, de forma a tornar todo o processo comparável entre IESs. Quanto à ausência de neutralidade, condição sine qua non na autoavaliação, devido à presença de sujeitos que são avaliadores e avaliados simultaneamente, esta vai de encontro à avaliação externa, que tem como princípio a neutralidade dos envolvidos, a partir de sua exterioridade em relação ao objeto avaliado. Assim, como referido por Lima e colaboradores quando investigam o projeto de criação da A3ES: “exterioriedade e heteroavaliação surgem, naquele documento, como garantia da independência, do rigor e da objetividade do processo de avaliação” (LIMA; AZEVEDO; CATANI, 2008, p.18). Ao contrário disto, o processo de autoavaliação se configura em ”uma situação em que o conhecimento mútuo das pessoas e dos contextos é considerado um obstáculo à avaliação” (LIMA; AZEVEDO; CATANI, 2008, p.19). Neste aspecto, o Sinaes compartilha do mesmo dilema que a A3ES, na tentativa frustrada de integrar a autoavaliação ao processo maior de avaliação. Ambos os sistemas acabam por dar prioridade a processos que permitam comparabilidade, seja na 71 adoção de instrumentos de avaliação externa que não permitam autonomia, mesmo que relativa ou circunscrita, às IESs; seja, no caso do Sinaes, de índices derivados do exame de desempenho que não admitam em sua construção especificidades oriundas quer das formas de organização acadêmicas, de sua natureza administrativa, quer do contexto regional em que a IES se insere. Complementando as análises realizadas nesta perspectiva comparada, no próximo item as similaridades e distinções entre os sistemas são discutidos a partir dos resultados oriundos da análise de conteúdo aplicada às entrevistas realizadas. 2.4.2 A percepção de pesquisadores portugueses. O Quadro 1 apresentado no item anterior, derivado da análise documental realizada, permitiu estabelecer as seguintes categorias para a análise das entrevistas, quais sejam: Princípios, características e objetivos do sistema. Estrutura e abrangência do sistema. Autoavaliação. Exame de desempenho. Avaliação externa. Consequências da avaliação externa. A análise de conteúdo aplicada às quatro entrevistas 52 reorganizou as categorias estabelecidas a priori pela análise documental, configurando o quadro final de categorias dos sistemas de avaliação e regulação: Referenciais, pressupostos e características dos sistemas de avaliação. Processo de autoavaliação. Exame de desempenho. Consequências da regulação. Estas categorias foram utilizadas na discussão realizada a seguir, na qual as citações literais dos entrevistados foram identificadas a partir do uso do recuo de texto, utilização dos códigos “E1” a “E4” e fonte de texto distinta. 52 As entrevistas foram realizadas no meses de novembro e dezembro de 2014 pelo autor. 72 2.4.2.1 Referenciais, pressupostos e características dos sistemas de avaliação. Nos documentos oficiais de ambos os países, a missão e os objetivos visam garantir e melhorar a qualidade da educação superior. O conceito de qualidade no âmbito do ensino é complexo, polissêmico e por vezes circunstancial: As noções de qualidade da educação superior têm muito a ver com os lugares relativos dos indivíduos, os compromissos dos grupos numa dada formação social, as concepções de mundo e, particularmente, os papéis que os atores atribuem à educação superior. Dada a heterogeneidade das concepções de mundo e tendo em vista as contradições de toda formação social, dificilmente se construirá unanimidade a respeito do que é e deve ser uma educação superior de qualidade (DIAS SOBRINHO, 2010, p. 1228). ` Assim, procurou-se investigar que outros conceitos, segundo a percepção dos pesquisadores, estão associados às práticas dos sistemas de regulação. Com relação a A3ES, o exame das entrevistas permitiu destacar conceitos vinculados à qualidade conforme o ponto de vista empresarial, da formação de produtos de consumo, como pode ser visto nas transcrições abaixo: O referencial tornou-se mais tecnocrático, positivista, centrado em uma lógica de regulação delegada pelo Estado para instâncias que o Estado delega e este se torna mais um estado supervisor, gestionário dizem outros, enfim, metarregulador. (E1) Há aqui um conceito de qualidade que, provavelmente, privilegia uma perspectiva mais tecnocrática, mais produtivista do Ensino Superior; isto por meio dos indicadores que eles utilizam. (E3) Neste caso foi um conceito calcado nas experiências empresariais, na indústria, em fábricas como a Toyota e outras, e depois passou para a Europa, depois da revolução “neoconservadora” do anos 1980; essa noção então começa a surgir no serviço público, e é transposta ao Ensino Superior (E4) A quantificação e uniformização e, como consequência a comparabilidade de indicadores, condição prévia para a hierarquização de instituições discutida no item anterior, também aparecem como palavras-chave na regulação: Portanto a diferenciação é esta, a avaliação, os rankings, a reputação das instituições etc. Ou seja, nós não podemos 73 comparar maçãs com laranjas. A primeira década do processo de Bolonha foi transformar tudo em laranjas para permitir a comparação, a performatividade competitiva. E hoje ela é induzida porque nós temos um sistema de harmonização, e hoje é possível a comparação. (E1) É para aumentar a qualidade, sem dúvida, mas que depois acaba por conduzir a elaboração, mais ou menos distorcidas, de rankings. Mesmo antes na outra avaliação em que havia letras, isso acaba por levar, de facto, a uma lógica de certa homogeneidade, uma uniformidade; estamos sendo todos classificados na mesma lógica. (E3) Temos também a uniformização. Não chegamos ainda aos standards, aos padrões de outros países, mas inquestionável que toda a avaliação externa é um momento de padronização. (E1) Esse processo pode trazer também algum isomorfismo, isto é, não trazer na intenção do processo de avaliação, mas nas suas consequências. Isto é, se aqueles são bem sucedidos e fazem assim nós também vamos fazer. (E2) [...] leva a que os currículos sejam alinhados aos critérios da agência reguladora, neste caso a agência de acreditação, o que, por sua vez, leva a uma homogeneização dos currículos. (E4) Ainda em relação à padronização, um dos entrevistados manifestou sua preocupação na incorporação pelas próprias IESs do que hoje está sendo induzido pelo processo de regulação: [...] mas para o pior, pois nós criamos nossos instrumentos de padronização para nós próprios. E, portanto o que isto significa? Que nós temos hoje uma vida de gestão pedagógica uniformizada por uma plataforma eletrônica. (E1) Nas seguintes falas fica expressa a preocupação em relação à ênfase dada aos indicadores quantitativos: Quando se trata de avaliar no sentido de colocar numa escala quem está acima e quem está abaixo, já tenho mais dúvidas, porque de facto o respeito pela contextualização e pela diversidade dilui-se nessa volúpia “quantitativista”, que promove claramente condições de quase mercado para as instituições, mesmo as públicas. Esses instrumentos promovem a curto e médio prazo o ranking das instituições. (E2) 74 Só conta para a avaliação o que se deixa contar. Esta avaliação tem horror ao incomensurável. Tudo que é incomensurável, que é uma das dimensões mais importantes do processo educativo, tem que ser desprezado por esse paradigma de avaliação. (E1) A assunção de critérios mínimos advinda da padronização de indicadores é exposta nesta entrevista: A avaliação hoje é um instrumento de categorias que tendem a se tornar universais e que estão vinculadas a outras categorias que tendem também a se tornar universais, por exemplo: benchmarks, melhores práticas, boas práticas. (E1) E este pesquisador manifestou sua preocupação na adoção destes padrões na área do ensino: É um conceito importante, mas difícil para a área do Ensino, pois se é fácil para uma indústria medir a qualidade dos produtos que produz que necessitam de um padrão préestabelecido específico, para as instituições de ensino isso é mais complicado. (E4) A problemática associada ao conceito de neutralidade na avaliação pelos pares foi abordada por um dos entrevistados: Mas nós estamos em um sistema de avaliação que quanto mais distante e olímpico melhor [...] não podendo ser olímpica ela tem que ser feita por indivíduos que são distantes, de preferência não falam a língua do país, não conhecem nada do país, vem cá estranhando a realidade e fazendo juízos objetivos. E por objetividade entenda-se neutralidade, o desconhecimento da realidade, o desconhecimento da história do país, da cultura e da língua. (E1) Basicamente a argumentação é esta: são todos acadêmicos, o país é um país pequeno e, portanto, não há distância crítica suficiente. E por isso é necessário um sistema mais distante, um sistema diferenciado. (E1) Torna-se claro que, na percepção dos entrevistados, o conceito de “qualidade” praticado pela A3ES está associado àquele praticado no âmbito empresarial, no qual a mensuração de características previamente selecionadas pela agência, idênticas em sua formulação e independentes do contexto da instituição, é utilizado para definir a qualidade do ensino, por meio de valores de corte mínimos que possibilitem a adoção de 75 medidas “corretivas” nos casos em que o mínimo exigido não seja cumprido pelo curso ou instituição, além de possibilitar critérios uniformes nos casos de distribuição de recursos e estimular a competitividade entre as instituições tendo como padrão o mercado de trabalho. Estes últimos aspectos aparecem em duas das quatro entrevistas realizadas: “[...] a comparação é competitiva e que tem a ver com a performance competitiva que depois tem consequências na distribuição dos recursos”.(E1). A lógica da eficiência e também eficácia dos sistemas em relação ao externo: empregabilidade, mercado de trabalho é mais acentuada do que propriamente a qualidade em relação ao ensino-aprendizagem. (E3) Estes efeitos também podem ser observados neste tipo de lógica de prestação de contas posterior, associado aos financiamentos, como um sistema de accountability de alto risco, pois se corre o risco de não sermos acreditados. (E3) Além disso, neste processo, a distância entre avaliado e avaliador é preferida ao conhecimento prévio da realidade do objeto a ser avaliado. Tais conceitos associados à qualidade do ensino superior, percebidas pelos pesquisadores portugueses em relação ao seu sistema de regulação, encontram eco na percepção dos pesquisadores brasileiros em relação ao Sinaes, notadamente ao uso de indicadores para o ranqueamento de instituições, que no caso do Sinaes é mais conspícuo que na A3ES, tendo em vista que o primeiro dispõe de indicadores quantitativos como o CPC e o IGC, derivados do Enade, que permitem uma classificação direta de cursos e instituições: A ênfase dada à variável “desempenho do estudante”, nos resultados obtidos pelas IESs, finda por transformar a proposta do Sinaes de avaliação como processo formativo em simples avaliação de resultados, com privilegiamento, portanto, da tônica tecnológica (WEBER, 2010, p. 1264). Neste sentido, o Sinaes, privilegiando o desempenho do estudante como principal fonte de indicadores de qualidade do ensino superior 53, assume uma vertente quantitativista e produtivista tão ou mais perceptível que a A3ES, pois promove a classificação direta das IESs por meio de seus índices, cuja uniformidade é universal, tendo em vista que não consideram quaisquer especificidades nas IESs, sejam elas de cunho administrativo, organizacional ou local no contexto regional do país. 53 Notar que, em 2011, a nota técnica com o cálculo destes indicadores de desempenho foi publicada pelo Inep sob o título “Manual dos indicadores de qualidade”. Ver http://download.inep.gov.br/educacao_superior/enade/notas_tecnicas/2011/manual_indicadores_qualida de_2011_sem_logo.pdf 76 2.4.2.2 Processo de autoavaliação A percepção dos pesquisadores em relação ao processo de autoavaliação de curso empreendido do âmbito da A3ES e sua distinção do processo de autoavaliação institucional existente no Sinaes mostra unanimidade em relação à importância do processo. Em todas as entrevistas aparece menção a isto, seja no sentido geral do processo de autoavaliação, independentemente de sua realização no nível do curso ou da instituição, [...] um exercício reflexivo acerca da nossa realidade. Neste sentido eu sou muito favorável a este tipo de avaliação” (E2) ou pela indicação de que um processo no nível institucional é necessário mesmo com a existência deste no nível de curso: Portanto esta questão de ser uma avaliação institucional diferenciada daquela por curso, eu julgo que seria interessante no sentido de uma autoavaliação institucional e uma avaliação institucional externa que ao existir prescinda da avaliação dos cursos. (E3) Eu tenho alguma preferência, digamos, pelo sistema brasileiro, pois uma coisa que está relativamente pouco desenvolvida aqui em Portugal é a autoavaliação institucional. Ela existe implicitamente, na avaliação dos cursos, mas não é uma coisa como uma autoavaliação institucional que mexe com a instituição como um todo, que de certa forma obriga as suas diferentes unidades a se articularem melhor. (E4) Já a autoavaliação de curso existente na A3ES é contestada por um dos entrevistados, devido a sua relação direta com a avaliação externa: Eu prefiro uma autoavaliação que seja realizada segundo os referenciais que nós autonomamente construímos e mantemos, do que seja uma pretensa autoavaliação subordinada quando não esmagada pelos referenciais externos. Acho que nós temos que falar em avaliação interna e não autoavaliação. Eu acho que nós não fazemos autoavaliação dos cursos nas universidades portuguesas. Nós fazemos uma avaliação interna preparatória para a externa e só nos quesitos e referenciais que nos são apresentados para a avaliação externa. Portanto ela é subordinada, submissa, orientada por referenciais externos. Eu não chamo isso de autoavaliação porque autoavaliação é autonomia. (E1) 77 No caso do Sinaes, a problemática reside na importância do processo de autoavaliação institucional para os processos regulatórios do sistema, visto não se dispor de uma autoavaliação no nível do curso54. Ainda não foi possível desenvolver no sistema uma estratégia que envolva o processo de autoavaliação no processo maior de avaliação empreendido pelo Sinaes, englobando as outras duas modalidades, a avaliação externa e o exame de desempenho. A autoavaliação institucional continua, após dez anos de implantação do sistema, como a modalidade mais frágil e sem consequências no processo regulatório55. Conclui-se que a diferença entre os sistemas em relação à autoavaliação esbatese ao se considerar o papel deste processo em relação à regulação; nos dois sistemas, a autoavaliação ainda não se configura um importante componente do processo maior. Ao contrário disto, ou parece ser subordinada aos critérios da avaliação externa, no caso da A3ES, ou não é considerada no processo de regulação, que se utiliza da avaliação externa e para a maioria dos cursos, do exame de desempenho do estudante, no caso do Sinaes. No entanto, um dos entrevistados aponta para uma possibilidade de incorporação de um processo de autoavaliação que goze de uma autonomia relativa: A autoavaliação para mim implica sempre no mínimo uma negociação de referenciais. E que eu possa fazer uma avaliação interna que possa ser utilizada pela avaliação externa ou não, e eventualmente com referenciais distintos em um caso ou em outro. Eu ainda sou adepto por uma situação intermédia, que seria uma autoavaliação negociada com o avaliador externo; do ponto de vista em que a autoavaliação conteria todos os elementos exigidos para a avaliação externa, mas poderia ir completamente para além daí, não podendo ser uma avaliação absolutamente autônoma, independente ou desligada; nós teríamos um compromisso e nós passaríamos a que a avaliação externa tivesse que necessariamente levar em consideração os elementos da autoavaliação que não só os impostos pela própria agência. (E1) Uma possível evolução na prática da A3ES consistiria na incorporação de critérios autóctones da IES, que possibilitassem ao avaliador externo o exame de indicadores contextuais. No Sinaes a autoavaliação de curso poderia ser um elemento a 54 Apesar de existir um momento em que o curso preenche um formulário eletrônico, onde descreve aspectos do curso como perfil, currículo, organização pedagógica e outros, não existe necessariamente um juízo de valor emitido, de forma a caracterizar uma autoavaliação. 55 Este aspecto foi discutido pormenorizadamente no primeiro movimento. 78 ser considerado no aprimoramento do sistema, enquanto que a autoavaliação institucional poderia ser considerada juntamente com as demais modalidades, e passível de meta-avaliação pelos pares. Como expresso por um dos entrevistados, a busca pela melhoria de qualidade poderia voltar a ser o foco do processo de avaliação, ao invés do aspecto produtivista e eficientista: Nós podemos nos avaliar no contexto da própria instituição, no contexto da realização das próprias práticas educativas ou da investigação, seja o que for. Nós podemos comparar nossa performance com a performance que tivemos anteriormente e que vamos ter no futuro. Não ter que ser necessariamente uma performatividade competitiva. É esta performatividade competitiva que de certa forma envenena todo o exercício avaliativo. (E1) 2.4.2.3 Exame de desempenho A adoção de exames de desempenho pelo sistema hoje existente em Portugal, à semelhança do que já existe no Brasil, por meio do Enade, foi descartada por todos os entrevistados. Justificaram sua percepção negativa em relação a este tipo de modalidade com base no argumento de que não é possível avaliar um processo por meio de um resultado mensurado ao final deste, além de suas implicações em relação à prática docente. Com relação ao primeiro aspecto, um dos entrevistados assim se manifestou: Isso para mim é complicado. Como se vê isso em um curso como Medicina? Engenharia pode até ser, mas evidentemente os conceitos teóricos que o Engenheiro detém podem não atender aquilo que o mobiliza para as práticas. Portanto aí há algumas áreas em que eu não percebo como é possível avaliar os conhecimentos a partir de um teste. Sem contar com o conhecimento tácito, que não podem ser avaliados por um teste. (E4) A preocupação em relação à modificação da prática docente é manifestada por dois entrevistados: E vai implicar que o professor começa a preparar os seus alunos para o desempenho à saída, porque é claro que isso depois vai ter implicações na procura social pelas instituições, e vai ter implicações na reputação, no status relativamente às instituições, às faculdades, aos cursos. (E1) 79 O exame, a partir do momento em que me define o que o aluno deve saber, que conteúdos e competências que ele deve saber relativamente a uma área temática, eu fico com uma margem de manobra muito mais reduzida. Portanto eu tenho algum receio neste tipo de avaliações e seus efeitos. (E3) O outro entrevistado manifestou preocupação em relação a que este tipo de prática responde: Evidentemente que o regulador tem que ter informação acerca do sistema. Mas transformar isto em sistemas de medição de desempenho dos cursos, dos estudantes, ou mesmo das instituições... temos que procurar o sentido deste projeto em um contexto mais amplo do que estes instrumentos políticos se enquadram. (E2) Tais percepções encontram eco nas discussões entre pesquisadores brasileiros com relação ao Sinaes. Desde a implantação do Enade, as críticas ao exame centram-se na adoção dos índices dele derivados: Porém, no meio do processo de implantação do Sinaes, novos resultados simplificados (índices) e novos rankings foram implantados, em 2008, numa tentativa de retorno das concepções de avaliação de resultados. (ROTHEN; E BARREYRO, 2011 p. 286) Uma das críticas que se impõe ao sistema atual se baseia na ênfase dada ao desempenho dos estudantes na avaliação geral da instituição. Weber explicita esta preocupação ao expor que esta característica “... finda por transformar a proposta do Sinaes de avaliação como processo formativo em simples avaliação de resultados” (WEBER, 2010, p. 1264). Peixoto analisou os resultados das universidades que obtiveram conceitos gerais mais elevados no período 2008-2009 e concluiu que: “[...] as universidades analisadas não são homogêneas no que se refere à capacidade de produção de conhecimento, à abrangência e qualidade da sua pós-graduação e na composição de seu corpo docente” (PEIXOTO, 2011, p.32) e conclui acerca dos conceitos atribuídos às IESs: É mais provável que, se existe algum subsídio a ser retirado desses resultados, seja exatamente o contrário: a pouco significativa contribuição que o processo trouxe para produzir conhecimento acerca da qualidade da educação superior brasileira de hoje e para o aprimoramento das instituições avaliadas (PEIXOTO, 2011, p. 33). 80 Tais discussões mostram a insatisfação em relação à utilização do Enade como componente principal dos índices utilizados nos processos regulatórios dos cursos de graduação. 2.4.2.4 Consequências da regulação As consequências advindas do sistema de avaliação de acreditação conduzido pela A3ES foram o assunto mais recorrente nas entrevistas. Nestas, todos os pesquisadores apontaram efeitos positivos para o sistema de ensino, como se pode ver nas falas a seguir: [...] para o melhor porque se faz o trabalho de casa; porque depois utiliza estas aquisições como marketing. (E1) Em termos de fundo, ela desempenha também uma forma do sistema corrigir seus excessos e seus déficits. Por exemplo, muitas instituições, na expectativa, ou conhecendo as linhas de orientação e os guiões de avaliação da A3ES fecharam muitos cursos, assumindo que não teriam cabimento de serem acreditados. (E2) Ao que parece existe alguns efeitos positivos na atuação da A3ES, principalmente na autorregulação da oferta de determinados cursos. Isto já aconteceu e continua a acontecer. Isso me parece positivo, porque de facto tínhamos um sistema que cresceu de forma exponencial sem grande controlo do que se ofertava e a A3ES introduz alguma “ordem” no campo. (E3) [...] também tem tido um papel muito útil de afastar o trigo do joio, sobretudo aqueles programas curriculares ou de ensino que de facto não tinham viabilidade, não estavam sustentados do ponto de vista da fundação, das pessoas que dependiam dele. (E4) No entanto, um dos pesquisadores questionou este efeito regulador sobre a oferta de cursos, tendo em vista que as avaliações da A3ES são pagas pelas IESs: Há instituições que se perguntam se vale a pena pagar; porque estas avaliações são pagas. Portanto a agência foi dotada de um capital inicial pelo Estado, mas o Estado não paga mais a agência, quem paga são as instituições. Portanto hoje as instituições vão fazer contas: vale a pena pagar para um curso que não tem alunos ou que nós achamos pode ter algumas debilidades, isto é muito bem visto pela agência. A agência vê 81 isto como uma autorregulação das instituições. É discutível. (E1) Este ainda mencionou o fato de que há casos em que esse procedimento institucional, visto como uma autorregulação benéfica pela A3ES, muitas vezes se baseia em critérios outros que não a qualidade do curso em questão: [...] avaliação externa é vista por muitos cursos e pelas IESs como uma potencial ameaça, e embora ela tenha agido com alguma cautela até hoje, a sua existência foi um fator de inibição de cursos, muitas instituições terminaram seus cursos ou já nem sequer propuseram sua avaliação. E não apenas por uma questão de qualidade, mas muitas vezes por questões como o número de doutores, outras vezes por questões que envolvem a empregabilidade, que é um movimento que se fala cada vez mais. E é um movimento que eu penso que é claramente um fator de regulação pelo mercado. (E1) Os entrevistados manifestaram sua preocupação em relação a outros aspectos. O aumento das atividades administrativas frente às pedagógicas foi um destes: Começou por ter um impacto do ponto de vista administrativo, no desenvolvimento de gabinetes específicos de qualidade, além dos docentes despenderem grande parte do seu tempo na administração, em tarefas de cariz administrativo: no preenchimento de protocolos e instrumentos. Penso que isto foi diferente nas instituições. (E3) Um efeito negativo que não será devastador, mas é poderoso, é o acréscimo de atividades de administração, de atividades burocráticas que foram implícitas e que de facto retiram aos professores e investigadores uma boa parte do seu tempo: preparar um processo de acreditação é uma tarefa, não digo a tempo inteiro, mas por parte dos diretores, toma um tempo considerável. Este é outro efeito colateral. (E2) Além disto, possíveis mudanças nas práticas pedagógicas foram citadas: [...] mas estamos a induzir uma nova pedagogia científica racionalizadora com um conjunto a priori e que depois a prática da disciplina deve se adaptar e não ao contrário. Somos nós que temos que nos adaptar à gestão da disciplina. (E1) [...] um excessivo controlo do processo, quer de conteúdos, quer de metodologias e aquela tendência que já comentei sobre a autoavaliação de se privilegiar mais o processo administrativo que o ensino-aprendizagem e põe em causa, às 82 vezes, certa autonomia do trabalho do professor, uma vez que temos que colocar todos os conteúdos, as formas como os damos e isso depois será avaliado. (E3) Nunca se viu a avaliação externa adaptar-se à prática pedagógica e sim o contrário. Até que ponto isto está a sobredeterminar nossa prática? (E1) Outro aspecto apontado foi o perigo das instituições criarem representações de si mesmas para efeito do processo de acreditação. Este fenômeno, denominado por Ball de fabricação, é por ele assim descrito: As fabricações que organizações (e indivíduos) produzem são seleções dentre várias possíveis representações – ou versões – da organização ou da pessoa. Organizações complexas como escolas e universidades são diversas e multifacetadas, ainda que sejam, às vezes, sobremaneira contestadas e, frequentemente, contraditórias. Claramente, determinados grupos ou indivíduos serão capazes de privilegiar representações particulares. Entretanto, essas seleções e escolhas não são feitas dentro de um vácuo político. Elas são derivadas das prioridades, dos limites e dos climas preparados pelo ambiente das políticas. (BALL, 2010, p.44) Tais representações, nas quais “a veracidade não é a questão; o que importa é a efetividade das fabricações no mercado ou para a inspeção” (BALL, 2010, p.44), aparecem em duas entrevistas: Na medida em que as instituições públicas dependem em grande parte do financiamento público, embora muitas delas já tenham formas de criar seu próprio rendimento [...] as instituições, através de suas instâncias pedagógicas e científicas, começaram a “posar” para a avaliação, para o processo de acreditação, e digamos, a cantar de acordo com a melodia que está sendo disseminada, esta nova gramática. (E2) Uma das coisas típicas desta avaliação, por ser baseada em resultados, é isto: as pessoas defenderem-se. Muitas vezes há o discurso oficial, o pro forma, e uma prática interna diferente, que é escondida do exterior. No limite, pode haver o discurso para o exterior de que nesta instituição há colaboração, uma articulação entre as diferentes unidades, mas pode haver a prática escondida. (E4) É interessante notar que no caso brasileiro, o Sinaes e mais especificamente o Enade, que por meio das portarias que regulam os conteúdos que serão abordados no exame, e dos índices derivados deste exame, parece ter mais efetividade que o sistema português em dois dos aspectos mencionados pelos pesquisadores portugueses: a 83 mudança na prática pedagógica docente e as fabricações. Com relação ao primeiro aspecto, as IESs brasileiras têm se valido de várias estratégias para aumentar o desempenho dos seus estudantes frente ao Enade: seminários, simulados e até seleção de concluintes56 para participar do exame. No segundo caso, a construção dos índices derivados do exame: a nota Enade, a nota IDD, o CPC e o IGC, e seu refinamento computacional, apontam para a fabricação57. Deve-se novamente frisar que estes índices não só têm consequências para os cursos de graduação em seus processos de renovação, mas incidem sobre a autonomia das universidades em propor novos cursos de graduação, já que o IGC é utilizado como índice regulador para tal. Conclui-se destas entrevistas que as principais preocupações derivadas da atuação da A3ES no Ensino Superior em Portugal já se encontram algum tempo efetivadas no sistema de regulação brasileiro, a maior parte delas derivada da aplicação do exame de desempenho aos estudantes e outra parte advinda do modo de operação da avaliação externa. Neste segundo movimento da pesquisa, investigou-se o processo de avaliação do ensino superior português, no qual o exame de desempenho é ausente. As conclusões advindas da comparação entre o sistema português e o Sinaes foram: A avaliação externa do sistema português, análoga a ACG brasileira, é central no processo de regulação, ambas com características mais similares do que distintas, com destaque a distância entre avaliado e avaliador, que permite uma suposta neutralidade do juízo de valor sobre o curso ou a IES avaliada. A maior diferença da avaliação externa do sistema português consiste na presença de uma avaliação interna de curso, prévia a avaliação in loco, processo inexistente no sistema brasileiro. O Sinaes dispõe de uma autoavaliação institucional, que não ocorre no sistema português. No entanto, em Portugal está em desenvolvimento um processo de auditoria de sistemas internos de garantia de qualidade do ensino superior, inexistente no Brasil. 56 A seleção de estudantes promovida pela Universidade Paulista - UNIP foi motivo de matéria jornalística em 2012. Ver http://educacao.estadao.com.br/noticias/geral,unip-e-acusada-de-turbinarnotas-do-enade-e-mec-cobra-explicacoes,843262. 57 Conforme discutido anteriormente (ver páginas 36 a 38) 84 Os sistemas compartilham características técnico-instrumentais: a adoção de indicadores mensuráveis e critérios mínimos, que permitem a comparabilidade dos cursos e das IES. Em ambos os processos regulatórios há consequências na administração acadêmica e distribuição de recursos financeiros. Em ambos os sistemas foi estabelecido um processo de autoavaliação. No entanto ou este processo está subordinado a avaliação externa (o caso português) ou não é considerado nos resultados do sistema (o caso brasileiro). A percepção dos pesquisadores portugueses em relação aos sistemas corroboram as conclusões da comparação realizada, destacando-se o conceito de qualidade associado à mensuração, produtividade, comparabilidade e diferenciação competitiva. O processo de autoavaliação foi considerado muito importante para a avaliação, mas reduzido ou inexistente no contexto atual português, devido a sua subordinação a avaliação externa. A existência de um exame de desempenho no sistema de avaliação foi considerada imprópria, devido a sua natureza reducional do processo educativo. As principais consequências do processo de regulação apontadas foram a autorregulação no oferecimento de novos cursos, o aumento das atividades administrativas na IES e o risco de representações de si mesmas para a avaliação externa. O terceiro movimento dedica-se a examinar os resultados de um triênio do Enade a fim de avaliar o quão justificável é seu papel central no sistema. 85 3. TERCEIRO MOVIMENTO - CARACTERIZAÇÃO DA ESTRUTURA DAS RELAÇÕES ENTRE OS INDICADORES DO ENADE 2008-2010 Nos dois primeiros movimentos examinou-se o Sinaes interna e externamente, por meio da análise de suas modalidades e da comparação do sistema com outro sistema de avaliação no qual o exame de desempenho inexiste. Esta diferença fundamental do Sinaes é aqui examinada neste terceiro movimento, no qual se procurou responder o quão justificável é o papel central do Enade no Sinaes e quão generalizável é o seu principal índice, o Conceito Preliminar de Curso – CPC, como indicador de qualidade dos cursos de graduação. Para tanto foram investigadas as relações entre os indicadores presentes na composição do CPC no triênio 2008-2010 para as diversas áreas abrangidas pelo exame. Inicia-se com uma caracterização sumária do exame, na qual se descrevem o referencial e a metodologia adotada na pesquisa das relações para então caracterizá-las. Ao final são realizadas sínteses acerca da estrutura de relações estabelecida para os índices de desempenho estudados. 3.1 O Exame Nacional de Desempenho dos Estudantes O Enade58 consiste em um exame dividido em duas provas: Formação Geral e Componente Específico, além de um questionário socioeconômico de 54 questões que o estudante responde on-line antes de realizar a prova. A prova de formação geral consiste em dez questões, oito de múltipla escolha, com 60% do peso da prova e duas dissertativas, com 40% do peso da prova. A prova do componente específico contém 30 questões, 27 de múltipla escolha, que compõem 85% do peso da prova e as três últimas questões dissertativas, com 15% do peso da prova. O desempenho dos estudantes, tanto ingressantes 59 quanto concluintes, chamado “nota Enade” ou “Enade contínuo”, é calculado com base nestas duas provas, com peso de 75% para a prova de componente específico e 25% para a de formação geral. 58 A descrição aqui realizada refere-se à forma como o exame era realizado e os índices eram construídos até 2010. 59 A partir de 2011 a nota dos ingressantes não foi mais computada. 86 A partir da nota final calculada 60 , constrói-se, para cada curso das áreas que foram avaliadas no exame, outro indicador: O IDD – indicador de diferença entre o desempenho esperado e o observado. Este é construído a partir de uma equação linear que tem como variáveis: a nota do Enade, a proporção de estudantes ingressantes cujo pai e/ou a mãe tem nível superior de escolaridade, a razão entre o número de concluintes e o número de ingressantes, a proporção de docentes com título mínimo de doutor, proporção de docentes com título mínimo de mestre, a proporção de docentes com regime de trabalho integral ou parcial, a proporção de alunos que avaliaram positivamente um aspecto da infraestrutura do curso e a proporção de alunos que avaliaram positivamente um aspecto da organização didático-pedagógica do curso. Tanto o Enade contínuo quanto o IDD contínuo são convertidos em faixas que variam de 1 a 5, os chamados conceito Enade e IDD. Os dois índices contínuos são utilizados para construção do Conceito Preliminar do Curso – CPC. Este é calculado a partir da seguinte fórmula61: CPC = (0,20 ∗ NPD) + (0,05 ∗ NPM) + (0,05 ∗ NPR) + (0,05 ∗ NI) + (0,05 ∗ NO) + (0,30 ∗ NIDD) + (0,15 ∗ NIng) + (0,15 ∗ NConc) Os insumos utilizados para o cálculo são: NPD, NPM e NPR62 se referem aos percentuais de doutores, mestres e docentes em regime de tempo integral ou parcial, provenientes do Censo da Educação Superior. As notas referentes à infraestrutura (NF) e organização didático-pedagógica são obtidas no questionário socioeconômico preenchido pelo estudante que presta o Enade. O percentual de respostas satisfatórias na pergunta referente à infraestrutura, padronizada (NI). A pergunta do questionário do Enade63 sobre infraestrutura utilizada é 60 A partir de 2008 somente a nota dos concluintes foi utilizada para calcular o Enade contínuo. Com algumas modificações na notação das variáveis para melhor compreensão do leitor. 62 As três notas referem-se a notas padronizadas por meio de uma transformação estatística conhecida como normal reduzida, realizada a partir dos percentuais encontrados para cada IES em relação às médias e desvios-padrões de todos os cursos do Brasil para uma dada área. 63 Transcreve-se aqui literalmente o que prescrevia a nota técnica do Inep que tratava do CPC referente ao Enade 2008. Essa mesma transcrição foi realizada para o indicador relativo aos planos de ensino. Notar que para o resultado do Enade de 2011 o cálculo das notas destes dois indicadores foi modificado, passando-se a utilizar pesos para cada alternativa de cada uma das questões. 61 87 a seguinte: “Aulas práticas: os equipamentos disponíveis são suficientes para todos os alunos?”64 O percentual de respostas satisfatórias na pergunta referente aos planos de ensino, padronizada (NO). A pergunta do questionário do Enade sobre a organização didático-pedagógica utilizada é a seguinte: “Os planos de ensino contêm todos os seguintes aspectos: objetivos; procedimentos de ensino e avaliação; conteúdos e bibliografia da disciplina?” 65 . A partir desta pergunta, considerou-se como tendo avaliado positivamente a organização didático-pedagógica os alunos que responderam que todos os planos de ensino contêm esses aspectos. Os demais insumos são aqueles derivados do Enade, já mencionados anteriormente: NIDD, o IDD contínuo; NIng, a nota dos ingressantes e NConc, a nota dos concluintes, também padronizados como as demais variáveis. A construção destes índices é detalhada nas notas técnicas conceito Enade 2010 e CPC 2010 que se encontram nos anexos A e B. A fórmula do CPC expõe a lógica de sua construção: o conceito de um curso deriva em parte da qualidade do seu corpo docente (30% da nota), aqui expressa pelos percentuais de mestres e doutores e pelo regime de trabalho em tempo parcial e integral, relativizados em desvios da média derivados da transformação normal, pela opinião dos estudantes que responderam ao questionário socioeconômico do Enade (10% da nota), duas das 54 questões do formulário, e majoritariamente do desempenho expresso pelos Enade e IDD contínuos (60% da nota). Observa-se a heterogeneidade das variáveis que compõem o CPC como seus insumos: as primeiras delas consistem em dados objetivos informados pela própria IES. Contrário a isto, NI e NO advêm da opinião dos estudantes em relação a somente duas questões do questionário, que pretendem dar indicação acerca da qualidade da infraestrutura e da organização didático pedagógica do curso. Em síntese: O CPC, que consiste hoje no principal índice da “qualidade” de um curso utilizado para a regulação da Educação Superior brasileira, “revela” esta “qualidade” por meio de suas duas 64 As alternativas de resposta são: (A) = Sim, em todas elas. / (B) = Sim, na maior parte delas. / (C) = Sim, mas apenas na metade delas. / (D) = Sim, mas em menos da metade delas. / (E) = Não, em nenhuma. A partir desta pergunta, considerou-se como tendo avaliado positivamente a infraestrutura os alunos que responderam (A) ou (B). 65 A) = Sim, todos contêm. / (B) = Sim, a maior parte contém. / (C) = Sim, mas apenas cerca da metade contém. / (D) = Sim, mas apenas menos da metade contém. / (E) = Não, nenhum contém. 88 “pontas”, quais sejam, a entrada: qualificação docente (NPM e NPD), regime docente (NR), infraestrutura (NI) e organização didático-pedagógica (NO) do curso; e a saída: desempenho discente aferido por meio do seu desempenho em dois momentos (NIng e NConc) e pela diferença de desempenho agregada (NIDD). Note-se que o conceito exposto nesta equação, que é utilizada de forma geral por todas as áreas avaliadas pelo Enade, em todo o território nacional, traduz uma relação única estabelecida entre a “entrada” e a “saída”. O CPC parte da afirmação de que podemos aferir a qualidade de um curso por meio destas variáveis, pois elas constituem variáveis mensuráveis do processo de formação do estudante, de tal forma que outras variáveis não produzem modificação suficiente do produto (o desempenho) para que mascarem o efeito das primeiras. E mais, este processo de entrada e saída tem similaridade nas áreas avaliadas, independente, ou pelo menos, com pouca influência, de fatores como o contexto regional em que a IES está inserida, sua forma de organização e sua relação com a geração dos recursos necessários para sua existência. Estas premissas são o objeto de estudo da caracterização a seguir realizada. 3.2 O referencial metodológico A metodologia utilizada se apoiou na ideia de que a avaliação da qualidade de ensino de uma instituição deve se pautar na articulação entre os pressupostos epistemológicos que a fundamentam, o exame de indicadores que expressam esta qualidade e as interrelações subjetivas que a caracterizam. Considera-se necessária a utilização de medidas, desde que estas não sejam o final do processo avaliativo, pois, como aponta Dias Sobrinho, “não basta, portanto, apenas conhecer a estrutura aparente e enumerar os produtos de uma instituição” (DIAS SOBRINHO, 2000, p. 95). É necessário que se faça uma avaliação qualitativa dos resultados provindos dos indicadores quantitativos, para que se possa conhecer a complexidade de relações pelas quais tais indicadores somente revelam recortes, ou “pontas de icebergs” da verdadeira estrutura institucional. Quanto ao conjunto de dados utilizado para a pesquisa, de acordo com o exposto em Laville e Dione (1999), uma pesquisa pode ser classificada como “pesquisa com dados existentes” quando utiliza como fonte de dados informações já publicadas. 89 Considerando-se um dos objetivos desta pesquisa o de examinar relações entre variáveis quantitativas, o estudo pode ser identificado como um survey interseccional, assim definido: Num survey interseccional , dados são colhidos, num certo momento, de uma amostra selecionada para descrever alguma população maior na mesma ocasião. Tal survey pode ser usado não só para descrever, mas também para determinar relações entre variáveis na época do estudo. (BABBIE, 1999, p.101) A pesquisa também foi considerada como uma pesquisa de abordagem mista de dupla fase, de cunho incorporado qualitativo (CRESWELL, 2010), tendo em vista que o processo inicia-se um uma primeira fase com a análise de indicadores quantitativos, por meio de técnicas apropriadas a esta, e amplia-se para um âmbito qualitativo, com juízos de valor sobre a estrutura quantitativa estabelecida na primeira fase. 3.3 Delineamento da investigação O universo da pesquisa foi delimitado com base nos resultados publicados pelo Instituto Nacional de Pesquisa e Estudos Educacionais Anísio Teixeira (Inep) referente ao Enade para as IESs brasileiras, constantes nas planilhas de conceito preliminar dos cursos (CPC) denominadas “CPC decomposto”. O universo foi delimitado pelo triênio 2008-2010, com o intuito de possibilitar a análise de todas as áreas submetidas ao exame, tendo em vista a natureza trienal do Enade. A escolha de 2010 como o ano final deveu-se à modificação do cálculo do IDD a partir de 2011, quando o desempenho dos estudantes ingressantes no ENEM, e não no Enade, foi utilizado para a construção do índice. Assim o mesmo modelo de cálculo foi mantido para o ciclo trienal. Procurou-se utilizar a mesma notação das notas técnicas publicadas pelo Inep 66 . As variáveis coletadas na planilha foram os insumos: 66 Nota de Professores Doutores (ND) Nota de Professores Mestres (NM) Nota de Professores com Regime de Dedicação Integral ou Parcial (NR) Nota referente à Infraestrutura (NI) Nota referente à Organização Didático-Pedagógica (NO) Conforme as notas técnicas presentes nos anexos A e B, com algumas modificações na notação das variáveis, disponíveis em http://portal.inep.gov.br/notas-tecnicas. 90 E os índices de desempenho: Nota do Enade ou Enade contínuo (NEnade) Nota do IDD ou IDD contínuo (NIDD) Como ocorreram modificações nas denominações das variáveis nos três anos de estudo, estas foram padronizadas. Como exemplo, em 2008 as IESs eram classificadas, segundo sua categoria administrativa, em federais, estaduais, municipais e privadas. A partir de 2009 a classificação foi reduzida para apenas públicas e privadas. Devido a isto os dados de 2008 foram recategorizados, de forma que apareceram em 2009 e 2010 distribuídos em instituições públicas e privadas. Esse procedimento de padronização foi feito sempre que necessário. Um segundo passo foi a retirada de registros de acordo com os seguintes critérios de exclusão: Registros que não contivessem valores para todas as variáveis de estudo. Assim foram eliminados registros sem CPC, registros que constassem “sem conceito” e insumos com valores em branco. Alguns registros apresentavam CPC, mas continham um campo branco em algum insumo. Tais registros também foram eliminados. Registros com nota zero nas variáveis NI e NO. Como o cálculo demonstrado na Nota Técnica considera nota zero caso nenhum estudante tenha respondido ao questionário socioeconômico 67 , tais notas zero podem corresponder a duas categorias de resposta: alunos que não responderam e alunos que efetivamente atribuíram valor correspondente a zero na questão do questionário. Por isso optou-se pela eliminação dos registros que contivessem esse dado ambíguo. No exame das variáveis não foram observadas as subáreas e por isso os resultados apresentados referem-se somente às áreas. Por exemplo, a área de Comunicação Social foi tratada como uma só, e não foram consideradas suas subáreas, tais como Jornalismo, Publicidade e Propaganda, etc. 67 De acordo com a nota “caso nenhum aluno tenha respondido ao questionário socioeconômico, o curso terá a nota referente à infraestrutura (NF) computada como 0 (zero) para o cálculo do CPC.” O tratamento é idêntico para a nota referente à organização didático-pedagógica (NO). 91 Das 71 áreas constantes nos três anos avaliados, optou-se por desconsiderar aquelas em que o número de cursos avaliados em todo o Brasil fosse igual ou inferior a 3068 (DEVORE, 2012, p. 210), visto que os dados se referiam a uma amostra dos cursos brasileiros, pois nem todos são avaliados e os métodos de análise foram baseados na suposição de distribuição normal. As áreas e respectivo número de cursos são mostrados no Apêndice B. Com o critério de exclusão foram mantidas 55 das 71 áreas para a análise de dados. No modelo de análise, as variáveis insumos: ND, NM, NR, NI e NO foram consideradas variáveis independentes, e NEnade e NIDD variáveis dependentes. Previamente à escolha do método analítico, procedeu-se à averiguação da normalidade69 da distribuição das variáveis dependentes, para cada uma das 55 áreas avaliadas. Os dados foram considerados normais e os resultados estão apresentados no Apêndice C. A relação entre os insumos (variáveis independentes) e desempenho (variáveis dependentes) foi examinada por meio de regressão linear múltipla (HAIR, 2005, p. 131), com a realização de duas análises: uma entre os insumos e o Enade contínuo e outra para o IDD contínuo. Esta técnica tem como fundamento o exame de correlações lineares entre os dois tipos de variáveis. A correlação é positiva quando o sentido da variação da variável independente é o mesmo sentido da variação da variável dependente. Exemplo: à medida que o percentual de doutores aumenta, aumenta o desempenho dos estudantes. A correlação é negativa quando os sentidos da variação são distintos. Exemplo: à medida que o percentual de mestres aumenta, diminui o desempenho dos estudantes. O exame destas correlações verifica sua significância, ou seja, a probabilidade de que a relação encontrada tenha sido obtida ao acaso. Para a análise foi adotado o nível de significância de 0,05, ou 5%. Probabilidades menores que o nível de significância indicam relação significativa. O modelo é considerado múltiplo dado que possui mais de uma variável independente, como mostrado no esquema da Figura 1. O esquema mostra o sentido da relação: da variável independente, considerada como uma possível “causa” para a variável dependente, o possível “efeito”. O exame da significância das 68 De acordo com a teoria das grandes amostras, considerou-se mais apropriada a análise com grandes amostras, igual ou maior que 30, devido à impossibilidade do conhecimento da normalidade da distribuição dos dados populacionais. 69 Esta análise foi feita exclusivamente para completude do método, visto os dados serem tratados previamente pelo Inep. 92 correlações permite inferir quais das variáveis independentes estão mais relacionadas com a variável dependente, e por isso, com maior influência sobre esta. Figura 1 – Modelo regressivo múltiplo entre os insumos e desempenho. NI NM NO NEnade ND NR Notas: ND: Nota de Professores Doutores; NM: Nota de Professores Mestres; NR: Nota de Professores com Regime de Dedicação Integral ou Parcial; NI: Nota referente à Infraestrutura; NO: Nota referente à Organização Didático-Pedagógica. O mesmo modelo é valido para NIDD (nota do indicador de diferença entre desempenho esperado e observado). Fonte: o autor Além disso, a técnica permite o exame de multicolinearidades, ou seja, correlações significativas entre variáveis independentes (Figura 2). Tal fato pode caracterizar confusão na análise dos dados: caso uma variável independente esteja correlacionada com outra, não se saberá a qual variável independente é devido o efeito sobre a variável dependente. Para eliminar esse efeito indesejável, a técnica de regressão examina as colinearidades e retira este efeito. Desta forma, o efeito de cada variável 93 independente sobre a dependente pode ser examinado de forma isolada, ou efeito único. No exame das correlações, este efeito único pode ser demonstrado por meio da correlação semiparcial, ou seja, aquela correlação dada somente pela relação exclusiva de um insumo sobre o desempenho avaliado. Figura 2 – Modelo regressivo múltiplo indicando a multicolinearidade, as relações significativas entre os insumos. NI NM Enade IDD NO ND NR Notas: ND: Nota de Professores Doutores; NM: Nota de Professores Mestres; NR: Nota de Professores com Regime de Dedicação Integral ou Parcial; NI: Nota referente à Infraestrutura; NO: Nota referente à Organização Didático-Pedagógica. O mesmo modelo é válido para NIDD (nota do indicador de diferença entre desempenho esperado e observado). Fonte: o autor A elaboração dos modelos regressivos foi precedida pela observação de diferenças em três estratos: a região federativa, a organização acadêmica e a categoria administrativa. A codificação das regiões federativas obedeceu às siglas utilizadas pelo 94 Instituto Brasileiro de Geografia e Estatística – IBGE: Norte – N; Nordeste – NE, Centro-Oeste – CO; Sudeste – SE e Sul – S. A combinação entre organização acadêmica (Centro Federal de Educação Tecnológica, Universidade, Centro Universitário, Faculdade, Faculdades Integradas, Instituto Superior ou Escola Superior e Faculdade de Tecnologia) e categoria administrativa (Pública ou Privada) foi necessária, tendo em vista que nem todos os quatorze pares potenciais advindos da combinação entre estas duas variáveis existem no Brasil ou, no mínimo, não existiram no país neste ciclo do Enade, como, por exemplo, Centro Tecnológico Privado ou Faculdade Integrada Pública. A combinação gerou dez pares, assim codificados: UniPu – Universidade Pública CeTPu – Centro Tecnológico Público UniPr – Universidade Privada CeUPr – Centro Universitário Privado CeUPu – Centro Universitário Público FacPu – Faculdade Pública FacPr – Faculdade Privada FaIPr – Faculdade Integrada Privada InsPr – Instituto Superior ou Escola Superior Privada FaTPr – Faculdade de Tecnologia Privada A análise destes estratos foi possível por já estarem disponibilizados nas planilhas utilizadas como fonte de dados. A adição destas variáveis na análise se justifica pelo fato de que os indicadores de desempenho discente, Enade e IDD contínuos, possam variar de acordo com algum dos estratos mencionados, e neste caso a correlação significativa poderia ocorrer devido a esta diferença e não pela relação entre o insumo e o desempenho. Um exemplo: Universidades Públicas têm os maiores índices de doutores para uma determinada área, mas também têm os melhores desempenhos no Enade contínuo. Assim a correlação positiva entre ND (Nota de Doutores) e Enade pode ser devida ao estrato, não a ND. Temos aqui uma relação de determinação do tipo Organização/Categoria->ND->Enade. Quando isso ocorrer, a análise das relações deve ser feita para cada nível do estrato em separado e não para a amostra geral dos cursos da área. Os Gráficos 1 e 2 demonstram o exemplo citado. No Gráfico 1 observa-se o 95 desempenho dos estudantes da área de Engenharia do grupo VII 70 de acordo com a combinação entre organização acadêmica e categoria administrativa. Percebe-se que o desempenho (a nota Enade, ou NEnade) é significativamente maior71 nas Universidades Públicas (UniPu) do que nas demais combinações; o mesmo acontece com os Centros Universitários Tecnológicos Públicos (CeTPu). 70 Segue a discriminação dos grupos das engenharias: Grupo I: Engenharia Cartográfica, Engenharia Civil, Engenharia de Agrimensura, Engenharia de Recursos Hídricos e Engenharia Sanitária; II – Engenharia - Grupo II: Engenharia da Computação, Engenharia de Comunicações, Engenharia de Controle e Automação, Engenharia de Redes de Comunicação, Engenharia de Telecomunicações, Engenharia Elétrica, Engenharia Eletrônica, Engenharia Eletrotécnica, Engenharia Industrial Elétrica e Engenharia Mecatrônica;III - Engenharia - Grupo III: Engenharia Aeroespacial, Engenharia Aeronáutica, Engenharia Automotiva, Engenharia Industrial Mecânica, Engenharia Mecânica e Engenharia Naval; IV – Engenharia - Grupo IV: Engenharia Bioquímica, Engenharia de Alimentos, Engenharia de Biotecnologia, Engenharia Industrial Química, Engenharia Química e Engenharia Têxtil;V – Engenharia - Grupo V: Engenharia de Materiais e suas ênfases e/ou habilitações, Engenharia Física, Engenharia Metalúrgica e Engenharia de Fundição;VI - Engenharia - Grupo VI: Engenharia de Produção e suas ênfases; VII - Engenharia - Grupo VII: Engenharia, Engenharia Ambiental, Engenharia de Minas, Engenharia de Petróleo e Engenharia Industrial Madeireira; III - Engenharia - Grupo VIII: Engenharia Agrícola, Engenharia Florestal e Engenharia de Pesca. 71 Para esta conclusão a técnica de Análise de Variância é aplicada aos dados, como forma de determinar a significância da diferença. Caso a probabilidade resultante do teste seja menor que o nível de significância (0.05), a diferença entre os estratos não pode ser atribuída ao acaso. No caso p=0,0203 e, portanto, significativa. 96 Gráfico 1 – Média (linha central), erro-padrão (caixa) e intervalo de confiança (extremos) da nota Enade (NEnade) da área de Engenharia do grupo VII de acordo com a combinação entre Organização Acadêmica e Categoria Administrativa das IESs brasileiras 3,2 3,0 NEnade 2,8 2,6 2,4 2,2 2,0 1,8 UniPu UniPr CeUPu FacPu FacPr CeUPr FaIPr CeTPu InsPr FaTPr Combinação Organização Acadêmica e Categoria Administrativa Nota: UniPu - Universidade Pública; UniPr – Universidade Privada; CeUPu - Centro Universitário Público; FacPu - Faculdade Pública; FacPr - Faculdade Privada; CeUPr - Centro Universitário Privado; FaIPr Faculdade Integrada Privada; CeTPu - Centro Tecnológico Público; InsPr - Instituto Superior Privado. Fonte: o autor Para que este resultado não afete o exame das relações entre a nota de Doutores e a nota Enade, o ideal é que em todos os estratos, inclusive nas Universidades Públicas, tenhamos uma razoável variação na nota dos Doutores. No entanto, ao observarmos a relação da nota de Doutores e a nota Enade, mostrada no Gráfico 2, percebe-se que tal variação não ocorreu. Neste observa-se que os cursos das Universidades Públicas para a área de Engenharia do grupo VII estão mais concentrados na área sinalizada: maior nota de Doutores e maior nota do Enade. Devido a isso não podemos inferir que o maior desempenho é devido a maior nota de Doutores ou ao fato de que os cursos são de Universidades Públicas. Neste último caso, vários outros fatores relacionados às Universidades Públicas poderiam influenciar o desempenho e não somente a nota dos Doutores. Nestes casos a análise foi feita dentro de cada estrato, ou seja, uma análise 97 para cada combinação de organização acadêmica e categoria administrativa. A mesma regra foi adotada para o estrato das regiões federativas. Gráfico 2 – Correlação positiva entre a nota de Doutores (ND) e desempenho no Enade (NEnade) na área de Engenharia do grupo VII. 6 UniPu 5 UniPu UniPu UniPu 4 UniPu UniPu UniPu UniPu NEnade UniPu UniPu UniPu 3 UniPu UniPu UniPu UniPu UniPu UniPu 2 UniPu UniPu UniPu UniPu 1 UniPu 0 -1 -1 0 1 2 3 4 5 6 ND Nota: os rótulos relativos às demais combinações entre organização acadêmica e categoria administrativa foram omitidos para melhor visualização. UniPu: Universidades Públicas. A reta vermelha refere-se ao ajuste linear da correlação simples, conforme descrito no decorrer do texto. Fonte: o autor A descrição das estruturas foi realizada por meio de representações gráficas apropriadas, expressas nos gráficos 1 e 2; diagramas de caixa foram aplicados nos exames de diferenças de médias entre estratos e diagramas de dispersão para as relações entre insumos e desempenho. Nestes últimos foram demonstradas as relações lineares a partir da inserção de retas ajustadas da correlação linear72. Também foram empregados quadros e tabelas para sumarização dos resultados, de acordo com a norma tabular do Instituto Brasileiro de Geografia e Estatística (IBGE, 1993). Os aplicativos computacionais utilizados para a análise e descrição dos resultados foram o STATISTICA v. 8 (STATSOFT, 2008) e o Microsoft Excel 2007 (MICROSOFT, 2006). 72 Trata-se do coeficiente de correlação linear de Pearson, que mede a força de uma relação supostamente linear entre duas variáveis. Em todos os gráficos em que aparecem retas ajustadas é o coeficiente de Pearson que está sendo representado. 98 3.4 Caracterização das relações entre insumos e desempenho A Tabela 1 mostra os números totais de cursos avaliados que obtiveram notas Enade e IDD de acordo com a região para as duas variáveis de estudo, demonstrando a concentração de cursos nas regiões Sudeste e Sul, responsáveis por quase 70% dos cursos. Tal fato deve ser levado em consideração no exame das correlações entre os insumos e as variáveis Enade e IDD, pois é esperada frequência maior de correlações significativas em estratos com mais cursos avaliados. Entende-se que a técnica estatística baseada na distribuição normal dos dados é dependente do número de pontos que se tem para a avaliação. Assim, quanto mais cursos determinada área ou região federativa ou combinação entre organização e categoria possuir, maiores chances a técnica possui de detectar relações significativas. Tabela 1 - Número e percentual de cursos com notas Enade e IDD de acordo com a região federativa das 55 áreas avaliadas no estudo. Região Sudeste Sul Nordeste Centro-Oeste Norte Total Número de cursos Enade 5605 2529 1923 1194 698 11949 % 46,9 21,2 16,1 10,0 5,8 100,0 Número de cursos IDD 5164 2341 1780 1091 628 11004 % 46,9 21,3 16,2 9,9 5,7 100,0 Fonte: o autor A Tabela 2 sumariza os totais de cursos de acordo com a combinação entre organização acadêmica e categoria administrativa, ordenando decrescentemente de acordo com o percentual de cursos em cada estrato. Os primeiros três estratos detiveram quase 80% dos cursos avaliados no triênio, esperando-se assim maior frequência de correlações nestes estratos, conforme já exposto. Torna-se muito importante levar em conta que a técnica aplicada terá menos “poder” para encontrar relações significativas em estratos com poucos cursos, como as Faculdades Tecnológicas Privadas (FaTPr) da Tabela 2. 99 Tabela 2 – Número e percentual de cursos com notas Enade e IDD de acordo com a combinação entre organização acadêmica e categoria administrativa das 55 áreas avaliadas no estudo. Combinação FacPr UniPr UniPu CeUPr FaIPr FacPu InsPr CeTPu CeUPu FaTPr Total Número de cursos Enade 3806 3143 2577 1622 245 211 175 72 52 46 11949 % 31,9 26,3 21,6 13,6 2,1 1,8 1,5 0,6 0,4 0,4 100,0 Número de cursos IDD 3415 2855 2463 1487 245 200 174 72 47 46 11004 % 31,0 25,9 22,4 13,5 2,2 1,8 1,6 0,7 0,4 0,4 100,0 Nota: as siglas que aparecem na coluna indicadora são, na ordem, FacPr: Faculdade Privada; UniPr: Universidade Privada; UniPu: Universidade Pública; CeUPr: Centro Universitário Privado; FaIPr: Faculdade Integrada Privada; FacPu: Faculdade Pública; InsPr: Instituto Superior Privado; CeTPu: Centro Tecnológico Público; CeUPu: Centro Universitário Público; FaTPr: Faculdade Tecnológica Privada. Fonte: o autor A seguir são caracterizadas as relações encontradas para cada uma das duas variáveis dependentes do estudo, Enade contínuo e IDD contínuo. 3.4.1 Enade contínuo (nota Enade) A análise das diferenças do desempenho entre as áreas de acordo com o estrato resultou em quatro grupos: diferenças entre as regiões, diferenças entre as combinações de organização e categoria, diferenças em ambos os estratos e áreas sem diferenças nos estratos. Para o Enade contínuo as 55 áreas foram agrupadas da seguinte forma: Grupo I – seis áreas apresentaram diferenças significativas entre as regiões federativas: Ciências Econômicas, Filosofia, Física, Geografia, Secretariado e Zootecnia. Grupo II – 17 áreas apresentaram diferenças significativas entre as combinações de organização e categoria: Agronomia, Biomedicina, Educação Física, Enfermagem, Engenharia do grupo III, Engenharia do grupo VI, Engenharia do grupo VII, Farmácia, Fisioterapia, Medicina Veterinária, Nutrição, Química, Relações Internacionais, Serviço 100 Social, Tecnologia em Automação Industrial, Tecnologia em Gastronomia e Tecnologia em Redes de Computadores. Grupo III – 23 áreas apresentaram diferenças significativas entre ambos os estratos: Administração, Arquitetura, Biologia, Ciências Contábeis, Computação e Informática, Comunicação Social, Design, Direito, Engenharia do grupo I, Engenharia do grupo II, Engenharia do grupo IV, Fonoaudiologia, História, Letras, Matemática, Medicina, Odontologia, Pedagogia, Psicologia, Tecnologia em Análise e Desenvolvimento de Sistemas, Tecnologia em Gestão Ambiental, Tecnologia em Radiologia e Turismo. Grupo IV – nove áreas não apresentaram diferenças significativas nos dois estratos: Ciências Sociais, Engenharia do grupo VIII, Música, Teatro, Tecnologia em Gestão de Processos Gerenciais, Tecnologia em Gestão de Recursos Humanos, Tecnologia em Gestão Financeira, Tecnologia em Marketing e Tecnologia em Moda. As relações entre os insumos e o Enade contínuo (NEnade) foram obtidas de acordo com o grupo formado, isto é, áreas que apresentaram diferenças significativas entre as regiões foram analisadas considerando-se cada região em separado e da mesma forma para os demais grupos. Tendo em vista o grande número de áreas avaliadas, os resultados gráficos apresentados a seguir consideraram áreas “tipo”, ou seja, aquelas que apresentaram maiores correlações para determinado insumo analisado. As demais áreas estarão referidas no texto. Para a escolha das áreas “tipo” foi examinada a colinearidade entre as variáveis independentes, e selecionadas aquelas áreas com as maiores correlações semiparciais. Uma análise geral dos resultados obtidos identificou os insumos com maior frequência de relações significativas. O insumo que apresentou maior frequência de correlações semiparciais entre as áreas foi a nota da Infraestrutura (28 das 55 áreas avaliadas), seguido pela nota dos Doutores (26 áreas), nota da Organização DidáticoPedagógica (23 áreas), nota do Regime de Trabalho (22 áreas) e nota de Mestres com 20 áreas. O resultado foi considerado coerente com o esperado, tendo em vista a colinearidade entre os insumos. As notas de Mestres, Doutores e Regime de Trabalho apresentam tendência de correlação positiva entre si, visto que as IESs com maior percentual de mestres e doutores são aquelas com os maiores percentuais de docentes em regime parcial e integral. Também são esperadas correlações positivas entre NI e NO, pois ambos provêm do questionário socioeconômico do Enade. 101 Grupo I: Ciências Econômicas, Filosofia, Física, Geografia, Secretariado e Zootecnia. Das seis áreas, os insumos que apresentaram correlações semiparciais significativas em mais áreas foram: a nota do Regime de Trabalho, com correlações em Ciências Econômicas, Geografia, Filosofia e Física e a nota de Doutores, com correlações em Ciências Econômicas, Geografia, Filosofia e Secretariado. A área de Ciências Econômicas apresentou o maior número de correlações significativas. A relação entre a nota do Regime de Trabalho e a nota Enade para esta área está mostrada no Gráfico 3. Os valores73 foram de 65,4% para a Região Centro-Oeste, 57,9% para a Região Norte, 45,7% para a Região Sul, 67,4% para a Região Sudeste e 58,4% para a Região Nordeste. As correlações se mantêm caso eliminemos as notas Enade (Enade contínuo) iguais a cinco (5). Este procedimento foi utilizado em outros resultados cujo número de valores iguais a zero (0) ou cinco (5) foi alto. Percebe-se no gráfico uma relação positiva mais forte na relação entre o insumo e o desempenho para a Região Centro-Oeste. No entanto, observadas as correlações semiparciais mantêm-se significativas aquelas para as regiões Nordeste e Sul, com, respectivamente, 38% e 37,6%. Este insumo também mostrou significância para a área de Geografia na Região Nordeste (38,7%), Física na Região Norte (-70,4%) e Filosofia (-39,7%) na Região Sudeste. 73 Como citado na metodologia, os valores referem-se às correlações lineares simples e não às correlações semiparciais obtidas da técnica de regressão múltipla. 102 Gráfico 3 – Correlações entre a nota do Regime de Trabalho (NR) e o Enade contínuo (NEnade) para a área de Ciências Econômicas de acordo com a região federativa. 5,5 5,0 4,5 4,0 NEnade 3,5 3,0 2,5 2,0 1,5 1,0 0,5 0,0 -1 0 1 2 3 4 5 6 Norte Nordeste Centro-Oeste Sudeste Sul NR Fonte: o autor No Gráfico 4, as correlações entre a nota de Doutores e nota Enade foram de 70% para o Sudeste, 61% para o Centro-Oeste, 57% para o Nordeste, e 46% para o Sul. A Região Norte não apresentou correlação significativa. O Sudeste é a única região que manteve significativa a correlação semiparcial (30,2%). O insumo ainda mostrou significância para as áreas de Geografia (-27,9% no Sudeste), Secretariado (66,1% no Centro-Oeste) e Filosofia (38,3% no Sudeste). 103 Gráfico 4 – Correlações entre a nota de Doutores (ND) e o Enade contínuo (NEnade) para a área de Ciências Econômicas de acordo com a região federativa. 5,5 5,0 4,5 4,0 NEnade 3,5 3,0 2,5 2,0 1,5 1,0 0,5 0,0 -1 0 1 2 3 4 5 6 Nordeste Centro-Oeste Sudeste Sul ND Fonte: o autor Dos demais insumos, Geografia apresentou correlações semiparciais para NO (44% no Centro-Oeste) e NM (25,8% no Sudeste). A área de Física para NI mostrou correlação na Região Nordeste (47,5%) e Norte (71,6%) e NO na Região Norte (46,7%). Filosofia apresentou correlações significativas com NM (-30,5%), além das já citadas e Secretariado Executivo com NO para a Região Sul (-46,4%). A área de Zootecnia não apresentou correlações semiparciais significativas em qualquer insumo. Em relação ao estrato, a Região Sudeste apresentou o maior número de correlações, sete, como esperado, tendo em vista que esta é a região com maior número de cursos nas áreas avaliadas (46,9% do total de cursos), seguida pela Região Nordeste (quatro), Norte (três) Centro-Oeste e Sul, cada uma com somente duas correlações significativas. Percebe-se que apesar da Região Sul ser a segunda em termos de número de cursos, com 21,2% dos cursos avaliados, não apresentou o número esperado da mesma forma que a Região Sudeste. 104 Os resultados demonstram que as relações entre os insumos e o desempenho variam de acordo com a área e com o estrato, não permitindo uma generalização para o universo de áreas avaliado pelo exame. No entanto, pode-se afirmar que as áreas que apresentaram diferenças no desempenho de acordo com a região federativa tiveram, em parte, maior frequência de relações entre as notas da Infraestrutura e Doutores. Grupo II: Agronomia, Biomedicina, Educação Física, Enfermagem, Engenharia do grupo III, Engenharia do grupo VI, Engenharia do grupo VII, Farmácia, Fisioterapia, Medicina Veterinária, Nutrição, Química, Relações Internacionais, Serviço Social, Tecnologia em Automação Industrial, Tecnologia em Gastronomia e Tecnologia em Redes de Computadores. Neste grupo, a nota da Infraestrutura apresentou correlações em nove das 17 áreas, seguida pela nota de Doutores (seis áreas), Regime de Trabalho (cinco) e Mestres e Organização Didático-Pedagógica com quatro áreas. A Infraestrutura também foi o insumo com mais correlações (onze) seguindo pelo Regime de Trabalho (oito), doutores (seis), Organização Didático-Pedagógica (cinco) e Mestres (quatro). A área de Enfermagem apresentou correlações em mais combinações entre categoria administrativa e organização acadêmica para o insumo Infraestrutura. O Gráfico 5 mostra os resultados das correlações para esta área. 105 Gráfico 5 – Correlações entre a nota da Infraestrutura (NI) e o Enade contínuo (NEnade) para a área de Enfermagem de acordo com a combinação entre organização acadêmica e categoria administrativa. . 5,5 5,0 4,5 4,0 NEnade 3,5 3,0 2,5 2,0 1,5 1,0 0,5 0,0 1,5 2,0 2,5 3,0 3,5 4,0 4,5 5,0 5,5 UniPr CeUPr FacPr NI Nota: UniPr: Universidade Privada; CeUPr: Centro Universitário Privado; FacPr: Faculdade Privada. Fonte: o autor As correlações foram de 37% para as Universidades Privadas (UniPr), 31% para as Faculdades Privadas (FacPr) e de 24% para os Centros Universitários Privados (CeUPr). Quando examinadas as correlações semiparciais, mantém-se a significância para as três combinações: Universidades Privadas (16,5%), Faculdades Privadas (22,2%) e Centros Universitários Privados (25,0%). Destacou-se também a área de Engenharia do grupo III, com correlações nas Universidades Públicas e Privadas de 52% e 40%, respectivamente, (Gráfico 6) e correlação semiparcial significativa para as primeiras (33,8%). 106 Gráfico 6 – Correlações entre a nota da Infraestrutura (NI) e o Enade contínuo (NEnade) para a área de Engenharia do grupo III de acordo com a combinação entre organização acadêmica e categoria administrativa. 5 4 NEnade 3 2 1 0 -1 -1 0 1 2 3 4 5 6 UniPu UniPr NI Nota: UniPu: Universidade Pública; UniPr: Universidade Privada. Fonte: o autor A nota da Infraestrutura ainda apresentou correlações nas áreas de Farmácia (22% nas Faculdades Privadas), Química (38,4% nas Universidades Privadas), Medicina Veterinária (30,9% em Universidades Públicas), Relações Internacionais (48,8% nos Centros Universitários Privados), Educação Física (30,1% nos Centros Universitários Privados) e Serviço Social (38,1% nas Universidades Privadas). Quanto à nota de Doutores, a maior parte das correlações significativas ocorreu nas Universidades, com: Nutrição (32,6%), Engenharia do grupo VI (54,3%) e Biomedicina (48,8%, negativa) nas Universidades Públicas e Engenharia do grupo VII (46,1%) nas Privadas. A área de Relações Internacionais mostrou correlação de -36,8% para os Centros Universitários Privados e Tecnologia em Gastronomia de -59,2% nas Faculdades Privadas. 107 A nota do Regime de Trabalho apresentou correlações significativas para áreas ligadas à Saúde, na organização acadêmica Universidade. Exceção feita à área de Farmácia, que apresentou correlação em três combinações, uma das quais com correlação negativa (29% para Faculdades Privadas), conforme pode ser visto no Gráfico 7. As demais áreas da Saúde foram Enfermagem (32,2% nas UniPr), Nutrição (36,2% nas Universidades Privadas), Educação Física (24,8% nas Universidades Privadas e 32,8% nos Centros Universitários Privados) e Biomedicina (50,8% nas Universidades Públicas). Gráfico 7 – Correlações entre a nota do Regime de Trabalho (NR) e o Enade contínuo (NEnade) para a área de Farmácia de acordo com a combinação entre organização acadêmica e categoria administrativa. 5,0 4,5 4,0 3,5 NEnade 3,0 2,5 2,0 1,5 1,0 0,5 0,0 -1 0 1 2 3 4 5 6 UniPu UniPr FacPr NR Nota: UniPu: Universidade Pública; UniPr: Universidade Privada; FacPr: Faculdade Privada. Fonte: o autor A nota da Organização Didático-Pedagógica apresentou a área de Educação Física com correlações semiparciais significativas entre as combinações (44,1% nas Universidades Públicas e 30,6% nas Universidades Privadas). O Gráfico 8 mostra as correlações de 31,8% para as Universidades Privadas e 43% para as Universidades Públicas. Nota-se neste gráfico o desempenho médio sempre superior das Universidades 108 Públicas frente às Privadas. No entanto, a relação entre nota de Doutores com este desempenho no Enade permanece similar 74 entre as duas combinações de categorias administrativas. Gráfico 8 – Correlações entre a nota da Organização Didático-Pedagógica e o Enade contínuo (NEnade) para a área de Educação Física de acordo com a combinação entre organização acadêmica e categoria administrativa. 5,0 4,5 4,0 3,5 NEnade 3,0 2,5 2,0 1,5 1,0 0,5 0,0 0,5 1,0 1,5 2,0 2,5 3,0 3,5 4,0 4,5 5,0 5,5 UniPu UniPr NO Nota: UniPu: Universidade Pública; UniPr: Universidade Privada. Fonte: o autor As demais áreas que apresentaram correlações significativas foram Nutrição (26,2% nas Universidades Públicas), Medicina Veterinária (49% nos Centros Universitários Privados) e Serviço Social (37,5% nas Faculdades Privadas). A nota de Mestres mostrou correlações significativas para a área de Nutrição (35,5% nas Faculdades Privadas), Engenharia do grupo III (-35,4% nas Universidades Públicas), Serviço Social (-27,8% nas Universidades Privadas) e Tecnologia em Gastronomia (54,5% nas Universidades Privadas). 74 O teste de homogeneidade de coeficientes angulares mostra que a diferença entre as inclinações de reta não é significativa (p=0,42). 109 Os resultados deste grupo II mostraram que nestas áreas em que o desempenho variou de acordo com a combinação entre a organização acadêmica e a categoria administrativa, a nota da Infraestrutura, a nota de Doutores e a nota do Regime de Trabalho foram os insumos que mais relações tiveram com o desempenho. Nota-se que os dois primeiros insumos citados também caracterizaram o grupo I; desta forma são aqueles com o maior número absoluto de correlações significativas nos dois grupos. No entanto, os resultados são dependentes da área: nestas deste grupo II, apesar da nota da Infraestrutura ser o insumo com mais correlações, observou-se que para a maior parte dos cursos ligados à grande área da Saúde, a nota do Regime de Trabalho foi o insumo que apresentou o maior número de correlações com o desempenho. Grupo III: Administração, Arquitetura, Biologia, Ciências Contábeis, Computação e Informática, Comunicação Social, Design, Direito, Engenharia do grupo I, Engenharia do grupo II, Engenharia do grupo IV, Fonoaudiologia, História, Letras, Matemática, Medicina, Odontologia, Pedagogia, Psicologia, Tecnologia em Análise e Desenvolvimento de Sistemas, Tecnologia em Gestão Ambiental, Tecnologia em Radiologia e Turismo. Neste grupo a nota da Organização Didático-Pedagógica foi o insumo com mais áreas que apresentaram correlações significativas: 16 das 23 áreas, e ainda com a maior frequência de correlações nos estratos (organização acadêmica, categoria administrativa e região federativa): 32 das 128 de todo o grupo. A nota de Doutores apresentou 15 áreas com 30 correlações. Em seguida apareceu a nota da Infraestrutura, com 15 áreas e 28 correlações, a nota de Mestres com 13 áreas e 20 correlações e, por último, a nota do Regime de Trabalho com 12 áreas e 18 correlações. Entre as áreas, destacaram-se aquelas que apresentaram o maior número absoluto de combinações: Administração, com correlações significativas em 13 combinações quando reunidos todos os insumos e ajustadas pelo exame das colinearidades, Ciências Contábeis (12), Computação e Informática (12), Pedagogia e Psicologia, cada qual com 11 correlações. Percebe-se que o maior número de cursos nestas áreas, como é o caso de Administração, Pedagogia e Ciências Contábeis, possibilitou a ocorrência de mais correlações significativas, porém, ponderando-se os números encontrados pelo número de cursos que foram avaliados em cada área, destacaram-se Psicologia, Odontologia e Turismo como os cursos com relativamente mais correlações significativas. O Gráfico 9 mostra as relações encontradas entre a nota da Organização Didático-Pedagógica e o Enade contínuo 110 (NEnade) para a área de Ciências Contábeis. As correlações foram de 54% para Universidades Públicas da Região Centro-Oeste; 81% para as Universidades Públicas da Região Sudeste, 61% Universidades Privadas do Sudeste, 46% Faculdades Privadas do Sudeste, 37% Faculdades Privadas do Centro-Oeste. Somente a correlação semiparcial das Universidades Públicas do Centro-Oeste não se manteve significativa. As demais foram de 27,1% nas Faculdades Privadas do Centro-Oeste, de 17% naquelas do Sudeste, 43,4% nas Universidades Privadas do Sudeste e 64,7% nas Universidades Públicas do Sudeste. Gráfico 9 – Correlações entre a nota da Organização Didático-Pedagógica (NO) e o Enade contínuo (NEnade) para a área de Ciências Contábeis de acordo com a combinação entre organização acadêmica e categoria administrativa e a região federativa. 5,5 5,0 4,5 4,0 NEnade 3,5 3,0 2,5 2,0 1,5 1,0 0,5 0 1 2 3 4 5 6 CO, UniPu CO, FacPr SE, UniPu SE, UniPr SE, FacPr NO Nota: UniPu: Universidade Pública; UniPr: Universidade Privada; FacPr: Faculdade Privada. CO: CentroOeste; SE: Sudeste. Fonte: o autor O Gráfico 10 mostra a nota da Organização Didático-Pedagógica para Engenharia do grupo II. As correlações foram de 61% para os Centros Universitários da Região Sudeste, 61% para as Universidades Privadas da Região Sul e 34% para as 111 Universidades da Região Sudeste. As correlações semiparciais mantiveram-se significativas: 39,1% para os Centros Universitários Privados do Sudeste, 31,5% para as Universidades Privadas e 32,5% para as Públicas da Região Sul. Gráfico 10 – Correlações entre a nota da Organização Didático-Pedagógica (NO) e o Enade contínuo (NEnade) para a área de Engenharia do grupo II de acordo com a combinação entre organização acadêmica e categoria administrativa e a região federativa. 6 5 4 NEnade 3 2 1 0 -1 -1 0 1 2 3 4 5 6 SE, UniPr SE, CeUPr S, UniPr NO Nota: UniPu: Universidade Pública; UniPr: Universidade Privada; CeUPr: Centro Universitário Privado. SE: Sudeste; S-Sul. Fonte: o autor O Gráfico 11 mostra as relações entre nota da Infraestrutura e Enade contínuo para a área de Direito: 54,0% nas Universidades Privadas do Sudeste e 79,0% nas do Centro-Oeste, 38,1% nas Faculdades Privadas do Sudeste, 33,0% nas do Nordeste, 39,6% nas do Sul e 57,1% nas do Centro-Oeste. Esta última e a correlação para as Universidades Privadas do Centro-Oeste e Faculdades Privadas do Nordeste não se mantiveram significativas. As demais correlações semiparciais foram de 31,2% nas Universidades Privadas do Sudeste e as demais para as Faculdades Privadas: 53,3% no Centro-Oeste, 28,3 no Sul e 21% no Sudeste. 112 Gráfico 11 – Correlações entre a nota da Infraestrutura (NI) e o Enade contínuo (NEnade) para a área de Direito de acordo com a combinação entre organização acadêmica e categoria administrativa e a região federativa. 5,0 4,5 4,0 3,5 NEnade 3,0 2,5 2,0 1,5 1,0 0,5 0,0 0,5 1,0 1,5 2,0 2,5 3,0 3,5 4,0 4,5 5,0 5,5 NE, FacPr CO, UniPr CO, FacPr SE, UniPr SE, FacPr S, FacPr NI Nota: UniPu: Universidade Publica; UniPr: Universidade Privada; FacPr: Faculdade Privada. CO: CentroOeste; SE: Sudeste. Fonte: o autor O Gráfico 12 mostra a relação entre nota de Doutores e o Enade contínuo para a área de Pedagogia, que apresentou correlações de 49,0% nas Universidades Públicas do Centro-Oeste, 44,3% nas do Norte e 43,9% nas do Nordeste; 33,6% nas Universidades Privadas do Sudeste, 25,9% nos Centros Universitários Privados do Sudeste e 24,0% nas Faculdades Privadas do Sudeste. Mantêm-se como correlações semiparciais para as Universidades Públicas do Norte (43,3%) e Nordeste (48,8%), nas Universidades Privadas do Sudeste (21,8%) e nos Centros Universitários Privados do Sudeste (28,1%). 113 Gráfico 12 – Correlações entre a nota de Doutores (ND) e o Enade contínuo (NEnade) para a área de Pedagogia de acordo com a combinação entre organização acadêmica e categoria administrativa e a região federativa. 5,5 5,0 4,5 4,0 NEnade 3,5 3,0 2,5 2,0 1,5 1,0 0,5 -1 0 1 2 3 4 5 6 N, UniPu NE, UniPu CO, UniPu SE, CeUPr SE, FacPr ND Nota: UniPu: Universidade Publica; CeUPr: Centro Universitário Privado; FacPr: Faculdade Privada. N: Norte; NE: Nordeste; CO: Centro-Oeste; SE: Sudeste. Fonte: o autor A nota de Mestres mostrou mais correlações semiparciais para as áreas de Psicologia (46,8% nas Faculdades Privadas do Sudeste, 5,6% nas Universidades Privadas do Centro-Oeste e -76,7% nas Universidades Públicas do Sudeste) e Computação e Informática (75,2% nos Centros Universitários Privados do Norte, 46,8% nas Universidades Públicas do Nordeste e -30.2% nas do Sudeste). A nota do Regime de Trabalho mostrou mais correlações para Ciências Contábeis: -65,7% nos Centros Universitários do Norte, -26,7% nas Universidades Privadas do Sul e 61,4% nas Universidades Públicas do Sudeste. O grupo III foi aquele que reuniu mais áreas: 23 das 55 avaliadas, mostrando que para estas áreas há diferenças na estrutura de relações entre insumos e desempenho tanto na região federativa, na organização acadêmica e na categoria administrativa. Neste grupo o insumo com maior frequência de correlações foi a nota da Organização 114 Didático-Pedagógica, seguido pelo insumo nota de Doutores, este último também presente nos grupos I e II como um dos mais frequentes. Grupo IV: Ciências Sociais, Engenharia do grupo VIII, Música, Teatro, Tecnologia em Gestão de Processos Gerenciais, Tecnologia em Gestão de Recursos Humanos, Tecnologia em Gestão Financeira, Tecnologia em Marketing e Tecnologia em Moda. Das nove áreas deste grupo, cinco apresentaram correlações significativas para os insumos nota de Mestres (Tecnologia em Recursos Humanos), nota de Doutores (Engenharia do grupo VIII), nota do Regime de Trabalho (Ciências Sociais) e nota da Infraestrutura (Ciências Sociais e Música). A maior correlação foi encontrada na área de Engenharia do grupo VIII para nota de Doutores (52,4%, mostrada no Gráfico 13). Gráfico 13 – Correlação entre a nota de Doutores (ND) e o Enade contínuo (NEnade) para a área de Engenharia de grupo VIII. 6 5 NEnade 4 3 2 1 0 -1 -1 0 1 2 3 4 5 6 ND Fonte: o autor 115 A área de Ciências Sociais apresentou a segunda maior correlação entre a nota da Infraestrutura (40,4%, Gráfico 14) e o desempenho. Ressalta-se que este grupo foi aquele que reuniu o menor número de cursos no Brasil, o que explica em parte tanto a ausência de diferenças entre os estratos, quanto a ausência de correlações significativas em quatro das nove áreas, tendo em vista a limitação da técnica quando o número de cursos é relativamente pequeno. A justificativa é parcial considerando que há casos em que ocorrem correlações significativas mesmo com números de cursos inferiores a estes apresentados para as áreas do grupo IV. Gráfico 14 – Correlação significativa entre a nota da Infraestrutura (NI) e o ENnade contínuo (NEnade) para a área de Ciências Sociais. 6 5 NEnade 4 3 2 1 0 -1 0,0 0,5 1,0 1,5 2,0 2,5 3,0 3,5 4,0 4,5 5,0 5,5 NI Fonte: o autor Observou-se neste grupo ausência de correlações significativas entre o insumo nota da Organização Didático-Pedagógica e o Enade contínuo. Os demais insumos apresentaram pelo menos uma área com correlação significativa, como citado. De forma geral, observa-se nestes quatro grupos que os insumos nota de Doutores e nota da Infraestrutura se destacaram como os mais frequentes, seguidos pela nota da Organização Didático-Pedagógica nas áreas que apresentaram diferenças no 116 desempenho entre todos os estratos e pela nota do Regime de Trabalho que foi característica das áreas vinculadas à Saúde. O insumo nota de Mestres foi o mesmo ocorrente, mas apresentou correlações significativas em áreas como Tecnologia em Gastronomia nas Universidades Privadas, Psicologia nas Universidades Públicas e Faculdades Privadas da Região Sudeste e para a área de Tecnologia em Recursos Humanos, independentemente do estrato. Tem-se assim uma caracterização das áreas em relação aos insumos e desempenho dos estudantes. 3.4.2 IDD contínuo A análise do Enade contínuo permitiu a caracterização das relações entre insumos e desempenho. A análise da nota IDD tem como objetivo caracterizar as relações entre os mesmos insumos avaliados anteriormente, o que o MEC chama de “qualidade” do curso, em outras palavras, o “valor agregado” do curso em relação aos seus estudantes ingressantes. Assim, enquanto que a análise anterior tratou do desempenho do estudante concluinte como um todo, ou seja, considerando o que o concluinte já possuía de habilidades e conteúdos antes de realizar seu curso, no IDD há a tentativa de retirar essa condição prévia do estudante e mensurar somente o efeito do curso. Sendo assim, a caracterização das relações entre insumos e IDD torna-se relevante, pois permite identificar os insumos que mais se relacionaram com esta “qualidade” que o IDD pretende indicar. Desta forma, similarmente ao que foi elaborado para o Enade contínuo, quatro grupos de áreas foram discriminados para o IDD: diferenças entre as regiões, diferenças entre as combinações de organização e categoria, diferenças em ambos os estratos, e áreas sem diferenças nos estratos, agrupadas da seguinte forma: Grupo I –14 áreas apresentaram diferenças significativas entre as regiões federativas: Arquitetura e Urbanismo, Biologia, Comunicação Social, Direito, Engenharia do grupo III, Engenharia do grupo IV, Engenharia do grupo VII, Física, Geografia, Matemática, Pedagogia, Psicologia, Tecnologia em Gastronomia e Zootecnia. Grupo II – oito áreas apresentaram diferenças significativas entre as combinações de organização e categoria: Biomedicina, Enfermagem, Fonoaudiologia, Medicina 117 Veterinária, Nutrição, Tecnologia em Automação Industrial, Tecnologia em Gestão Ambiental e Tecnologia em Redes de Computadores. Grupo III – 17 áreas apresentaram diferenças significativas entre ambos os estratos: Administração, Agronomia, Ciências Contábeis, Computação e Informática, Design, Educação Física, Engenharia do grupo I, Engenharia do grupo II, Farmácia, Filosofia, Fisioterapia, História, Letras, Medicina, Odontologia, Tecnologia em Desenvolvimento de Sistemas e Turismo. Grupo IV – 16 áreas não apresentaram diferenças significativas nos dois estratos: Ciências Econômicas, Ciências Sociais, Engenharia do grupo VI, Engenharia do grupo VIII, Música, Química, Relações Internacionais, Secretariado, Serviço Social, Teatro, Tecnologia em Gestão de Recursos Humanos, Tecnologia em Gestão Financeira, Tecnologia em Marketing, Tecnologia em Moda, Tecnologia em Processos Gerenciais e Tecnologia em Radiologia. Observando-se todos os grupos, o insumo que apresentou correlações em mais áreas foi a nota de Doutores, 20 das 55 áreas analisadas, seguido pela nota de Mestres e nota da Infraestrutura (20 áreas), nota do Regime de Trabalho (14 áreas) e nota da Organização Didático-Pedagógica (13 áreas). A nota de Doutores também foi o insumo com maior número de combinações entre os estratos (27), seguido por nota de Mestres e nota da Organização Didático-Pedagógica (20), nota da Infraestrutura (18) e nota do Regime de Trabalho (16). Grupo I: Arquitetura e Urbanismo, Biologia, Comunicação Social, Direito, Engenharia do grupo III, Engenharia do grupo IV, Engenharia do grupo VII, Física, Geografia, Matemática, Pedagogia, Psicologia, Tecnologia em Gastronomia e Zootecnia. Das 14 áreas, os insumos que apresentaram correlações semiparciais significativas em mais áreas foram nota de Doutores com nove áreas e 14 combinações de áreas e regiões federativas, seguido por nota de Mestres com cinco áreas e seis combinações. Seguem-se nota do Regime de Trabalho (cinco áreas e cinco combinações) nota da organização didático-pedagógica (três áreas e três combinações) e nota da Infraestrutura (duas áreas e três combinações). O Gráfico 15 mostra as relações encontradas para a área de Matemática, com correlações positivas entre nota de 118 Doutores e nota da Infraestrutura para as regiões Nordeste (35,4%), Centro-Oeste (54,6%), Sudeste (54,2%) e Sul (36,4%). Mantêm-se significativas as correlações semiparciais para a Região Nordeste (28,8%) e Sudeste (26,1%). Gráfico 15 – Correlações entre a nota de Doutores (ND) e o IDD contínuo (NIDD) para a área de Matemática de acordo com a região federativa. 6 5 4 NIDD 3 2 1 0 -1 -1 0 1 2 3 4 5 6 Nordeste Centro-Oeste Sudeste Sul ND Fonte: o autor O Gráfico 16 mostra as correlações para a área de Pedagogia: 34,5% para a Região Norte, 28,2% para o Nordeste e 24,4% no Sudeste. Todas se mantêm significativas quando examinadas as correlações semiparciais: 29,2% para o Norte, 25,9% para o Nordeste e 22,3% para o Sudeste. 119 Gráfico 16 – Correlações entre a nota de Doutores (ND) e o IDD contínuo (NIDD) para a área de Pedagogia de acordo com a região federativa. 6 5 4 NIDD 3 2 1 0 -1 -1 0 1 2 3 4 5 6 Norte Nordeste Sudeste ND Fonte: o autor O Gráfico 17 mostra a relação entre a nota de Mestres e o IDD contínuo na área de Arquitetura e Urbanismo, com 53,8% de correlação positiva na Região Sul e 61,3% na Região Norte, esta última não significativa devido ao baixo número de cursos na região. No entanto, ambas as correlações semiparciais são significativas: 35,0% para o Sul e 26,5% para o Norte, devido ao fato da técnica de regressão múltipla permitir a visualização da significância quando retirados os efeitos da colinearidade dos demais insumos e consequentemente aumentando a significância da análise para a Região Norte. 120 Gráfico 17 – Correlações entre a nota de Mestres (NM) e o IDD contínuo (NIDD) para a área de Arquitetura e Urbanismo nas Regiões Norte e Sul. 5,5 5,0 4,5 4,0 3,5 NIDD 3,0 2,5 2,0 1,5 1,0 0,5 0,0 -1 0 1 2 3 4 5 6 Norte Sul NM Fonte: o autor Para os demais insumos, nota do Regime de Trabalho apresentou cinco correlações semiparciais significativas: Tecnologia em Gastronomia com 38,9% no Sudeste, Comunicação Social com 35% no Centro-Oeste, Direito com 32,9%, Pedagogia com 27,4% e Arquitetura com 16,5%, todas na região Norte. A nota da Organização Didático-Pedagógica mostrou somente três correlações semiparciais significativas: 49,9% na área de Arquitetura da Região Norte, 45,3% para Geografia e 12,6% para a área de Pedagogia, ambas na Região Sudeste. A nota da Infraestrutura apresentou correlações para Arquitetura (-11,4% na Região Norte) e na área de Direito, conforme mostrado no Gráfico 18, com correlações de 30,5% para o Sudeste e 27,5% para o Centro-Oeste. Ambas se mantêm significativas nas correlações semiparciais, 26,2% para o Centro-Oeste e 21,7% para o Sudeste. 121 Gráfico 18 – Correlações entre a nota da Infraestrutura (NI) e o IDD contínuo (NIDD) para a área de Direito de acordo com a região federativa. 6 5 4 NIDD 3 2 1 0 -1 -1 0 1 2 3 4 5 6 Centro-Oeste Sudeste NI Fonte: o autor Ao observar este primeiro grupo, notam-se duas diferenças entre a nota do IDD e o desempenho Enade analisado anteriormente. Em primeiro lugar, o número de áreas em que há diferenças regionais no IDD aumentou, de seis áreas para 14 áreas. Isso mostra que o IDD é um indicador que discrimina mais as diferenças entre as regiões federativas que as notas padronizadas dos concluintes. Em segundo lugar, para o IDD, neste grupo I, a nota dos Mestres passou a ocorrer com frequência, enquanto que na análise anterior este foi o insumo menos frequente. Neste grupo, a nota de Doutores foi o insumo mais frequente, seguido pela nota de Mestres. Tendo em vista que os dois insumos têm tendência à colinearidade, como já citado anteriormente, e a técnica de regressão múltipla “descontar” esse efeito, o resultado para este grupo torna ainda mais relevante a presença da nota de Mestres como característica destas áreas. 122 Grupo II: Biomedicina, Enfermagem, Fonoaudiologia, Medicina Veterinária, Nutrição, Tecnologia em Automação Industrial, Tecnologia em Gestão Ambiental e Tecnologia em Redes de Computadores Das oito áreas que compuseram este grupo, em cinco a nota da Infraestrutura mostrou correlação semiparcial significativa, seguida por nota da Organização DidáticoPedagógica com três áreas. O maior número de combinações entre as áreas com os estratos de organização acadêmica e categoria administrativa também ocorreram nestes dois insumos, nota da Infraestrutura e nota da Organização Didático-Pedagógica, com cinco e quatro combinações respectivamente. Para a nota da Infraestrutura, as Universidades Públicas foram responsáveis por quatro das cinco áreas: Fonoaudiologia com 62,8%, Tecnologia em Gestão Ambiental com 62,7%, Biomedicina com 50% e Medicina Veterinária com 28,7%. A quinta correlação semiparcial significativa foi de 20,3% para Enfermagem nas Faculdades Privadas. A nota da Organização Didático-Pedagógica também teve a maioria das correlações no estrato das Universidades Públicas: -57,7% de correlação para Fonoaudiologia, -32,8% para Tecnologia em Redes de Computadores e 39,2% para Nutrição. A quarta correlação foi de 44,3% para Tecnologia em Redes de Computadores nas Faculdades Tecnológicas Privadas. A nota de Mestres, nota de Doutores e nota do Regime de Trabalho apresentaram correlação significativa em apenas uma área cada um, a nota de Mestres com três combinações e a nota de Doutores e a nota do Regime de Trabalho com uma única combinação, -31,3% entre nota de Doutores e NIDD para Tecnologia em Redes de Computadores nas Universidades Públicas e 50% entre nota do Regime de Trabalho e NIDD para Biomedicina nas Universidades Públicas. O Gráfico 19 mostra as relações entre a nota de Mestres e o IDD para a área de Tecnologia em Redes de Computadores, com correlações de 47,2% nas Universidades Públicas (não significativa), 43,2% nas Faculdades Privadas e de 38,7% nas Faculdades Tecnológicas Privadas (p=0,068 e, portanto, não significativa ao nível de 5%). As correlações semiparciais foram todas significativas, 41,7% nas Universidades Públicas, 44,7% nas Faculdades Privadas e 43,2% nas Faculdades Tecnológicas Privadas. 123 Gráfico 19 – Correlações entre a nota de Mestres (NM) e o IDD contínuo (NIDD) para a área de Tecnologia em Redes de Computadores de acordo com a combinação entre organização acadêmica e categoria administrativa. 6 5 4 NIDD 3 2 1 0 -1 -0,5 0,0 0,5 1,0 1,5 2,0 2,5 3,0 3,5 4,0 4,5 5,0 UniPu FacPr FaTPr NM Nota: UniPu: Universidade Pública; FacPr: Faculdade Privada; FaTPr: Faculdade Tecnológica Privada. Fonte: o autor Observa-se novamente a inversão do padrão apresentado para as áreas com diferenças na combinação de Organização Acadêmica e Categoria Administrativa do IDD quando comparado à nota Enade. Enquanto que neste grupo 17 áreas apresentaram diferenças na combinação, para o IDD, somente oito áreas. Pode-se dizer que enquanto o desempenho é mais variável entre as IESs conforme sua organização e administração, e menos variável nas diferentes regiões federativas do Brasil, o “valor agregado” do curso ao estudante varia mais regionalmente e é menos dependente da forma de organização e administração da IES. Neste primeiro grupo do IDD, a nota da Infraestrutura e a nota da Organização Didático-Pedagógica foram os insumos com correlações mais frequentes, e mais característicos das Universidades Públicas. 124 Grupo III: Administração, Agronomia, Ciências Contábeis, Computação e Informática, Design, Educação Física, Engenharia do grupo I, Engenharia do grupo II, Farmácia, Filosofia, Fisioterapia, História, Letras, Medicina, Odontologia, Tecnologia em Desenvolvimento de Sistemas e Turismo. Neste grupo a nota de Mestres foi o insumo em que mais áreas (nove) apresentaram correlações semiparciais significativas, seguido por nota da Organização Didático-Pedagógica, nota de Doutores e nota do Regime de Trabalho, cada um com sete áreas e a nota da Infraestrutura com cinco áreas. Nas combinações, a nota da Organização Didático-Pedagógica apresentou o maior número (13) seguido pela nota de Mestres (11), nota de Doutores e nota do Regime de Trabalho (nove cada um) e nota da Infraestrutura com sete combinações. O Gráfico 20 mostra as correlações entre a nota de Mestres para a área de Administração, a única do grupo a apresentar correlações semiparciais significativas em três combinações de organização acadêmica, categoria administrativa e região federativa. As correlações simples foram de -12,7% (p=0,42, não significativa) para as Faculdades Privadas do Norte, 26,8% para o Nordeste e 62,6% para os Centros Universitários Privados do Centro-Oeste (p=0,07 e, portanto, não significativa a 5%). Ajustadas, as correlações semiparciais foram de -33,8% para a Região Norte e 20,4% para o Nordeste nas Faculdades Privadas e -73,1% para a Região Centro-Oeste. 125 Gráfico 20 – Correlações entre a nota de Mestres (NM) e o IDD contínuo (NIDD) para a área de Administração de acordo com a combinação entre organização acadêmica, categoria administrativa e região federativa. 6 5 4 NIDD 3 2 1 0 -1 -1 0 1 2 3 4 5 6 N, FacPr NE, FacPr CO, CeUPr NM Nota: N: norte; NE: Nordeste; CO: Centro-Oeste; FacPr: Faculdade Privada; CeUPr: Centro Universitário Privado. Fonte: o autor A nota da Organização Didático-Pedagógica teve a área de Ciências Contábeis como aquela com mais correlações semiparciais significativas. O Gráfico 21 mostra as correlações simples de 48,4% (p=0,09) para as Universidades Públicas do Centro-Oeste e de 75,5% para o Sudeste; 40,4% para as Universidades Privadas e 34,7% para os Centros Universitários Privados, ambos da Região Sudeste. Mantêm-se significativas as correlações semiparciais para as Universidades Públicas do Centro-Oeste (51%), Universidades Privadas (30,3%) e Centros Universitários Privados (39.0%) do Sudeste. 126 Gráfico 21 – Correlações entre a nota da Organização Didático-Pedagógica e o IDD contínuo (NIDD) para a área de Ciências Contábeis de acordo com a combinação entre organização acadêmica, categoria administrativa e região federativa. 6 5 NIDD 4 3 2 1 0 0,5 1,0 1,5 2,0 2,5 3,0 3,5 4,0 4,5 5,0 CO, UniPu SE, UniPu SE, UniPr SE, CeuPr NO Nota: CO: Centro-Oeste; SE: Sudeste; UniPu: Universidade Pública; FacPr: Faculdade Privada; CeUPr: Centro Universitário Privado. Fonte: o autor A nota de Doutores mostrou as áreas de Administração e Odontologia com duas correlações semiparciais significativas cada uma: para Administração 41,7% nas Universidades Públicas e 10,2% para as Faculdades Privadas, ambas do Sudeste, e Odontologia, 53,2% nas Universidades Privadas do Sul e 71,4% nas Universidades Públicas. Nas demais áreas, três apresentaram correlações nas Universidades Públicas: Agronomia (60,8 na Região Sul), Ciências Contábeis (-76,6% no Nordeste) e Engenharia do Grupo II (44,4% no Sudeste). A área de Letras mostrou 43,1% nas Universidades Privadas da Região Sul e Tecnologia em Análise e Desenvolvimento de Sistemas, 55,3% nas Faculdades Privadas do Centro-Oeste. A nota do Regime de Trabalho teve correlações semiparciais significativas em Administração (68,8% e 24,11% nas Faculdades Públicas e Universidades Públicas do Sudeste, respectivamente), Computação e Informática (-72,2% nas Universidades 127 Privadas do Centro-Oeste e 49,7% nas Universidades Públicas do Sudeste), Agronomia (54,4% nas Universidades Privadas do Centro-Oeste), Engenharia do grupo I (43,9% nas Universidades Públicas do Sul), Filosofia (-52,7% nas Universidades Privadas do Sudeste), Letras (40,7% nas Universidades Privadas do Sul) e Odontologia (29% nas Universidades Privadas do Sudeste) A nota da Infraestrutura mostrou duas correlações para a área de Administração: 60,4% nos Centros Universitários do Centro-Oeste e 18,2% nas Faculdades Privadas do Sudeste e duas para Computação e Informática: 49,4% para as Faculdades Integradas e 39% para as Universidades Públicas, ambas da Região Sudeste. Demais áreas: Design, 73,1% nas Universidades Privadas do Sudeste, História, 58,7% nas Universidades Públicas do Sul, e Letras, 65,2% nos Institutos Superiores Privados do Sudeste. Tem-se como característica neste grupo a maior frequência de correlações para a nota de Mestres e nota da Organização Didático-Pedagógica. Ambos os insumos ocorreram em grupos anteriores: a nota dos Mestres no grupo I e a nota da Organização Didático-Pedagógica no grupo II. Nota-se que, diferentemente do Enade contínuo, o grupo apresentou poucas correlações significativas para o IDD, corroborando a ideia de que para este indicador as diferenças regionais são mais características do que a forma de organização e administração da IES. Grupo IV: Ciências Econômicas, Ciências Sociais, Engenharia do grupo VI, Engenharia do grupo VIII, Música, Química, Relações Internacionais, Secretariado, Serviço Social, Teatro, Tecnologia em Gestão de Recursos Humanos, Tecnologia em Gestão Financeira, Tecnologia em Marketing, Tecnologia em Moda, Tecnologia em Processos Gerenciais e Tecnologia em Radiologia. Das 16 áreas do grupo, 11 não apresentaram correlações significativas para quaisquer insumos: Engenharias dos grupos VI e VIII, Relações Internacionais, Secretariado, Teatro, Tecnologia em Gestão de Recursos Humanos, Tecnologia em Gestão Financeira, Tecnologia em Marketing, Tecnologia em Moda, Tecnologia em Processos Gerenciais e Tecnologia em Radiologia. Das cinco áreas restantes, a nota da Infraestrutura mostrou correlações significativas para Ciências Sociais (36,1%), Serviço Social (16,4%) e Química (16,3%); a nota de Doutores em Música (32,6%), Ciências Econômicas (20%) e Química (17,9%); e a nota do Regime de Trabalho em Química 128 (27,6%). A nota de Mestres e a nota da Organização Didático-pedagógica não apresentaram correlações significativas. O Gráfico 22 mostra a correlação de 47,5%, a maior deste grupo, entre a nota da Infraestrutura e o IDD contínuo para a área de Ciências Sociais. Gráfico 22 – Correlação entre a nota da infraestrutura (NI) e o IDD contínuo (NIDD) para a área de Ciências Sociais. 6 5 4 NIDD 3 2 1 0 -1 0,0 0,5 1,0 1,5 2,0 2,5 3,0 3,5 4,0 4,5 5,0 5,5 NI Fonte: o autor O Gráfico 23 mostra a correlação de 31,9% entre a nota de Doutores e o IDD contínuo para a área de Música. 129 Gráfico 23 – Correlação entre a nota de Doutores (ND) e o IDD contínuo (NIDD) para a área de Música. 6 5 4 NIDD 3 2 1 0 -1 -1 0 1 2 3 4 5 6 ND Fonte: o autor Este grupo ficou caracterizado por maior frequência dos insumos nota da Infraestrutura e nota de Doutores. Um exame dos quatro grupos mostra que, apesar da maior frequência de correlações nas notas de Doutores e maior presença no insumo nota de Mestres em relação ao Enade contínuo, os demais insumos também apresentaram correlações conforme as áreas, diferentemente do Enade contínuo no qual se pode verificar preponderância de dois insumos em relação aos demais, nota de Doutores e nota da Infraestrutura. Tem-se assim o IDD como um indicador com mais dificuldade de generalização do que o Enade contínuo. 130 3.5 Síntese da estrutura das relações nos estratos A caracterização realizada permitiu avaliar o grau de generalização que podemos realizar ao observarmos as notas Enade e IDD em relação aos insumos. Os resultados apontam para uma dependência à área avaliada e aos estratos que foram examinados: a região federativa e a combinação entre organização acadêmica e categoria administrativa. Dada a impossibilidade de uma generalização da estrutura de relações sem que se considere esta especificidade, propõe-se uma síntese desta estrutura, integrando-se os três estratos avaliados. 3.5.1 Enade contínuo Neste indicador onze áreas não apresentaram correlações significativas: Agronomia, Arquitetura, Fisioterapia, Teatro, Tecnologia em Automação, Tecnologia em Gestão de Processos Gerenciais, Tecnologia em Gestão Financeira, Tecnologia em Marketing, Tecnologia em Moda, Tecnologia em Redes e Zootecnia. Parte destes (Automação Industrial, Moda e Teatro) justifica-se pelo baixo número de cursos da área no Brasil, porém se observa que as demais áreas também não apresentaram as relações significativas esperadas para um número de cursos superiores a outras que apresentaram. Pode-se então inferir que para estas áreas não se tem uma relação direta destes insumos com o desempenho Enade. A nota da Infraestrutura e a nota de Doutores foram os insumos mais frequentes. O estrato das regiões mostrou comportamento esperado para as regiões Sudeste e Sul com mais correlações que as demais, com uma correlação perfeita, observada na Tabela 3, que mostra percentuais muito próximos de número de cursos avaliados e número de correlações semiparciais significativas. 131 Tabela 3 – Número de cursos e correlações encontradas para o Enade contínuo de acordo com a região federativa. Região Sudeste Sul Nordeste Centro-Oeste Norte Total Número de cursos 5605 2529 1923 1194 698 11949 % 46,9 21,2 16,1 10,0 5,8 100,0 Número de correlações 69 32 20 12 12 145 % 47,6 22,1 13,8 8,3 8,3 100,0 Nota: as regiões foram ordenadas decrescentemente de acordo com o total de cursos avaliados. Fonte: o autor Quando observadas as combinações entre organização acadêmica e categoria administrativa (Tabela 4), observa-se que a frequência de correlações para as Faculdades Privadas foi menor do que a esperada, enquanto que as Universidades mostraram frequência observada maior do que o esperado, e entre estas, as Universidades Públicas com maior frequência do que as Privadas75. Isso demonstra que a relação entre insumos e desempenho tem mais propriedade para as Universidades Públicas do que para as Faculdades Privadas. O padrão também aparece para as Faculdades Públicas, que deveriam mostrar correlações significativas. Conclui-se que a estrutura de relações criada para o Enade contínuo tem maior coerência para o grupo das Universidades do que para as Faculdades, e dentro das Universidades, mais para as Públicas do que para as Privadas. Os Institutos Superiores Privados também mostraram desacordo com o esperado, com mais correlações em comparação com as Faculdades Integradas. A área de Pedagogia na Região Sul foi a responsável pela frequência maior do que a esperada nos Institutos Superiores, pois quatro das cinco correlações encontradas nestes foram nessa área e região. 75 P<0.01 no teste do qui-quadrado para significância de associações. 132 Tabela 4 - Número de cursos e correlações encontradas para o Enade contínuo de acordo com a combinação entre organização acadêmica e categoria administrativa. Combinação FacPr UniPr UniPu CeUPr FaIPr FacPu InsPr CeTPu CeUPu FaTPr Total Número de cursos 3806 3143 2577 1622 245 211 175 72 52 46 11949 % 31,9 26,3 21,6 13,6 2,1 1,8 1,5 0,6 0,4 0,4 100,0 Número de correlações 32 45 53 24 3 0 5 0 0 0 162 % 19,8 27,8 32,7 14,8 1,9 0,0 3,1 0,0 0,0 0,0 100 Nota: as siglas que aparecem na coluna indicadora são, na ordem, FacPr: Faculdade Privada; UniPr: Universidade Privada; UniPu: Universidade Pública; CeUPr: Centro Universitário Privado; FaIPr: Faculdade Integrada Privada; FacPu: Faculdade Pública; InsPr: Instituto Superior Privado; CeTPu: Centro Tecnológico Público; CeUPu: Centro Universitário Público; FaTPr: Faculdade Tecnológica Privada. Fonte: o autor O Quadro 2 identifica as áreas que apresentaram correlações semiparciais significativas no Brasil ou de acordo com a região federativa, independentemente da categoria administrativa ou organização acadêmica. Destacam-se as áreas de Física na Região Norte, com significância para três dos cinco insumos avaliados, Ciências Econômicas no Nordeste e Sudeste e Geografia no Nordeste, Centro-Oeste e Sudeste. Nota-se também que a Região Sul, apesar de ter o segundo maior número de cursos nas áreas avaliadas, foi aquela com menor frequência de correlações significativas. Assim, nesta região, as diferenças tendem a ocorrer vinculadas à organização acadêmica e categoria administrativa, como se verá mais adiante. 133 Quadro 2 – Áreas e correlações semiparciais significativas entre os insumos utilizados no Conceito Preliminar de Curso e o Enade contínuo para as Instituições de Ensino Superior do Brasil de acordo a região federativa. Insumo Brasil Norte Centro-Oeste Sudeste Sul - Ciências Econômicas - Física Nordeste Ciências Econômicas Física - NI Ciências Sociais Música Física NO - NM Tec. Gestão RH - - - ND Engenharia VIII - - Secretariado NR Ciências Sociais Física Ciências Econômicas Geografia - Geografia Geografia Filosofia Ciências Econômicas Geografia Filosofia Filosofia Secretariado - - Ciências Econômicas Fonte: o autor 134 O Quadro 3 sumariza os resultados encontrados para as Universidades Públicas de acordo com a região federativa. As áreas das Engenharias apresentaram várias correlações significativas, destacadamente nas Regiões Sul e Nordeste e quatro áreas no Brasil. Na Região Sul quase todas as correlações estiveram nas áreas das Engenharias. As notas referentes à Infraestrutura, Mestres e Doutores foram os insumos com maior frequência de significância para estas áreas. A Região Sudeste foi a que apresentou maior frequência de correlações significativas. Em contraste, a Região Centro-Oeste teve frequência menor do que a esperada, se considerarmos o número de cursos desta região em comparação com a Região Norte. Além das Engenharias, destaca-se a área de Turismo na Região Sudeste com correlações em quatro insumos, exceto a nota de Doutores. A área de Comunicação Social esteve presente somente na Região Norte, enquanto que Pedagogia apresentou correlações somente para a nota de Doutores. Em termos dos insumos, somente a nota de Doutores mostrou correlações em todas as regiões federativas para as Universidades Públicas. 135 Quadro 3 – Áreas e correlações semiparciais significativas entre os insumos utilizados no Conceito Preliminar de Curso e o Enade contínuo para as Universidades Públicas de acordo com a região federativa. Insumo NI Brasil Engenharia III Engenharia VII Medicina Veterinária Norte Nordeste Centro-Oeste - Engenharia I Engenharia IV - Sudeste Computação Design Matemática Turismo Direito Ciências Contábeis Odontologia Turismo Computação Engenharia IV Odontologia Psicologia Turismo Sul - Engenharia I Engenharia II História NO Educação Física Nutrição Com. Social Medicina - NM Engenharia VI - Computação - ND Biomedicina Engenharia VI Farmácia Com. Social Pedagogia Ciências Contábeis Computação Matemática Pedagogia Biologia Engenharia II Odontologia Psicologia Ciências Contábeis Engenharia I Engenharia II NR Biomedicina Farmácia - Engenharia I História - Ciências Contábeis Biologia Turismo Engenharia II Engenharia II Engenharia IV Fonte: o autor 136 O Quadro 4 mostra os resultados encontrados para as Universidades Privadas. Diferentemente das Públicas, as Regiões Norte e Nordeste não mostraram áreas com correlações significativas, enquanto que a Região Sul mostrou maior frequência de correlações do que na categoria das Universidades Públicas, em desacordo com o esperado. De fato, das 2.437 áreas das universidades da Região Sudeste que apresentaram Enade contínuo, 26,3% foram de Universidades Públicas, enquanto que na Região Sul este percentual subiu para 36%. Assim era esperada uma frequência maior de correlações nas áreas das Universidades Públicas da Região Sul e menor nas Universidades Privadas para esta região. Nas áreas destacam-se Psicologia na Região Centro-Oeste, com quatro dos cinco insumos, e ainda nas Regiões Sudeste e Sul, com a nota da Organização DidáticoPedagógica com correlações nas três regiões. Nas áreas das Engenharias percebe-se menor número de correlações, mas a área de Engenharia do grupo II mostrou correlações para os insumos nota da Organização Didático-Pedagógica e nota de Doutores tanto para as Universidades Públicas quanto Privadas. Observando-se as áreas que mostraram correlações para o Brasil sem discriminação da região, ás áreas de Educação Física, Farmácia e Nutrição tiveram correlações para ambas as categorias administrativas: Públicas e Privadas. A área de Educação Física apresentou a nota da Organização Didático-Pedagógica como o insumo mais ocorrente nas duas categorias. Já a área de Farmácia apresentou a nota do Regime de Trabalho como o mais frequente. Diferentemente das Universidades Públicas, a nota de Doutores foi o insumo com menor número de áreas com correlações significativas. 137 Quadro 4 – Áreas e correlações semiparciais significativas entre os insumos utilizados no Conceito Preliminar de Curso e o Enade contínuo para as Universidades Privadas de acordo com a região federativa. Insumo Brasil Norte Nordeste Centro-Oeste NI Enfermagem Química Serviço Social - - Psicologia NO Educação Física - - Psicologia NM Serviço Social Tec. Gastronomia - - Psicologia ND Engenharia VII - - - Pedagogia Tec. Ges. Ambiental NR Educação Física Enfermagem Farmácia Nutrição - Computação Psicologia Administração Direito Engenharia I Psicologia - Sudeste Biologia Direito Tec. Ges. Ambiental Administração Ciências Contábeis Computação Matemática Odontologia Psicologia Turismo Biologia Tec. Radiologia Sul Administração Engenharia II Psicologia Ciências Contábeis Matemática Biologia Engenharia II Letras Odontologia Ciências Contábeis Matemática Fonte: o autor 138 O Quadro 5 apresenta os resultados para as Faculdades Privadas. Nota-se ausência das áreas das Engenharias para este estrato, em parte explicado pelo menor número de cursos nestas áreas quando comparado às universidades. No entanto, para outras áreas como Biomedicina a explicação não procede, tendo em vista que a área possui mais cursos nas Faculdades Privadas (36) do que nas Universidades Privadas (33) ou Públicas (17). Neste caso pode-se inferir que a área de Biomedicina teve certamente uma relação entre a nota do Regime de Trabalho com o desempenho no Enade para os cursos das Universidades Públicas. Oposto a este padrão, a área de Odontologia aparece aqui com correlações significativas para a nota de Mestres e a nota de Doutores na região Nordeste, enquanto que nas Universidades Privadas mostrou somente para a nota da Organização DidáticoPedagógica no Sudeste e nas Universidades Públicas mostrou em três insumos, também para a Região Sudeste. No entanto, os números de cursos nos estratos: 30 para as Faculdades Privadas, 49 nas Universidades Públicas e 65 nas Universidades Privadas mostram relação inversa com o número de correlações significativas, o que permite afirmar que as relações encontradas são robustas. No âmbito do país a área de Farmácia continuou apresentando significância no insumo nota do Regime de Trabalho. A área de Administração teve correlações em todas as regiões, especialmente para o insumo nota de Doutores e a área de Psicologia na região Sudeste apresentou correlação no insumo nota de Doutores da mesma forma que nas Universidades Públicas. Este insumo e nota da Infraestrutura foram aqueles com maior frequência de áreas e regiões para as Faculdades Privadas. A área de Direito apresentou correlações para nota da Infraestrutura em três das cinco regiões federativas. 139 Quadro 5 – Áreas e correlações semiparciais significativas entre os insumos utilizados no Conceito Preliminar de Curso e o Enade contínuo para as Faculdades Privadas de acordo com a região federativa. Insumo Brasil Norte Nordeste Centro-Oeste NI Enfermagem Farmácia - Administração Ciências Contábeis Direito NO Serviço Social - Administração Ciências Contábeis NM Nutrição - Administração Odontologia - ND Tec. Gastronomia Administração Odontologia - NR Farmácia - - Administração Sudeste Administração Direito Psicologia Tec. An. Des. Sis. Administração Ciências Contábeis História Tec. An. Des. Sis. Psicologia Administração Matemática Psicologia - Sul Ciências Contábeis Direito Turismo - Administração - Fonte: o autor 140 O Quadro 6 mostra os resultados para os Centros Universitários Privados. A área de Computação aparece em destaque na Região Norte, com somente nota do Regime de Trabalho sem correlações significativas. O resultado é relevante, pois não dependeu do número de cursos na área para este estrato: os Centros Universitários responderam por 81 cursos desta área, enquanto que as Universidades Públicas, com 92 cursos, Faculdades Privadas, 143 cursos e Universidades Privadas, 171 cursos. Desta forma pode-se indicar que na Região Norte os insumos efetivamente tiveram influência no desempenho dos estudantes. Novamente a área de Engenharia do grupo II aparece com correlação para o insumo nota da Organização Didático-Pedagógica. A área de Direito apresentou o mesmo número de correlações, três, que as Faculdades Privadas, apesar da grande diferença em termos de cursos desta área, 339 cursos avaliados no Brasil nas Faculdades Privadas e 96 para os Centros Universitários Privados. Para esta área, os insumos foram: nota da Organização Didático-Pedagógica (Sul), nota de Doutores (Centro-Oeste) e nota do Regime de Trabalho (Sudeste). O Quadro 7 mostra os demais estratos em que foram encontradas correlações significativas. Apesar das Faculdades Integradas apresentarem 245 cursos em 20 áreas e os Institutos Superiores, 175 cursos em 18 áreas, somente Pedagogia foi responsável pela quase totalidade das correlações significativas, em parte explicado pelo maior número de cursos desta área nos dois estratos, 55 e 66 cursos respectivamente. 141 Quadro 6 – Áreas e correlações semiparciais significativas entre os insumos utilizados no Conceito Preliminar de Curso e o Enade contínuo para os Centros Universitários Privados de acordo a região federativa. Insumo NI Brasil Educação Física Enfermagem Rel. Internacionais Norte Nordeste Centro-Oeste Computação - - NO Medicina Veterinária Computação - - NM - Computação - - ND Rel. Internacionais Computação - Direito NR Educação Física Ciências Contábeis - Sudeste Computação Com. Social Design Administração Engenharia II Letras Matemática Tec. Ges. Ambiental Fonoaudiologia Pedagogia Direito Sul - Direito - Fonte: o autor Quadro 7 – Áreas e correlações semiparciais significativas entre os insumos utilizados no Conceito Preliminar de Curso e o Enade contínuo para os Institutos Superiores (InsPr) e Faculdades Integradas Privados (FaIPr) de acordo a região federativa. Insumo Brasil Norte Nordeste Centro-Oeste Sudeste NI - - - - FaIPr: Computação NO NM ND NR - - - - InsPr: Pedagogia Sul FaIPr: Pedagogia InsPr: Pedagogia InsPr: Pedagogia FaIPr: Pedagogia InsPr: Pedagogia InsPr: Pedagogia Fonte: o autor 142 Com base nos quadros mostrados, a estrutura de relações do desempenho dos estudantes pôde ser caracterizada em 44 áreas, em onze, porém, não foi observada significância das relações. A nota de Doutores e a nota da Infraestrutura se destacaram como os insumos mais frequentes, enquanto que a nota de Mestres foi o insumo menos ocorrente. No entanto, esta presença é fortemente vinculada à área, como se pode notar pelos resultados de algumas áreas da Saúde, notadamente Farmácia e Biomedicina, nas quais a nota do Regime de Trabalho foi aquela com maior frequência de correlações significativas. Além da dependência à área, observaram-se diferenças entre estratos. De acordo com a combinação entre estratos encontrou-se maior ou menor frequência de correlações com determinados insumos. Um contraste entre as duas regiões federativas com mais cursos de graduação, Sudeste e Sul, em relação às Universidades Públicas e Privadas, mostrou uma frequência de correlações para as Universidades Públicas da Região Sul abaixo do esperado, enquanto que para as Universidades Privadas esta frequência ficou acima do esperado. Este resultado indica que a estrutura de relações subjacente à construção do CPC proposta pelo Inep tem mais propriedade para as Universidades Privadas quando considerada a Região Sul, e para as Universidades Públicas do Sudeste, isso para algumas áreas avaliadas e não para todo o conjunto de áreas. 3.5.2 IDD contínuo Este indicador mostrou 18 áreas com ausência de correlações significativas: Educação Física, Engenharias dos grupos III, VI, VII, Física, Medicina, Música, Relações Internacionais, Secretariado, Teatro, Tecnologias em Automação, Gastronomia, Gestão de Processos Gerenciais, Gestão de Recursos Humanos, Gestão Financeira, Marketing, Moda e Radiologia, Turismo. Semelhantemente ao Enade contínuo, o pequeno número de cursos avaliados em algumas destas áreas, tais como Música, Secretariado e as Tecnologias, explica parte do resultado, tendo em vista que os testes de significância são sensíveis a baixos números amostrais. De outra parte, pode-se também considerar que o IDD demonstrou efetivamente menor frequência de relações significativas com os insumos do que o Enade contínuo. Desta forma pode-se afirmar que o desempenho final dos estudantes no exame mostra mais relações significativas nas áreas avaliadas do que o indicador de “valor agregado” do curso. Os insumos que mostraram maior frequência de relações nas áreas foram nota de Doutores, com 20 das 143 55 áreas, seguindo por nota de Mestres e nota do Regime de Trabalho, ambos com 15 áreas. Comparando-se com o Enade contínuo, que mostrou mais relações nos insumos nota da Infraestrutura e nota de Doutores, temos o insumo nota de Doutores como aquele mais consistente para ambos os indicadores, seguido pela nota de Mestres quando observado somente o indicador de “valor agregado” do curso. Examinadas as regiões federativas, o Sudeste mostrou maior frequência, como esperado, seguido pelas Regiões Centro-Oeste e Nordeste, que apresentaram mais relações que a Região Sul, apesar do maior número de cursos desta última (Tabela 5). Isso mostra que para as primeiras regiões o IDD esteve mais relacionado aos insumos que na última. Tabela 5 - Número de cursos e correlações encontradas para o IDD contínuo de acordo com a região federativa. Região Sudeste Sul Nordeste CentroOeste Norte Total Número de cursos 5164 2341 1780 46,9 21,3 16,2 Número de correlações 40 10 10 50,0 12,5 12,5 1091 9,9 11 13,8 628 11004 5,7 100,0 9 80 11,3 100,0 % % Fonte: o autor A combinação entre organização acadêmica e categoria administrativa (Tabela 6) mostrou maior frequência nas Universidades Públicas e Privadas, seguido pelas Faculdades Privadas, em desacordo com o esperado, tendo em vista que as Faculdades Privadas possuem 3415 cursos com resultados IDD, acima das Universidades Privadas, 2855 e Universidades Públicas, 2463. Isso mostra que o indicador IDD tem maior aderência com as Universidades Públicas do que com as Privadas e mais para as Universidades do que para as Faculdades Privadas, da mesma forma que ocorreu com o Enade contínuo. Diferentemente deste, as Faculdades Tecnológicas apareceram com número de correlações acima do esperado, devido às duas correlações encontradas para a área de Tecnologia em Redes de Computadores. 144 Tabela 6 - Número de cursos e correlações encontradas para o IDD contínuo de acordo com a combinação entre organização acadêmica e categoria administrativa. Combinação FacPr UniPr UniPu CeUPr FaIPr FacPu InsPr CeTPu CeUPu FaTPr Total Número de cursos % 3415 31,0 2855 25,9 2463 22,4 1487 13,5 245 2,2 200 1,8 174 1,6 72 0,7 47 0,4 46 0,4 11004 100,0 Número de correlações 11 15 26 6 1 1 1 0 0 2 63 % 17,5 23,8 41,3 9,5 1,6 1,6 1,6 0,0 0,0 3,2 100 Nota: as siglas que aparecem na coluna indicadora são, na ordem, FacPr: Faculdade Privada; UniPr: Universidade Privada; UniPu: Universidade Pública; CeUPr: Centro Universitário Privado; FaIPr: Faculdade Integrada Privada; FacPu: Faculdade Pública; InsPr: Instituto Superior Privado; CeTPu: Centro Tecnlógico Público; CeUPu: Centro Universitário Público; FaTPr: Faculdade Tecnológica Privada Fonte: o autor O Quadro 8 mostra as correlações encontradas segundo a região federativa. As Regiões Norte e Sul se destacam por apresentar mais e menos correlações do que o esperado, respectivamente, a área de Arquitetura mostrando correlação significativa para todos os insumos na Região Norte. Destacam-se também as áreas de Química e Geografia com correlações em três dos cinco insumos. Dos insumos, a nota de Doutores foi aquele com correlações significativas em mais áreas. 145 Quadro 8 – Áreas e correlações semiparciais significativas entre os insumos utilizados no Conceito Preliminar de Curso e o IDD contínuo para as Instituições de Ensino Superior do Brasil de acordo a região federativa. Insumo Norte Nordeste Centro-Oeste Sudeste Sul Arquitetura - Direito Direito - NO Brasil Ciências Sociais Química Serviço Social - Arquitetura - Geografia - NM - Arquitetura Direito - ND Ciências Econômicas Engenharia VIII Química Arquitetura Pedagogia Arquitetura Direito Geografia Matemática Pedagogia Biologia Com. Social Pedagogia Engenharia IV Geografia Psicologia Engenharia IV Geografia Matemática Pedagogia Zootecnia Química Arquitetura Direito Pedagogia - Com. Social NI NR Engenharia IV Arquitetura - - Fonte: o autor 146 O Quadro 9 mostra maior frequência de correlações para as Regiões Sudeste e Sul, quando examinadas as Universidades Públicas, além daquelas encontradas para o Brasil. Percebe-se uma concentração de cursos nas áreas da Saúde, evidenciando-se a área de Odontologia na Região Sudeste como a que apresenta correlações em mais insumos. A nota da Infraestrutura e a nota de Doutores são os insumos com mais correlações neste estrato. No Quadro 10 observa-se um menor número de correlações nas Universidades Privadas quando comparadas com as Universidades Públicas, concentradas nas Regiões Sudeste e Sul. Destaca-se a área de Odontologia com correlações na Região Sudeste como ocorreu com o estrato das Universidades Públicas. A nota do Regime de Trabalho aparece como o insumo com mais correlações. 147 Quadro 9 – Áreas e correlações semiparciais significativas entre os insumos utilizados no Conceito Preliminar de Curso e o IDD contínuo para as Universidades Públicas de acordo com a região federativa. Insumo Norte Nordeste Centro-Oeste Sudeste Sul - - - Computação História - Letras Ciências Contábeis Odontologia História NM Brasil Biomedicina Fonoaudiologia Medicina Veterinária Tec. Ges. Ambiental Fonoaudiologia Nutrição Tec. Redes Tec. Redes - Letras - - ND Tec. Redes - Ciências Contábeis - NR Biomedicina - - Agronomia Odontologia Administração Engenharia II Odontologia Computação NI NO Agronomia Engenharia I Fonte: o autor 148 Quadro 10 – Áreas e correlações semiparciais significativas entre os insumos utilizados no Conceito Preliminar de Curso e o IDD contínuo para as Universidades Privadas de acordo com a região federativa. Insumo NI Brasil - Norte - Nordeste - Centro-Oeste - NO - - - - NM - - - - Filosofia ND - - - - - Computação Administração Filosofia Odontologia NR - - - Sudeste Design Ciências Contábeis Computação Farmácia Odontologia Sul Ciências Contábeis Computação Letras Odontologia Letras Fonte: o autor 149 No Quadro 11 pode-se observar a menor frequência de correlações (11) no estrato das Faculdades Privadas quando comparado com os estratos das Universidades Públicas (26 correlações) ou Privadas (15 correlações), apesar do maior número de cursos neste estrato. O insumo nota de Mestres destaca-se como aquele com mais correlações significativas. No Quadro 12 observa-se que somente a área de Administração mostrou relação para mais de um insumo quando examinados os Centros Universitários. 150 Quadro 11 – Áreas e correlações semiparciais significativas entre os insumos utilizados no Conceito Preliminar de Curso e o IDD contínuo para as Faculdades Privadas de acordo com a região federativa. Insumo NI NO Brasil Enfermagem - Norte - Nordeste - Centro-Oeste - NM Enfermagem Administração Administração - ND NR - - - Tec. Des. Sis. - Sudeste Administração História Agronomia Fisioterapia Tec. Des. Sis. Administração - Sul - Fonte: o autor Quadro 12 – Áreas e correlações semiparciais significativas entre os insumos utilizados no Conceito Preliminar de Curso e o IDD contínuo para os Centros Universitários Privados de acordo a região federativa. Insumo NI Brasil - Norte - Nordeste - Centro-Oeste Administração NO - - - Administração NM ND NR - - - Administração Sudeste Administração Ciências Contábeis Computação - Sul - Fonte: o autor 151 O Quadro 13 sumariza as relações encontradas nas demais combinações entre organização acadêmica e categoria administrativa. Das áreas apresentadas, Tecnologia em Redes de Computadores mostrou correlação para o insumo nota de Mestres neste estrato e para as Universidades Públicas, o mesmo ocorrendo com a área de Computação para nota da Infraestrutura. Quadro 13 – Áreas e correlações semiparciais significativas entre os insumos utilizados no Conceito Preliminar de Curso e o IDD contínuo para os Institutos Superiores, Faculdades Integradas e Faculdades Tecnológicas Privadas de acordo a região federativa. Insumo NI Brasil FaTPr: Tec. Redes FaTPr: Tec. Redes NO NM ND NR Norte Nordeste CentroOeste Sudeste Sul - - - - FaIPr Computação InsPr Letras - - - - - - - - - - - - - - - Fonte: o autor Em resumo, o indicador de “valor agregado” do curso mostrou uma estrutura de relações em um menor número de áreas do que o indicador desempenho final dos estudantes, 37 áreas para o IDD e 44 para o Enade contínuo. Para o IDD, os insumos que mostraram maior frequência de relações nas áreas foram nota de Doutores e de Mestres. Foram observadas mais diferenças no estrato região federativa e menos diferenças na combinação de organização acadêmica e categoria administrativa do IDD quando comparado à nota Enade. Assim, o desempenho foi mais variável entre as IESs conforme sua organização e administração, e menos variável nas diferentes regiões federativas do Brasil. Já o “valor agregado” do curso ao estudante variou mais regionalmente, sendo menos dependente da forma de organização e administração da IES. Os resultados também apontaram maior aderência do IDD com as Universidades Públicas do que com as Privadas e mais ainda com as Faculdades Privadas, da mesma forma que ocorreu com o Enade contínuo. 152 As conclusões que podem ser obtidas da caraterização das relações entre insumos de desempenho no Enade são: A estrutura das relações entre os insumos e o desempenho dos estudantes no Enade, caracterizado pela nota continua do Enade e nota continua do IDD é fortemente dependente da área avaliada, da região federativa, e da combinação entre a organização acadêmica e categoria administrativa da IES. O exame das relações permitiu a identificação de grupos de áreas de cursos nos quais um ou outro insumo obtiveram correlações mais frequentes com o desempenho Os grupos formados nas relações com o Enade contínuo se distinguiram daqueles formados com o IDD contínuo. Nem todas as relações observadas entre insumos e desempenho foram positivas. Em algumas áreas a relação foi positiva para determinada combinação entre organização acadêmica e categoria administrativa e negativa para outra. Ocorreram áreas em que as relações se mostraram independentes dos estratos analisados: região federativa e combinação entre organização acadêmica e categoria administrativa. No desempenho medido pelo Enade contínuo, onze das 55 áreas avaliadas não apresentaram relações significativas entre os insumos e o desempenho. A nota da Infraestrutura e a nota de Doutores foram os insumos com correlações semiparciais mais frequentes com o Enade contínuo. O estrato das regiões federativas mostrou as regiões Sudeste e Sul com maior frequencia de correlações semiparciais significativas. O estrato da combinação entre de organização acadêmica e categoria administrativa mostrou uma frequencia de correlações para Faculdades Privadas menor do que o esperado tendo em vista o número de cursos desta combinação, e maior do que o esperado nas Universidades, a categoria administrativa “Pública” mais do que a categoria “Privada”.18 No desempenho medido pelo IDD contínuo 18 das 55 áreas avaliadas não apresentaram relações significativas entre os insumos e “valor agregado”. 153 O IDD contínuo mostrou menor frequencia de correlações significativas do que o Enade contínuo. A nota de Doutores foi o insumo com correlações semiparciais mais frequentes para o IDD contínuo, seguido pela nota de Mestres e Regime de Trabalho. O estrato das regiões federativas mostrou a região Sudeste com maior frequencia de correlações semiparciais significativas, seguida pelas regiões Nordeste e Centro-Oeste ao invés da Região Sul, o que era esperado devido ao maior número de cursos. O estrato da combinação entre de organização acadêmica e categoria administrativa mostrou maior frequencia de correlações para Universidades Públicas e Privadas, em desacordo com o esperado, tendo em vista o maior número de cursos avaliados nas Faculdades Privadas. Desta forma, o CPC não é um índice que possa ser generalizado no universo da Educação Superior brasileira, devendo ser avaliado no contexto da diversidade das IES. Assim não se justifica o papel central que o Enade tem atualmente no sistema, sendo necessária sua recondução ao papel pontual de examinar o desempenho do estudante de graduação. Finalizando a pesquisa, uma retrospectiva do estudo é realizada, seguida de possibilidades antevistas para os próximos anos do Sinaes. 154 4. CONCLUSÕES, CONSIDERAÇÕES FINAIS E POSSIBILIDADES. Qual o panorama descortinado neste estudo do Sinaes e particularmente do Enade? O primeiro movimento mostrou como o Sinaes, em dez anos de operacionalização, erigiu uma modalidade, o Enade, como a principal fonte de indicadores para a regulação, subordinando as demais, ACG e Avalies à primeira. O segundo investigou a operacionalização do sistema português, caracterizado pela ausência de um exame de desempenho em sua estrutura e com similaridades partilhadas com o Sinaes em seu processo de avaliação externa. No terceiro avaliaram-se os resultados do exame de desempenho de um triênio em 55 áreas de graduação do Brasil, com foco nas relações entre os insumos e o desempenho, a fim de se investigar quão homogênea é esta estrutura de relações e, consequentemente, o quão generalizável é o principal indicador utilizado na regulação da Educação Superior, o CPC. Com base nisto propõe-se a tese de que o Sinaes, na forma como vem sendo operacionalizado, não atende aos princípios originalmente estabelecidos e nem atinge os objetivos inicialmente traçados para o sistema. A centralidade do Enade no processo avaliativo e regulatório descaracterizou o sistema de avaliação. Porém, é possível um resgate aos princípios originais, em maior ou menor grau, a partir da reconfiguração de suas modalidades. As conclusões, considerações e possibilidade advindas desta proposição foram descritas recorrendo-se às perguntas iniciais elaboradas, como se segue: Qual foi o percurso do Sinaes em seus dez anos de operacionalização? Como as suas modalidades foram se configurando neste percurso de forma a culminar na centralidade do exame do desempenho frente às demais? A centralidade do Enade frente às demais modalidades do Sinaes tem seus fundamentos no alinhamento do processo educativo com o processo fabril. A eleição de um exame de desempenho como principal indicador decorre da ideia de que, como qualquer processo material, a educação gera produtos que, ao serem avaliados, permitem inferir acerca da qualidade do processo. No percurso do Sinaes, as escolhas foram se realizando de acordo com os binômios simplicidade/complexidade, neutralidade/envolvimento, distância/proximidade, conforme detalhado no primeiro 155 movimento deste estudo. Das modalidades, qual teria maior capacidade de emitir juízo de valor de forma mais simples, neutra e distante? A Avalies interna, sua autoavaliação conduzida por papéis imbricados entre avaliado e avaliador e julgamentos qualitativos complexos e por vezes contraditórios? A ACG, com a subjetividade inerente ao avaliador, que por mais distante do avaliado ainda é par deste? Ou o Enade, cujo resultado se refere ao desempenho do aluno em um teste padronizado? Obviamente o Enade responde melhor à tríade simplicidade-neutralidade-distância para a atribuição de um juízo de valor. Ele configura a modalidade mais racional e tecnocrática do Sinaes: Baseia-se, por isso, no cálculo e na mensuração dos resultados, desvalorizando os processos e os resultados mais difíceis de contabilizar, favorece a estandardização, a avaliação externa e a quantificação, promove a exterioridade e a distância entre avaliadores e avaliados (Lima, 2012, p. 153). Destaca-se que o Enade, como teste de desempenho particular (o resultado do aluno na prova) gera consequências no âmbito coletivo – a regulação do curso e da IES, em um movimento de indicadores “low para high stakes” sem agregação neste percurso de qualquer outra fonte de dado ou informação qualitativa. A Figura 3, que sumariza as relações existentes entre as três modalidades do Sinaes e seus índices, demonstra esse percurso e expõe a centralidade do Enade como a modalidade geradora da regulação. O Enade, ao gerar o índice Enade (a nota Enade, nota padronizada do desempenho do estudante na prova), provoca uma cascata de indicadores agregados nos quais as outras duas modalidades não intervêm. Tais indicadores (IDD e CPC), estabelecidos primariamente no âmbito do curso, são extrapolados para o âmbito institucional (IGC). Apesar das outras duas modalidades, ACG e Avalies (externa), também gerarem seus índices, no âmbito do curso (CC) e da IES (CI), tanto um como o outro sofrem influência dos seus pares advindos do Enade, respectivamente o CPC e o IGC. Esta influência está materializada na legislação76 relacionada à renovação de curso conforme o CPC e processo de abertura de novos cursos: dispensa de avaliação in loco (a ACG) conforme o IGC da IES. 76 ver despacho 281 de 18 de dezembro de 2014 e Instrução normativa número 4 de 31 de maio de 2013. 156 Figura 3 – Relação atual entre as modalidades e seus índices do Sinaes. Avalies Interna Enem Enade Relato Institucional IDD Enade Censo ES Âmbito do curso Questionário Estudante ACG CC CPC Conceitos CAPES Âmbito da IES IGC modalidade Avalies Externa CI índice insumo Fonte: o autor A Avalies e sua componente interna, o processo de autoavaliação da IES, tem seu resultado, o relatório de autoavaliação, sumarizado no relato institucional, a nova77 “funcionalidade” criada para a Avalies a fim de justificar sua existência no sistema. Sua influência é discutível, tendo em vista que a opinião do avaliador externo na ACG ou na Avalies externa não necessariamente precisa ser modificada pelo relato da CPA. E mesmo que isto aconteça e que a Avalies interna possa ser considerada na ACG, o resultado desta última, o CC, continua sendo influenciado pelo CPC, tanto pelo fato exposto acima quanto por sua publicidade, ampla na mídia, ao contrário do CC. Nestes dez anos o percurso do Sinaes em direção à racionalidade técnica – simplificação da diversidade da avaliação, suposta neutralidade advinda de juízos de valor baseados em indicadores quantitativos e distância do contexto educacional local – 77 O relato institucional data de 2014. 157 levou à minimização da dimensão qualitativa da avaliação e de sua análise como processo, ou seja, da Avalies e da ACG. Elevou-se então à dimensão mensurável e pontual do produto final: o desempenho do estudante no Enade. Como se processa a avaliação do ensino superior português, no qual o exame de desempenho é ausente? Que similaridades e diferenças podem ser observadas entre os dois sistemas? Em contraste ao Sinaes, dependente em alto grau de seu exame de desempenho, o sistema de avaliação português prescinde de um exame deste tipo. Neste a modalidade de avaliação por pares (a ACG do Sinaes) é central no processo. Esta é precedida por uma autoavaliação, disponibilizada aos avaliadores antes da visita in loco para que estes possam atribuir seu próprio valor aos aspectos avaliados. O processo é similar ao que ocorre na ACG, com a diferença que esta não conta com uma avaliação prévia propriamente dita no âmbito dos cursos de graduação. Esta avaliação, considerada pela pelo sistema como autoavaliação, tem seu processo estabelecido a priori por um conjunto padrão de indicadores por ela estabelecida, e somente estes indicadores podem ser utilizados no processo de avaliação. Devido à impossibilidade de eleição, por parte da própria instituição, dos aspectos a serem avaliados, esta avaliação é mais apropriadamente uma avaliação interna do curso do que uma autoavaliação. Outra distinção do sistema português frente ao brasileiro é que no primeiro inexiste a autoavaliação no nível institucional como uma modalidade distinta. Os aspectos institucionais são avaliados (ou não) nos processos de avaliação interna dos cursos. Em contrapartida, a adoção de um sistema interno de garantia de qualidade dos cursos pela IES, com consequente avaliação interna contínua, pode acarretar a substituição da avaliação externa dos cursos pela auditoria externa do sistema de garantia de qualidade. Neste caso a própria IES faz sua avaliação de cursos e a avaliação externa faz somente a avaliação deste sistema interno de avaliação. Este movimento ainda está em desenvolvimento em Portugal e ocorre em maior ou menor grau em outros países da União Europeia. Apesar das distinções na operacionalização, os sistemas compartilham a necessidade de indicadores minimamente mensuráveis, comparáveis e, por isso, 158 padronizados. Os sistemas adotam critérios mínimos para funcionamento dos cursos e IESs. Também compartilham a ideia de que a distância entre avaliador e avaliado qualifica o processo. Na percepção dos pesquisadores portugueses, a diferença mais notória entre os sistemas, a presença do Enade no Sinaes, é vista como um ponto negativo, devido à impossibilidade de se avaliar um processo por meio de um resultado mensurado ao final deste. Além disso, a presença de um exame de estudantes concluintes pode limitar a prática docente no que se refere à escolha dos conteúdos. Quanto aos referenciais dos sistemas de avaliação, a visão é de que ambos se valem de pressupostos tecnocráticos e produtivistas, estabelecidos à semelhança do âmbito empresarial. Quantificação, uniformização, comparação e divergência competitiva são palavras-chave nos dois sistemas. O processo de autoavaliação é visto como fundamental para qualquer sistema, seja no âmbito do curso ou institucional. A percepção é de que em ambos os sistemas a autoavaliação está conformada a um processo externo: na A3ES pela vinculação dos indicadores de avaliação aos da avaliação externa; no Sinaes ela não é considerada no processo de regulação, que se utiliza da avaliação externa e, para a maioria dos cursos, do exame de desempenho do estudante. Quanto às consequências da regulação na vida acadêmica, os sistemas apresentam mais similaridades do que diferenças. A consequência considerada mais positiva foi a autorregulação institucional na oferta de cursos, estimulada após a implantação dos sistemas. No entanto, existe preocupação no que se refere à mudança de perfil acadêmico para um perfil administrativo, tendo em vista o aumento destas atividades, necessárias ao processo regulatório. Outro aspecto é a padronização de metodologias e conteúdos no âmbito dos cursos. Institucionalmente, foi apontado o perigo das IESs criarem representações de si mesmas como resposta ao mecanismo de regulação. 159 Quão justificável é o papel central do Enade no Sinaes? Quão generalizável é o seu principal índice derivado, o Conceito Preliminar de Curso – CPC, como indicador de qualidade dos cursos de graduação brasileiros? No Enade, a modalidade principal geradora dos índices do sistema, tem o CPC, como central (a Figura 3 explicita esta posição). Este é calculado com base em dois pressupostos: 1. O desempenho dos estudantes tem relação direta (e linear) com a titulação e regime de trabalho do corpo docente e com a percepção dos alunos quanto à presença de equipamentos para aulas práticas e completude dos planos de ensino. 2. Esta relação é homogênea para o universo da Educação Superior brasileira, independentemente da área do curso, da região em que a IES está localizada, bem como de sua organização acadêmica ou categoria administrativa. O exame desta relação para o triênio 2008-2010 do Enade evidenciou que o pressuposto 1 é atendido para a maioria das 55 áreas estudadas; mas em onze áreas não foi observada significância para o Enade contínuo; e 18 das 55 áreas para o IDD. Em relação aos insumos, a nota de Doutores e a nota da Infraestrutura se destacaram como os mais frequentes, enquanto que a nota de Mestres foi o insumo menos ocorrente. Esta frequência foi fortemente vinculada à área, contrariamente ao pressuposto 2. Também foram observadas diferenças entre as regiões federativas, organizações acadêmicas e categorias administrativas. Os resultados apontam que a estrutura de relações subjacente à construção do CPC tem mais propriedade para as Universidades Privadas, quando considerada a Região Sul, e para as Universidades Públicas do Sudeste, isso para algumas áreas avaliadas e não para todo o conjunto de áreas. Conclui-se que o CPC não pode ser utilizado como único indicador de qualidade dos cursos de graduação. Os resultados mostraram um panorama complexo que precisa ser examinado em detalhe, de forma que o indicador CPC possa ser avaliado qualitativamente dentro do contexto em que foi produzido. Isso significa introduzir na avaliação do CPC as demais variáveis, e especificamente aquelas relacionadas ao contexto da IES, seja por sua localização (a distribuição espacial), seja sua categoria ou organização. E outras mais que não foram objeto deste estudo. 160 Que possibilidades podem ser divisadas para o Sinaes? Para o exame das possibilidades do sistema em relação a articulação entre as modalidades, foram elaborados três cenários que prospectam os próximos anos do Sinaes. Nestes cenários, a pretensão de retornar ao que originalmente se preconizou para o sistema foi exercitada em maior ou menor grau. A proposta original do Sinaes previa uma articulação entre suas três modalidades de tal forma que o sistema se autorregularia por meio de processos de meta-avaliação (BRASIL, 20014, p. 112). Na leitura deste documento percebeu-se uma construção coletiva e madura de um exercício avaliativo que se iniciou com o PARU, teve sua contraposição no GERES, atingiu uma maturidade no PAIUB e finalmente culminou com a proposta do sistema. Desta forma, na descrição dos três cenários recorreu-se sempre que possível ao texto disposto no documento que concebe e regulamenta o Sinaes. Visto o Enade ser a principal modalidade do sistema, cada cenário foi concebido tomando-se como foco central a presença ou ausência do exame de desempenho. No primeiro cenário, o Enade continua como a principal modalidade do sistema e os esforços são conduzidos para o seu aprimoramento: sua elaboração, a construção de seus índices e sua divulgação para a comunidade. No segundo cenário, o Enade é extinto, e se faz um exercício de aproximação com o modelo de regulação praticado na comunidade europeia, a partir do estudo produzido no segundo movimento desta tese. Aqui os esforços se voltam para a ACG e para a Avalies. O terceiro cenário dedica-se a manter as três modalidades no sistema, e com isso promover uma profunda reestruturação de todas elas, contemplando as modificações propostas nos dois cenários anteriores. CENÁRIO 1 – MANTÉM-SE A RELAÇÃO ATUAL ENTRE AS TRÊS MODALIDADES E APRIMORASE O ENADE Neste cenário, as duas modalidades do sistema, Avalies e ACG, se mantêm com suas configurações atuais, e a atenção se volta ao aprimoramento do Enade e dos índices dele derivados. Espera-se a continuidade dos estudos de indicadores do questionário socioeconômico do Enade e, consequentemente, a inserção de outros insumos para o 161 cálculo do CPC, que modifica seu nome para Índice de Desempenho do Curso – IDC para se adequar a sua natureza de índice de desempenho (Figura 4). Aspectos como os pesos utilizados no índice também são investigados e propostos novos critérios para sua distribuição. A divisão de tarefas entre Seres, Inep e o recém-aprovado INSAES permite ao Inep ampliar o número de áreas participantes do Enade, um dos aspectos limitantes para o uso do Enade como modalidade principal no sistema. O Enade passa a existir para todas as áreas de graduação brasileiras. Figura 4 – Relação entre as modalidades e seus índices do Sinaes no Cenário 1. Avalies Interna Enem Enade Relato Institucional IDD Enade Censo ES Âmbito do curso Questionário Estudante ACG CC IDC Conceitos CAPES Área Contexto regional Âmbito da IES IDI modalidade Avalies Externa CI índice insumo Fonte: o autor Estudos são iniciados para adequar o novo Índice de Desempenho do Curso IDC à diversidade institucional nacional, principalmente na atribuição de pesos diferenciados conforme a região federativa, a organização acadêmica ou a categoria administrativa. Os insumos do corpo docente são ponderados de acordo com a 162 organização acadêmica, com peso maior para as universidades do que para as demais organizações. Os novos insumos de Organização Didático-Pedagógica e Infraestrutura também apresentam pesos diferenciados conforme o tipo da IES. Porém, mais que isso, como o IDC mantém seu algoritmo composicional, os dois insumos se tornam mais complexos de forma a abranger minimamente sua natureza multivariada 78 . Desta forma várias questões do questionário socioeconômico são criadas e reformuladas para atender a estes dois insumos. Outros aspectos como a forte presença da extensão, da modalidade a distância e da integração com o mercado profissional no perfil institucional também são considerados no cômputo do índice. Devido às mudanças no Índice de Desempenho do Curso - IDC, o Índice Geral de Cursos - IGC também sofre modificações e destas, a maior se refere à distinção do cálculo do IGC conforme a organização acadêmica. As Universidades mantêm o cálculo atual, que privilegia as IESs com maior percentual dedicado à pós-graduação. Demais organizações como os Centros Universitários, Institutos e Faculdades contam com uma construção diferenciada do índice. O IGC é renomeado para Índice de Desempenho Institucional - IDI devido a agregação dos índices de desempenho dos cursos stricto sensu advindos da Capes. As provas do Enade se aprimoram para se adequar à diversidade das IESs e à flexibilidade curricular. O banco de itens do Enade cresce para se aproximar da sua proposta de atender às diretrizes curriculares nacionais dos cursos de graduação. Estudos são iniciados para que as médias brutas do desempenho possam ser comparáveis entre as áreas e, assim, possibilitarem a adoção de um critério mínimo de desempenho, modificando a atual estrutura normalizada em que o exame se baseia. A publicação dos resultados do Enade e dos índices dele derivados modifica-se com a diversificação dos cálculos dos índices. O órgão responsável pela publicação investe na divulgação para o público não especializado das diferenças vocacionais das 78 Em 2013 esse movimento já foi iniciado, com a adoção de um conjunto de questões acerca da Infraestrutura Física e Organização Didático-Pedagógica do curso como componentes do insumo, provindas do questionário socioeconômico do Enade. 163 IESs, como auxílio para a melhor escolha conforme o projeto pessoal. Os índices nota Enade, IDD e IDC são publicados em conjunto e distinguidos de forma clara, informando ao público o que cada um deles indica e, principalmente, o que deixa de indicar. CENÁRIO 2 – MANTÊM-SE AS MODALIDADES ACG E AVALIES E EXTINGUE-SE O ENADE Neste cenário o Sinaes abandona o exame de desempenho e aprimora suas duas outras modalidades, se aproximando do modelo de avaliação e acreditação europeu. Os procedimentos e instrumentos utilizados no ARCU-SUL, similares ao europeu, são integrados, em menor ou maior grau, no processo da ACG, e as instituições passam a contar com um processo prévio de autoavaliação dos cursos para posterior avaliação externa. Da mesma forma que o Enade se diversificou para atender às diferenças institucionais, neste os instrumentos da ACG também se modificam de acordo com os aspectos mencionados no primeiro cenário. No âmbito da Avalies interna, a Comissão Própria de Avaliação – CPA modifica seu papel, e se torna um organismo central na IES que articula as Comissões de Autoavaliação do Curso – CACs. Esta função é assumida pelo Núcleo Docente Estruturante, ou pelo Colegiado do Curso, ou por uma comissão mista. Amplia-se a participação dos alunos. O instrumento de autoavaliação é idêntico ao instrumento de avaliação externa79 e os resultados desta autoavaliação são submetidos à meta-avaliação pela CPA (ou Comissão Central de Avaliação – CCA, como disposto no documento original do Sinaes). Após o endosso da CPA, o documento é submetido à plataforma do MEC que o disponibiliza à comissão externa da ACG (Figura 5). Neste cenário, a inexistência do Enade, aliada à rejeição aos índices hoje utilizados para a regulação, leva o governo a abandonar a escala ordinal de um a cinco para a publicação do Índice de Curso - CC. Este conceito é substituído por uma certificação categórica do tipo “cumpre”, “não cumpre”, ou pela vinculação do reconhecimento/renovação de curso por períodos diferenciados. Neste caso a 79 Como ocorre com o modelo europeu e o praticado pelo ARCU-SUL. 164 certificação (ou acreditação caso o termo seja adotado) ocorreria em três possibilidades ao invés de duas: cumpre plenamente, com certificação por seis anos; cumpre com restrições, certificação por três anos e não cumpre, sem certificação. No último caso, similar ao que ocorre no sistema atual, o curso passa por processo de supervisão. Figura 5 – Relação entre as modalidades e seus índices do Sinaes no Cenário 2. Avalies Interna Âmbito do curso ACG Certificação curso Avalies Interna Âmbito da IES Avalies Externa Certificação IES Fonte: o autor À CPA (ou CCA) caberá produzir um relatório geral de autoavaliações que integra as análises realizadas nos relatórios de curso com a avaliação geral da IES. Da mesma forma que na ACG, esta autoavaliação é submetida à comissão externa da 165 Avalies. Nos casos das IESs multicampi, cada unidade passa a contar com uma comissão setorial de avaliação80 (CSA), conforme se pretendeu na proposta do sistema: Recomenda-se que cada instituição constitua uma Comissão Central de Avaliação (CCA), vinculada ao conselho ou órgão colegiado superior, que representará a instituição em matéria de avaliação. De acordo com as características estruturais de cada IES, podem criadas também comissões setoriais de avaliação (CSA) (BRASIL, 2004, p. 106). A evolução deste cenário poderia culminar em uma “divisão de tarefas” entre os órgãos governamentais e possíveis agências avaliadoras independentes, que passariam a realizar o papel da ACG. Neste cenário também se poderia admitir a presença das agências não governamentais na Avalies externa, ou ainda, similarmente ao processo europeu, as próprias IESs passariam a realizar o papel da ACG, por meio de sistemas de garantia de qualidade. Neste caso avaliação externa ocorreria somente em relação a estes sistemas. Se este procedimento fosse realizado por “agências certificadoras” destes sistemas internos de garantia, caberia ao INSAES somente a auditoria das agências de avaliação. CENÁRIO 3 – MANTÊM-SE E APRIMORAM-SE AS TRÊS MODALIDADES Neste cenário, todas as ações propostas para os anteriores são executadas, aumentando a complexidade das relações entre as modalidades em uma tentativa de retorno dos pressupostos originais adotados pelo sistema, conjugando: [...] os dois modelos de avaliação: a avaliação formativa, de caráter educativo, com o intuito de radiografar o funcionamento da IES, apontando os seus pontos fortes e fracos, permitindo, assim, o aprimoramento contínuo do seu trabalho; e a avaliação regulatória, ou somativa, com o intuito de verificar as condições de funcionamento da IES, exigindo um padrão mínimo de qualidade para a sua permanência no Sistema Federal de Ensino Superior. (RIBEIRO, 2015, p. 157). A manutenção do Enade e dos índices de desempenho implica na utilização de índices nas demais modalidades. A Avalies interna torna-se a modalidade central no 80 E neste caso pelo menos um membro de cada uma das CSA deverá compor a CCA. 166 sistema, tanto no âmbito do curso quanto no da instituição. No documento original do Sinaes a Avalies é considerada como ponto de partida do processo de avaliação: O ponto de partida dos processos que constituem o sistema avaliativo situa-se em cada instituição de educação superior. De acordo com lineamentos gerais e indicadores comuns, propostos mais adiante, e de outras decisões específicas, cada instituição realizará uma autoavaliação, que se completa a cada três anos, e que será o primeiro instrumento a ser incorporado ao conjunto de instrumentos constitutivos do processo global de regulação e avaliação. (BRASIL, 2004, p. 103). Neste cenário a Avalies interna se torna também um ponto de retorno do processo (e não seu ponto final), no qual os índices de desempenho do Enade e aquele derivado da ACG passam a ser fonte primária para o processo de autoavaliação. Esta autoavaliação contém um conjunto de indicadores padrão com a ACG de forma a possibilitar um contraste de ambas as visões, interna e externa, mas estabelece indicadores específicos ao contexto da IES, que também são considerados pela ACG com peso idêntico ao conjunto padrão, configurando-se em um retorno à proposta original do Sinaes: A auto-avaliação articula vários instrumentos: a) um auto-estudo segundo o roteiro geral proposto em nível nacional, acrescido de indicadores específicos, projeto pedagógico, institucional, cadastro, censo; e b) o novo instrumento, o Paideia (BRASIL, 2004, p 104). A Figura 6 sumariza as novas relações e os novos índices estabelecidos neste cenário. 167 Figura 6 – Relação entre as modalidades e índices do Sinaes no Cenário 3. Enem Enade IDE IDD Censo ES Avalies Interna CIC Questionário Estudante Âmbito do curso IDC CGC Conceitos CAPES ACG CEC Avalies Interna IDI CGI Âmbito da IES CII CEI modalidade Avalies Externa índice insumo Fonte: o autor Na figura observa-se que todos os índices derivados do Enade são mantidos. A nota contínua Enade é renomeada para Índice de Desempenho do Estudante - IDE. Deste índice é agregado o ENEM para gerar Índice de Diferença entre Desempenho observado e esperado - IDD, e por meio dos demais insumos o Índice de Desempenho do Curso – IDC. O IDC fornece indicação para Avalies interna, que se utiliza dos resultados do desempenho no seu processo avaliativo. Por meio de suas comissões de 168 autoavaliação de curso - CACs, gera-se um indicador para cada curso ao final do seu relatório de autoavaliação de curso, o Conceito Interno do Curso – CIC. Ambos, IDC e CIC, são considerados no processo de avaliação externa conduzida pela ACG, que ao final do processo gera o Conceito Externo do Curso – CEC. Tem-se então o curso composto por três indicadores distintos: um devido ao desempenho dos estudantes, o IDC; outro devido à avaliação interna, o CIC, que contém o juízo qualitativo do IDC e o terceiro advindo da avaliação externa, o CEC, que contém juízos relativos tanto ao IDC quanto ao CIC. Os três indicadores poderão (ou não) compor um Conceito Geral do Curso - CGC. De qualquer forma, neste cenário todos os indicadores e suas dimensões de origem são publicados separadamente81, a fim de que o público não especializado consiga discernir o que provém do desempenho, daquilo que é interno da IES e do que é da avaliação dos pares. Caso se adote o Conceito Geral do Curso - CGC, este poderá ser calculado com base em regras de inclusão e exclusão, como, por exemplo: o CGC somente é gerado no caso de os três índices que o compõem diferirem em um valor máximo. Esse procedimento resguarda o índice de um cálculo mediano espúrio, no caso de grande divergência entre os três indicadores. A relação exposta para as três modalidades no âmbito do curso tem paralelo na instituição. A média ponderada do IDC é utilizada para o cálculo do Índice de Desempenho Institucional - IDI, à semelhança do que hoje ocorre com o CPC e o IGC. Tanto em um quanto em outro destes novos índices, o termo “desempenho” foi preferido aos termos atuais, “preliminar” e “índice geral de cursos”, com o intuito de reforçar ao público a relação destes índices com o desempenho dos estudantes, considerando ser este o componente principal no cômputo dos índices, mesmo que a ele sejam agregados os demais insumos E mesmo estes, Corpo Docente, Infraestrutura e Organização Didático-Pedagógica, da forma como são produzidos, podem ser considerados indicadores de desempenho82., mais do que indicadores de qualidade do curso. No caso do CPC, a presença do termo “preliminar” traz a ideia de que em um momento posterior ele será transformado, o que na prática não ocorre, já que o CPC se mantém como CPC mesmo com a atribuição de um CC ao mesmo curso. Essa 81 Com súmulas textuais indicando os aspectos que constituíram o valor do índice. Se o termo desempenho for identificado a características relativas a determinada expectativa predefinida, podemos considerar todos os insumos como indicadores de desempenho. 82 169 característica, no limite, leva a distorções nos dois índices, já que um mesmo curso poderá ter CC igual a cinco e CPC igual a um (os extremos da faixa), confundindo aquele que pretende se valer de tais índices como auxiliares em uma tomada de decisão, como, por exemplo, na escolha de um curso de determinada IES. Quanto ao Índice Geral de Cursos - IGC, o termo não é forte o suficiente para remeter à sua natureza institucional. Tem-se a ideia de que ainda está a se referir ao âmbito da graduação o que, na verdade, não ocorre, pois os conceitos dos cursos de pósgraduação lato sensu são agregados ao índice. Como os conceitos da Capes também são índices derivados de desempenho, e não somente do curso per si, mas da produtividade docente e discente (ou seja, desempenho!) torna-se mais adequado o termo desempenho institucional. O Conceito Interno Institucional – CCI é produzido pela Comissão Central de Avaliação – CCA, com base nos conceitos internos de cada curso e das avaliações globais realizadas pela Comissão de Autoavaliação de Curso - CAC. Este indicador, diferentemente do IDO, agrega não somente o desempenho institucional, avaliado qualitativamente pela CCA, mas outros indicadores que, no entendimento da CCA, permitem a visão global da IES. Atende-se com isso outro princípio da proposta original do Sinaes: Os processos avaliativos precisam construir a globalidade e a integração relativamente aos sujeitos e ao objeto. A redução do fenômeno complexo e multidimensional da avaliação a um só ou a poucos de seus aspectos, sem articulação, traz o risco de passar a idéia de que a avaliação se reduz a cada um desses instrumentos, em geral dedicados a medir, quantificar e comparar. A repetição dessa prática acaba criando uma cultura que desfigura a avaliação, reduz as dúvidas, ambiguidades e inovações a favor do simplismo do certo ou errado. (BRASIL, 2004, p. 91) Por isso é fundamental que a Avalies interna disponha de um conjunto amplo de indicadores que possam ser analisados em sua natureza quantitativa, e com isso auxiliar o processo qualitativo maior da avaliação. Tal exame obriga a Avalies interna a se valer dos resultados do desempenho dos estudantes e dos cursos stricto sensu para incluí-los em sua autoavaliação. Mas não somente isso. Em dez anos de Sinaes, a atuação das CPAs tem se limitado (referindo-se àquelas que em dez anos apresentam uma estrutura funcional) a utilizar de instrumentos de pesquisa de percepção de alunos, egressos, docentes, funcionários e comunidade externa para sua atividade de avaliação. E com 170 isso deixam de utilizar diversas outras fontes de informação e dados como pontos iniciais de análise: rendimento acadêmico, às estatísticas de uso do acervo, às estatísticas de bolsas e financiamentos, às avaliações internas dos projetos pedagógicos dos cursos, às produções científica, técnica e extensionista, e tantas outras informações que podem ser avaliadas no cotidiano institucional e que independem de um instrumento de pesquisa de opinião. Este, em princípio, deveria ser utilizado na prospecção de necessidades e no contraste da percepção em relação aos serviços educacionais. Exemplo: dados que mostram que um expressivo percentual do alunado é contemplado com bolsas de estudo, mas, no entanto, a pesquisa de percepção indica que, na opinião do aluno, a IES disponibiliza poucas bolsas de estudos. Neste contraste é possível inferir que é a política de comunicação institucional que necessita de ajustes e não a política de bolsas. Este é um exemplo que mostra que tais pesquisas não podem ser utilizadas como o instrumento principal de avaliação. Ao que parece, as IESs brasileiras, tanto refutam a ideia de que somente os resultados de um exame desempenho possam ser o indicador de qualidade de si próprias, como fazem o mesmo quando, paradoxalmente, elegem as pesquisas de opinião como seu principal instrumento de avaliação. Desta forma é fundamental que a Avalies interna se qualifique para realizar a complexa e ampla tarefa de autoavaliação. As comissões de avaliação têm que forçosamente compreender em profundidade a construção dos diversos índices do sistema. E felizmente elas têm essa condição, pois existem no seio de uma instituição que bem mais que outras, têm disponíveis profissionais para tal tarefa. Além do exame dos resultados produzidos pelas outras duas modalidades, a Avalies tem a tarefa de produzir indicadores específicos que reflitam o contexto da IES, complementando os indicadores comuns a todas as IESs brasileiras: No desenho da regulação e da avaliação, cada instituição deveria submeter-se ao cumprimento das normas oficiais e aos critérios, indicadores e procedimentos gerais, porém, ao mesmo tempo, exercitar sua liberdade para desenvolver, no que for possível e desejável, processos avaliativos que também correspondam a objetivos e necessidades específicos. Além disso, a avaliação deve servir de instrumento para aumentar a consciência sobre a identidade e, portanto, as prioridades e potencialidades de cada instituição em particular. (BRASIL, 2004, p. 90). 171 Com isso a Avalies interna passa a apresentar condições de produzir informações, análises e juízos de valor suficientes para que a ACG tenha visões relevantes do contexto da IES, as quais lhe são impossíveis de perceber no curto prazo que tem para seu processo de avaliação. Em contrapartida, a avaliação externa presta um importante serviço para a Avalies: O exame de fora para dentro pode corrigir eventuais erros de percepção produzidos pela adesão espontânea dos agentes internos, muitas vezes acostumados acriticamente às rotinas e mesmo aos interesses corporativos (BRASIL, 2004, p.103). A avaliação externa, a partir do seu instrumento de avaliação que contém indicadores em comum com o instrumento interno da Avalies, e de posse de indicadores internos que contextualizam a IES, construídos livremente pela Avalies, sintetiza seu juízo de valor no Conceito Externo Institucional - CEI, que desta forma contém em si uma meta-avaliação da autoavaliação que gerou o Conceito Interno Institucional - CII, e este por sua vez conta com o CEI como subsídio à sua construção, conforme exposto na proposta do Sinaes: As ações da avaliação interna e externa devem realizar-se de forma combinada e complementar, em ambas devendo haver plena liberdade de expressão e comprometimento com a busca do rigor e da justiça (BRASIL, 2004, pp.102-103). Os três indicadores, CDI, CII e CEI são publicados de forma similar àqueles do âmbito do curso e podem constituir o Conceito Geral Institucional – CGI, caso tenham coerência entre si. Neste cenário e no anterior, o Sinaes poderia ou não evoluir para um sistema em que a ACG acabe por se transformar em uma auditoria externa, ou seja, a ACG avaliaria a atuação da Avalies. À Avalies caberia avaliar os cursos e a ACG avaliaria a avaliação da Avalies. Reconhece-se que a diversidade, expressa pelo conjunto comum de indicadores institucionais e por outro específico da IES traz consigo vantagens, mas aumenta a complexidade da avaliação. Um voto de confiança precisa ser dado à Avalies quando esta elabora critérios de avaliação específicos, que não podem ser aplicados na mesma medida em outras IESs. Em contrapartida, as IESs envidariam esforços na constituição de um órgão avaliativo que tenha condições de realizar uma autoavaliação rigorosa e aberta à crítica externa. 172 Na publicação dos resultados, da mesma forma que na avaliação dos cursos, súmulas (uma lauda?) qualitativas das avaliações conduzidas pela ACG e Avalies acompanhariam os indicadores. Tais súmulas, elaboradas em linguagem acessível ao público, conteriam, na visão da IES (junto ao Conceito Interno Institucional - CII) e da avaliação externa (Conceito Externo Institucional - CEI), referências aos pontos fortes da IES, aos aspectos considerados somente suficientes e aos que necessitariam de aprimoramentos, fornecendo informações básicas para a escolha de um curso de graduação em uma IES. Estes três cenários expõem as possibilidades antevistas durante a consecução deste estudo. Espera-se que estas, mesmo que consideradas utópicas, por sua proposta de subordinação do elemento quantitativo ao caráter qualitativo, sejam consideradas e avaliadas pelos pesquisadores da área, gestores do governo e das IESs brasileiras, em um esforço conjunto e continuado para uma Educação Superior reconhecida pela sociedade. Recorro à primeira pessoa para finalizar este estudo com uma consideração particular: se as proposições aqui expostas pareceram utópicas é porque considero que a utopia faz parte da missão da Universidade. Penso que é fundamental refletir sobre a ideia de que a educação é um esforço individual, coletivamente produzido, mas essencialmente individual para superação de limitações na busca de utopias. Em nossa sociedade atual, a tecnologia tem reduzido cada vez mais o tempo de esforço humano nas tarefas. Manter-se no conhecimento útil, com resultados concretos e quantificáveis implica seres humanos que não julgam mais necessário o esforço de superação de algo que não tem um fim observável. Significa menos aspiração e uma imaginação circunscrita ao prático, em uma direção que apequena o conceito de humanidade. 173 REFERÊNCIAS AFONSO, A. J. Avaliação educacional: regulação e emancipação. São Paulo: Cortez, 2000. ______. Reforma do Estado e políticas educacionais: entre a crise do estado-nação e a emergência da regulação supranacional. Educ. Soc., Campinas, v.22, n.75, p.15-32, ago. 2001. ______. Estado, globalização e políticas educacionais: elementos para uma agenda de investigação. Revista Brasileira de Educação, n. 22, p. 35-46, jan.-abr. 2003. ______. Políticas avaliativas e accountability em educação – subsídios para um debate iberoamericano. Sísifo - Revista de Ciências da Educação, Lisboa, n. 9, p.57-70, mai./ago. 2009. ______. Protagonismos instáveis dos princípios de regulação e interfaces público/ privado em educação. Educ. Soc., Campinas, v.31, n.113, p.1137-1156, out.-dez. 2010. ______. Ensaio sobre a Accountability no Ensino Superior em Portugal (1976-2013): Discursos, formas parcelares e modelo atual. In: SOUSA, José Viera de (org.). Educação Superior: cenários, impasses e propostas. Campinas: Autores Associados, 2013a. pp. 13-60 ______. Mudanças no Estado-avaliador: comparativismo internacional e teoria da modernização revisitada. Revista Brasileira de Educação, Rio de Janeiro, v. 18, n. 53, p. 267-284, 2013b. AFONSO, A. J.; RAMOS, E. V. O Estado-nação, educação e cidadanias em transição. Revista Portuguesa de Educação, v. 20, n.1, p. 77-98, jan. 2007. AGÊNCIA NACIONAL DE AVALIAÇÃO E ACREDITAÇÃO DO ENSINO SUPERIOR (A3ES). Manual de Avaliação. A3ES Versão 1.1 de maio de 2013, 59 pp. ALMEIDA Jr., V. P.; CATANI, A.M. Algumas características das políticas de acreditação e avaliação da educação superior da Colômbia: interfaces com o Brasil. Avaliação, Campinas; Sorocaba, SP, v.14, n.3, p. 561-582, nov. 2009. AMARAL, A.; MAGALHÃES, A. O conceito de stakeholder e o novo paradigma do ensino superior. Revista Portuguesa de Educação, v.13, n.2, p. 7-28, 2000. BABBIE, E. Métodos de pesquisa de survey. Belo Horizonte: Ed. da UFMG, 1999. 519 p. BALL, S. Sociologia das políticas educacionais e pesquisa crítico-social: uma revisão pessoal das políticas educacionais e da pesquisa em política educacional. Currículo sem Fronteiras, v.6, n.2, p.10-32, jul./dez. 2006. ______. Performatividades e fabricações na economia educacional: rumo a uma sociedade performativa. Educação e Realidade, v.35, n.2, p.337-55, maio/ago. 2010. 174 ______. Global education inc.: new policy networks the neo-liberal imaginary. Routledge: London/New York, 2012. 163 p. BARDIN, L. Análise de conteúdo. São Paulo: Edições 70, 2011, 288 p. BARREYRO, G. B.; ROTHEN, J. C.. “Sinaes” contraditórios: considerações sobre a elaboração e implantação do Sistema Nacional de Avaliação da Educação Superior. Educ. Soc., Campinas, v. 27, n. 96 - Especial, p. 955-977, out. 2006. ______.; ______. Para uma história da avaliação da Educação Superior Brasileira: análise dos documentos do Paru, Cnres, Geres e Paiub. Avaliação, Campinas; Sorocaba, SP, v.13, n.1, p.131-152, mar. 2008. BARREYRO, G. B.; LAGORIA, S. L.; HIZUME, G. C. As Agências Nacionais de Acreditação no Sistema ARCU-SUL: primeiras considerações Avaliação, Campinas; Sorocaba, SP, v. 20, n. 1, p. 49-72, mar. 2015. BITTENCOURT, H. R.; CASARTELLI, A. O.; RODRIGUES, A. C. M. Sobre o índice geral de cursos (IGC). Avaliação, Campinas; Sorocaba, SP, v.14, n.3, p.667-682, nov. 2009. BRASIL. Comissão Nacional de Avaliação. Avaliação das universidades brasileiras: uma proposta nacional. Documento Básico. Brasília, nov. 1993. ______. Secretaria de Ensino Superior. Programa de Avaliação Institucional das Universidades Brasileiras. MEC/SESu. Brasília: SESu, 1994. ______. Decreto nº 3.860, de 9 de julho de 2001. Dispõe sobre a organização do ensino superior, a avaliação de cursos e instituições, e dá outras providências. D.O.U, Brasília, DF, 10.07.2001. Seção 1 - Eletrônico, p. 2. Disponível em:<http://www2.camara.gov.br/legin/fed/decret/2001/decreto-3860-9-julho-2001342382-publicacaooriginal-1-pe.html>. Acesso em: 28 fev. 2012. ______. Sinaes – Sistema Nacional de Avaliação da Educação Superior: da concepção à regulamentação. [Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira]. 2. ed. ampl. Brasília: Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira, 2004. 155 p. ______. Lei nº10.861, de 14 de abril de 2004. Institui o Sistema Nacional de Avaliação da Educação Superior- Sinaes, e dá outras providências. D.O.U., Brasília: 15 abr. 2004. ______. Presidência da República. Decreto nº 5.773, de 9 de maio de 2006. Dispõe sobre o exercício das funções de regulação, supervisão e avaliação de instituições de educação superior e cursos superiores de graduação e seqüenciais no sistema federal de ensino. D.O.U, Brasília, DF, 10 maio 2006. p.6, c.1. Disponível em: <http://www.planalto.gov.br/CCIVIL/_Ato2004-2006/2006/Decreto/D5773.htm>. Acesso em: 22 de setembro de 2013. ______. Ministério da Educação e Cultura. Portaria Normativa MEC nº 4, de 5 de agosto de 2008. D.O.U, Brasília, DF, 06 ago. 2008, republicada em 07 ago. 2008. 175 ______. Ministério da Educação e Cultura. Instituto Nacional de Pesquisas Educacionais Anísio Teixeira. Manual dos indicadores de qualidade 2011. Disponível em: <http://download.inep.gov.br/educacao_superior/enade/notas_tecnicas/2011/manual_in dicadores_qualidade_edu_superior_2011.pdf>. Acesso em: 14 de março de 2013. ______. Ministério da Educação e Cultura. Instituto Nacional de Pesquisas Educacionais Anísio Teixeira. Nota Técnica nº 029, de 15 de outubro de 2012. Disponível em: <http://download.inep.gov.br/educacao_superior/Enade/notas_tecnicas/2011/nota_tecni ca_indicadores_2011_2.pdf.>. Acesso em: 14 de março de 2013. ______. Ministério da Educação e Cultura. Secretaria de Regulação e Supervisão da Educação Superior. Instrução Normativa nº 4, de 31 de maio de 2013. D.O.U nº 104, Brasília, DF, 03 jun. 2013, Seção 1, p. 11. ______. Lei nº 12.821, de 12 de novembro de 2013. Dispõe sobre a definição, qualificação, prerrogativas e finalidades das Instituições Comunitárias de Educação Superior - ICES, disciplina o Termo de Parceria e dá outras providências. D.O.U., Brasília: 13 nov. 2013. Edição extra. CABRITO, B. G.. O financiamento do ensino superior em Portugal: entre o Estado e o mercado. Educ. Soc., Campinas, v. 25, n. 88, p. 977-996, Especial - out. 2004. CERDEIRA, L. Ensino Superior em Portugal, que futuro? Estudar no Ensino Superior em Portugal vai ser só para alguns? Alguns dados sobre o Ensino Superior em Portugal. Mesa redonda/Debate. Disponível em: <http://www.gracacarvalho.eu/xms/files/ACTIVIDADE_EM_PORTUGAL/OUTRAS_ ACTIVIDADES/2013/2_01-02-2013_UL/SiteMesaRedondaEnsinoSuperiorQueFuturo1Fev2013_LC.pdf>. Acesso em: 20 jan. 2015. CONTERA, C. Modelos de avaliação da qualidade da educação superior. In: DIAS SOBRINHO, J.; RISTOFF, D. (Org.). Avaliação democrática: para uma universidade cidadã. Florianópolis: Insular, 2002. p. 119-144. CRESWELL, J. W. Projeto de pesquisa: métodos qualitativo, quantitativo e misto. 3. ed. Porto Alegre, RS: SAGE, 2010. 248 p. DEVORE, J. L. Probabilidade e estatística para engenharia e ciências. São Paulo: Pioneira, Thompson Learning, 2012. 692 p. DIAS, M. A. R. Dez anos de antagonismo nas políticas sobre ensino superior em nível internacional. Educ. Soc., Campinas, v.25, n.88, p. 893-914, Especial out. 2004. DIAS SOBRINHO, J. Avaliação da Educação Superior. Petrópolis: Vozes, 2000. ______. Avaliação: políticas educacionais e reformas da Educação Superior. São Paulo: Cortez, 2003. ______. Avaliação como instrumento de formação cidadã e do desenvolvimento da sociedade democrática: por uma ético-epistemologia da avaliação. Educação Superior em Debate, Brasília, v.1, p.15-38, 2005. 176 ______. Democratização, qualidade e crise da Educação Superior: faces da exclusão e limites da inclusão. Educ. Soc., Campinas, v.31, n.113, p. 1223-1245, out.-dez. 2010. DOURADO, L. F. Reforma do Estado e as políticas para a Educação Superior no Brasil nos anos 90. Educ. Soc., Campinas, v.23, n.80, p. 234-252, set. 2002. EMBIRUÇU, M.; FONTES, C.; ALMEIDA, L. Um indicador para a avaliação do desempenho docente em Instituições de Ensino Superior. Ensaio: aval. pol. públ. Educ., Rio de Janeiro, v.18, n.69, p.795-820, out./dez. 2010. EUROPEAN ASSOCIATION FOR QUALITY ASSURANCE IN HIGHER EDUCATION. Quality Assurance of Higher Education in Portugal: An Assessment of the Existing System and Recommendations for a Future System. Helsinki, Finland, 2006. EUROPEAN UNIVERSITY ASSOCIATION. Improving Quality, Enhancing Creativity: Change Processes in European Higher Education Institutions. Final Report of the Quality Assurance for the Higher Education Change. Agenda (QAHECA) Project. EUA publications, 2009. GARCIA, M. M. A. Políticas educacionais contemporâneas. Revista Brasileira de Educação, v.15 n.45, p.445-591, set./dez. 2010. GEORGEN, P. A crise de identidade da universidade moderna. In: SANTOS FILHO, J.C.; MORAES, S.E. (orgs.). Escola e Universidade na pós-modernidade. Campinas: Mercado de Letras, 2000. pp. 101-161. HAIR, J. F.; ANDERSON, R. E.; TATHAM, R. L.; BLACK, W. C. Análise Multivariada de dados. 5. ed. Porto Alegre, RS: Artmed: Bookman, 2005. 593 p. IBGE. Instituto Brasileiro de Geografia e Estatística. Normas de apresentação tabular. 3. ed. Rio de Janeiro: IBGE, 1993. 62 p. JEZINE, E.; CHAVES, V. L. J.; CABRITO, B. G. O acesso ao Ensino Superior no contexto da globalização: os casos do Brasil e de Portugal. Revista Lusófona de Educação, 18, dec. 2011. Disponível em:< http://revistas.ulusofona.pt/index.php/rleducacao/article/view/2563/1987. Acesso em: 22 de setembro de 2014. LAVILLE, C.; DIONNE, J. A construção do saber: manual de metodologia de pesquisa em ciências humanas. Porto Alegre: Artmed, 1999. 340 p. LEITE, D. Ameaças pós-rankings sobrevivência das CPAs e da auto-avaliação. Avaliação, Campinas; Sorocaba, SP, v.13, n.3, p. 833-840, nov. 2008. LEITE, D.; GENRO, M. E. H. Avaliação e internacionalização da Educação Superior: Quo vadis América Latina? Avaliação, Campinas; Sorocaba, SP, v.17, n.3, p. 763-785, nov. 2012. LEVINE, D. M.; STEPHAN, D.; KREHBIEL, T. C.; BERENSON, M. L. Estatística: teoria e aplicações usando o Microsoft Excel em português. 3. ed. Rio de Janeiro, RJ: LTC, 2005. 819 p. 177 LEVY, D. Higher Education and the State in Latin America. Private challenges to public dominance. Chicago: University of Chicago Press, 1986. LIMA, L. O paradigma da educação contábil. Revista Brasileira de Educação, n. 4, p.43-59, jan./fev./mar./abr. 1997. ______. Avaliação, competitividade e hiperburocracia. In: ALVES, M. P.; de KETELE, J. M (orgs.). Do currículo a avaliação, da avaliação ao currículo. Porto: Editora Porto, 2011. p.72-82. ______. Elementos de hiperburocratização da administração educacional In: LUCENA, C. , SILVA JUNIOR, J. R. (orgs.). Trabalho e educação no século XXI: experiências internacionais. São Paulo: Xamã, 2012. p. 129-158. ______. Investigação e investigadores em educação: anotações críticas. (Fórum de Investigação em Ciências da Educação). Sísifo - Revista de Ciências da Educação, n. 12, p. 63-72, mai./ago. 2012. LIMA, L.; AZEVEDO, M. L. N; CATANI, A. O processo de Bolonha, a avaliação da Educação Superior e algumas considerações sobre a Universidade Nova. Avaliação, Campinas; Sorocaba, SP, v.13, n.1, p.7-36, mar. 2008. MAGALHAES, A. M. A transformação do modo de regulação estatal e os sistemas de ensino. Revista Crítica de Ciências Sociais, n.59, p.125-143, fev. 2001. ______. A identidade do Ensino Superior: a Educação Superior e a Universidade Revista Lusófona de Educação, n.7, p.13-40, 2006. Disponível em:< http://repositorioaberto.up.pt/bitstream/10216/56387/2/87986.pdf>. Acesso em: 22 de setembro de 2014. MAGALHAES, A. M.; SANTIAGO, R. Governance, public management and administration of Higher Education in Portugal. In: AMARAL, A.; NEAVE , G. (eds.), Higher Education in Portugal 1974-2009. A Nation, a Generation. Dordrecht: Springer, 2012. p. 227-247. MICROSOFT CORPORATION Microsoft Office Excel 2007 (12.0.6665.5003) SP3 MSO (12.0.6662.5000) www.microsoft.com. 2006. NEAVE, G. On the cultivation of quality, efficiency and enterprise: an overview of recent trends in higher education in Western Europe, 1986-1988. European Journal of Education, Oxford: Wiley-Blackwell, v. 23, n. 1/2, p. 7-23, 1988. NEAVE, G. Educación superior: historia y política. Estudios comparativos sobre la Universidad contemporánea. Barcelona: Editorial Gedisa, 2001. 366 p. PAIUB. Programa de avaliação institucional das universidades brasileiras. Avaliação, Campinas, v.1, n.1, p. 54-68, jul. 1996. Documento Básico. PEDROSA, R. H. L.; AMARAL, E.; KNOBEL, M. Assesing higher education learning outcomes in Brasil. Higher Education Management and Policy, v.24, p.55-71, 2013. PEIXOTO, M. C. L. Avaliação institucional externa no Sinaes: considerações sobre a prática recente. Avaliação, Campinas; Sorocaba, SP, v.16, n.1, p.11-36, mar. 2011. 178 PORTUGAL. Lei nº 38, de 16 de agosto de 2007. Aprova o regime jurídico da Avaliação do Ensino Superior. Legislação, Lisboa, Portugal, 2007. Disponível em: <http://www.dges.mctes.pt/NR/rdonlyres/40A12447-6D29-49BD-B6B4E32CBC29A04C/1132/L382007.pdf>. Acesso em: 22 set. 2013. ______. Lei nº 38, de 21 de novembro de 1994. Estabelece as bases do sistema de avaliação e acompanhamento das instituições do ensino superior. Legislação, Lisboa, Portugal, 1994. Disponível em: < http://intranet.uminho.pt/Arquivo/Legislacao/AutonomiaUniversidades/L38-94.pdf >. Acesso em: 22 set. 2013. ______. Decreto-Lei nº 205, de 11 de julho de 1998. Cria o Conselho Nacional de Avaliação do Ensino Superior e estabelece as regras gerais necessárias à concretização do sistema de avaliação e acompanhamento do ensino superior e os princípios a que deve obedecer a constituição das entidades representativas das instituições do ensino superior universitário e politécnico, públicas e não públicas . Legislação, Lisboa, Portugal, 1998. Disponível em: < http://www.ulisboa.pt/wpcontent/uploads/MenuEstudar/Avaliacao_e_Qualidade/Decreto_Lei_205_1998.pdf> Acesso em: 22 out. 2014. RIBEIRO, J. L. L. S. SINAES: o que aprendemos acerca do modelo adotado para avaliação do ensino superior no Brasil. Avaliação, Campinas; Sorocaba, v.20, n.1, p. 143-161, mar. 2015. RISTOFF, D. I. O Sinaes e seus desafios. Avaliação, Campinas; Sorocaba, v.9, n.1, p. 179-183, mar. 2004. ROSA, M.J.; SARRICO, C. Quality, Evaluation and Accreditation: from Steering, Through Compliance, on to Enhancement and Innovation? In: AMARAL, A.; NEAVE , G. (eds.), Higher Education in Portugal 1974–2009: A Nation, a Generation. Dordrecht: Springer, 2012. p. 249-264. ROTHEN, J. C.; BARREYRO, G. B. A “RAIES” e a Revista Avaliação a construção de um marco teórico, político e metodológico. Avaliação, Campinas; Sorocaba, SP, v. 16, n. 2, p. 267-290, jul. 2011a. ______.; ______. Avaliação da Educação Superior no segundo governo Lula: "Provão II" ou a reedição de velhas práticas? Educ. Soc., Campinas, v. 32, n. 114, p. 21-38, jan.mar. 2011b. SANTIAGO, R.; CARVALHO, T. Mudança no conhecimento e na profissão acadêmica em Portugal. Cadernos de Pesquisa, São Paulo, v. 41, n. 143, p.402-426, maio-ago. 2011. SANTOS FILHO, J.C. Universidade, modernidade e pós-modernidade. In: SANTOS FILHO, J.C.; MORAES, S.E. (orgs.). Escola e Universidade na pós-modernidade. Campinas: Mercado de Letras, 2000. pp. 201-247. SANTOS, S. M. Análise comparativa dos processos europeus para a avaliação e certificação de sistemas internos de garantia da qualidade. A3ES: Lisboa, 2011. 119 pp. 179 SEIXAS, Ana Maria, Políticas educativas e Ensino Superior em Portugal: a inevitável presença do Estado. Coimbra: Quarteto Editora, 2003. 248 pp. SHORE, C. Cultura de auditoria e governança iliberal: universidades e a política da responsabilização. Mediações, Londrina, v. 14, n.1, p. 24-53, jan./jun. 2009. STATSOFT, Inc. STATISTICA (data analysis software system), version 8.0. www.statsoft.com. 2008. TEODORO, A.; ANIBAL, G. A educação em tempos de Globalização. Modernização e hibridismo nas políticas educativas em Portugal. Revista Lusófona de Educação, n.10, p. 13-26, 2007. TYLER, Ralph W. Princípios básicos de currículo e ensino. 4. ed. Porto Alegre: Globo, 1977. 119 p. UNESCO. Conferência Mundial sobre Ensino Superior 2009: As Novas Dinâmicas do Ensino Superior e Pesquisas para a Mudança e o Desenvolvimento Social. Paris, 2009. WEBER, S. Avaliação e regulação da educação superior: conquistas e impasses. Educ. Soc., Campinas, v. 31, n. 113, p.1247-1269, out./dez. 2010. 180 APÊNDICES (CD encartado) APÊNDICE A – GUIA DAS ENTREVISTAS ...........................................................182 APÊNDICE B - ÁREAS AVALIADAS NO ENADE 2008-2009-2010......................183 APÊNDICE C - ANÁLISE DA DISTRIBUIÇÃO NORMAL DAS VARIÁVEIS DEPENDENTES...........................................................................................................186 APÊNDICE D - COMPOSIÇÃO DOS GRUPOS DE ÁREAS DE ACORDO COM O ESTRATO.....................................................................................................................243 APÊNDICE E - RESULTADOS DAS REGRESSÕES MÚLTIPLAS........................354 APÊNDICE F - CONTAGENS DAS CORRELAÇÕES SIGNIFICATIVAS POR ÁREA, INSUMO E ESTRATO....................................................................................510 181 ANEXOS (CD encartado) ANEXO A – NOTA TÉCNICA DO CONCEITO ENADE 2010 ANEXO B – NOTA TÉCNICA DO CONCEITO PRELIMINAR DO CURSO 2010 538