Avaliação 3 | HUMUS
top of page

ARTIGOS

Avaliação

IGC, por detrás dos números: considerações preliminares

A avaliação do ensino superior no Brasil é estabelecida via o Sistema Nacional de Avaliação da Educação Superior (SINAES), Lei no 10.861, de 2004. O pressuposto geral é que o processo regulatório, mais dinâmico e sujeito aos programas específicos de Governo, seja assentado na avaliação, esta sim mais perene e com características de política de Estado. Nem sempre funciona exatamente assim, mas conceitualmente é o que se espera.

Em 2007, há uma década, o Ministério da Educação (MEC), por meio de sua Secretaria de Educação Superior (SESu), da qual eu era o titular na época, propôs, via a Portaria nº 40, a criação de indicadores de qualidade. Além dos indicadores que são aferidos in loco, a Portaria trouxe novos indicadores avaliados em um ciclo trianual, que contempla diferentes áreas do conhecimento a cada ano. Entre eles, o IGC (Índice Geral de Cursos), que tenta refletir a qualidade da instituição como um todo, resultante de uma cesta de outros indicadores, tais como o CPC (Conceito Preliminar do Curso), o qual pretende dizer algo, ainda que preliminar, sobre a qualidade de cada um dos cursos analisados.

Por sua vez, um dos ingredientes mais importantes para formar o CPC, e consequentemente o IGC, é o rendimento médio dos formandos de cada curso do ENADE (Exame Nacional de Desempenho dos Estudantes), conforme previsto na Lei do SINAES. Complementarmente, impactam também no IGC o censo anual dos docentes, a avaliação dos próprios formandos sobre a instituição, os indicadores CAPES da pós-graduação e o Índice de Diferença entre os Desempenhos observado e esperado dos formandos (IDD).

Segundo o pensamento vigente no MEC de então, um dos supostos méritos funcionais dos indicadores CPC e IGC seria, a partir deste diagnóstico preliminar, viabilizar o trabalho de supervisão e acompanhamento regulatório a ser desenvolvido. A título de exemplo, um curso que reiteradas vezes tivesse rendimentos insuficientes (CPC 1 ou 2) seria objeto de visita in loco e, se fosse o caso, haveria punições correspondentes, via protocolos de compromisso a serem aplicados. Tais punições variavam desde a suspensão de novos ingressantes no curso até o seu fechamento e, em tese, o mesmo valeria para as instituições (IGC 1 ou 2). Da mesma forma, políticas regulatórias positivas, calcadas em prerrogativas de autonomia (liberdades adicionais para criar turmas, vagas, polos de educação a distância etc.), seriam conferidas àqueles cursos ou instituições com indicadores sistematicamente positivos (CPC ou IGC 4 e 5).

Os resultados da última avaliação disponível, frutos do exame ENADE de 2015 (formandos nas áreas de gestão e humanas) combinado em ciclos de três anos, assim cobrindo todas as demais áreas, mostram que das mais de 2 mil instituições avaliadas somente 375 (menos de um quinto delas, portanto) obtiveram os conceitos IGC 4 ou 5.

Mesmo cientes de que tal avaliação é preliminar e parcial, cabe refletir sobre o que medimos e o que pode ser extraído dos dados.  Se é verdade que toda medida é frágil e momentânea, dado não existirem medidas inteiramente completas, permanentes e justas, é igualmente correto afirmar que toda medida diz algo, ainda que demande análises muito cuidadosas, porque necessariamente limitadas. No caso, talvez haja pelo menos dois contextos extremos que permitem algumas possíveis conclusões razoáveis. Cursos ou instituições que reiteradas vezes permanecem nos blocos superiores muito provavelmente desenvolvem trabalhos acadêmicos de qualidade fazendo jus a prerrogativas de autonomia diferenciadas. Igualmente, grupos que sistematicamente apresentam indicadores negativos, possivelmente, demandam especiais cuidados por parte dos órgãos públicos reguladores do sistema.  Da mesma forma, um curso cujo CPC ou o IGC de uma instituição, quando analisados enquanto séries históricas, que apresentam consistentes evoluções positivas devem refletir empenhos acadêmicos adequados. O mesmo raciocínio vale para uma evolução negativa, evidenciando, eventualmente, um relativo descuido com os insumos que compõem os indicadores adotados.

O drama é que naturalmente a área sombreada (excluído aqui os casos limites acima referidos) é bastante extensa. Assim, quando lidamos com a maioria das instituições, fora daqueles limites extremos citados, é relativamente comum os indicadores evidenciarem claramente seus limites ou resultarem demasiadamente parciais, injustos ou circunstanciais.

Uma década após a Portaria nº 40, pelo quarto ano consecutivo, vivencio a experiência de observar sua aplicação na prática. Nos dois próximos artigos, em complemento a este, tratarei em um deles especificamente do caso da Universidade Estácio de Sá e no último da trilogia abordarei aspectos específicos socioemocionais dos formandos neste contexto.

Ronaldo Mota é Reitor da Universidade Estácio de Sá.

bottom of page