As origens do Saeb*
Julio Jacobo Waiselfisz
entrevistado por João Luiz Horta Neto
João Horta: Professor Jacobo, como iniciou seu trabalho em educação no Brasil?
J. J. Waiselfisz: Nos anos 1980, todo intelectual de destaque trabalhava sobre o
problema camponês, principalmente por causa da penetração do capitalismo
na agricultura, que ocasionou forte deslocamento, migração e êxodo. Se o
camponês é um modo de produção que preserva o capitalismo, não
escravocrata, havia sérias discussões técnicas, teóricas e metodológicas a
respeito e muita pesquisa de campo, no meu caso, na área de educação
rural. Nessa época existia uma grande novidade para a população do campo:
o Projeto Minerva, programa de educação a distância via rádio. Nesse marco,
havia o interesse em avaliar o impacto de programas educativos via rádio
e eu fui contratado por uma fundação educacional do Rio Grande do Sul
para montar o Sistema de Avaliação de Rádio Educativo (Sare), com
financiamento da Coordenação de Aperfeiçoamento de Pessoal de Nível
Superior (Capes) ou Conselho Nacional de Desenvolvimento Científico e
Tecnológico (CNPq) – não lembro bem.
* Entrevista realizada na cidade do Recife, nos dias 13 e 14 de janeiro de 2015. Na impossibilidade de transcrever
integralmente 12 horas de conversa gravada, cuidamos de assegurar aqui seu teor e trazer os aspectos mais marcantes
da história do Saeb e as ideias do entrevistado sobre o futuro da avaliação da educação básica no Brasil.
Em Aberto, Brasília, v. 29, n. 96, p. 177-193, maio/ago. 2016
177
Depois disso, formatei um programa de avaliação para uma atividade junto
ao Ministério do Trabalho, que recebeu financiamento do governo do Canadá,
para capacitar pequenos agricultores em cursos sobre as culturas de batata,
mandioca e feijão – técnicas modernas dirigidas a setores altamente
empobrecidos e atrasados para melhorar a produtividade. Depois entrava
a Empresa Brasileira de Pesquisa Agropecuária (Embrapa), que acompanhava
as culturas para melhorar seu rendimento. O que se queria era medir a
eficiência da rádio educativa em gerar desenvolvimento econômico no meio
rural. Antes desses trabalhos, eu atuava com teoria sociológica.
Depois dessas atividades, comecei a trabalhar no Instituto Interamericano
de Cooperação para a Agricultura (IICA) na área de educação rural e fui
prestar uma consultoria a um programa de capacitação rural no Amazonas,
que acabou não tendo continuidade. Nessa conjuntura, ainda no IICA, fui
convidado para assumir um convênio com foco na educação rural junto à
Secretaria de Educação de Pernambuco.
Eu estava entusiasmado com o movimento que acontecia na sociedade:
gestão participativa, luta pela democratização, abertura democrática, Diretas
Já, eleições. Havia um crescente processo de descentralização, não só no
Brasil, mas em todo o mundo, que tinha relação com as novas modalidades
do desenvolvimento econômico. Havia uma preocupação crescente em dar
poder às escolas para a tomada de decisões.
178
Junto com as autoridades da Secretaria Estadual de Educação de Pernambuco,
propusemos e implementamos um programa de planejamento participativo
que chegou a abranger a totalidade das unidades escolares da rede estadual.
O programa começava discutindo o planejamento no nível central (Secretaria
Estadual e União Nacional dos Dirigentes Municipais de Educação – Undime),
descia até o nível das delegacias regionais e depois chegava às escolas. A
Secretaria fazia o diagnóstico, reunindo-se com representantes de todos os
seus setores, e estabelecia as prioridades político-pedagógicas para o ano
letivo seguinte. Cada delegacia regional fazia a sua análise e dava orientações
para a escola. Na escola, reuniam-se os professores, os alunos e os pais dos
alunos, que tomavam como ponto de partida esse material e faziam a
discussão sobre a própria escola. A proposta de financiamento para a escola
era simples, sintética, só uma folhinha para cada proposta que exigia
financiamento. Todo o ciclo era rápido: começávamos em agosto/setembro
e em janeiro estava tudo pronto.
Grande parte da proposta de financiamento era para capacitação. Dentro
desse diagnóstico participativo, a direção da escola e os professores decidiam
quais setores precisavam do reforço de capacitação, estabeleciam os
horários, tipo de aula e quem daria essa capacitação. Eles faziam um pequeno
plano, cinco linhas sobre o tema, cinco sobre o porquê da capacitação e
cinco sobre o orçamento daquilo que precisavam para essa capacitação. A
escola recebia o dinheiro e geria a capacitação. Escolhiam-se aquelas pessoas
que os professores mais admiravam a um custo equivalente a um sexto do
Em Aberto, Brasília, v. 29, n. 96, p. 177-193, maio/ago. 2016
valor gasto com a formação centralizada que a Secretaria oferecia antes,
pois se economizava com as viagens até os Centros de Formação, com a
estadia dos professores e com a contratação de professores para substituir
aqueles que estavam fazendo o curso.
Além da capacitação, o planejamento envolvia as outras áreas da escola. O
resultado final é que o planejamento liberava os recursos que eram geridos
pela escola, atendendo à maior parte das suas necessidades.
Nessa época, 1984-1985, não era comum avaliar escolas a partir do
rendimento dos alunos. Para avaliar o programa, no fim do ano, fizemos
uma avaliação, comparando uma amostra de escolas que tinham feito
autogestão e de outras que não fizeram. Aplicamos um pré-teste; deve ter
sido em português, matemática e ciências. Um ano depois, aplicamos o
pós-teste. Nossa hipótese era que a capacitação por autogestão daria melhor
resultado, mas, quando comparada com a tradicional, as duas não
apresentaram diferenças significativas no rendimento. As duas obtiveram
os mesmos ganhos, com a vantagem para aquela que usou a autogestão e
cuja capacitação custava bem menos que a tradicional. Com isso seria
possível sextuplicar os níveis de capacitação.
João Horta: E como o senhor chegou ao MEC?
J. J. Waiselfisz: Um colega que trabalhava com educação rural deixou o MEC e eu
assumi seu lugar no convênio que o IICA tinha com o Ministério. Nessa
época o Projeto Monhangara1 estava sendo finalizado e se estava preparando
o Projeto Nordeste de Educação Básica, os dois financiados pelo Banco
Mundial/Bird.2 A equipe do Bird veio ao Brasil para discutir este projeto e
o MEC me solicitou a apresentação de uma proposta para a avaliação do
Projeto Nordeste. Eu a apresentei por escrito, de forma bem detalhada, com
princípios e objetivos. 3 Essa proposta que eu havia desenhado foi
praticamente a mesma que depois foi usada no Saeb.
João Horta: O senhor tinha conhecimento da avaliação que foi realizada no projeto
anterior ao Monhangara, o Edurural4? Nele, segundo escritos do professor
Heraldo Vianna publicados em 1985, utilizou-se um desenho quase
experimental para fazer a avaliação, comparando dois grupos de escolas e,
dentro destas, os desempenhos entre os alunos das beneficiadas pelo projeto
e os alunos que não participaram dele.
J. J. Waiselfisz: Conhecia, mas o desenho que eu propus não era nem experimental
nem quase experimental, não previa nem pré-teste nem pós-teste. O Projeto
Nordeste, diferentemente do Monhangara, não tinha “território exclusivo”,
1
Projeto de Ensino Básico para as Regiões Norte e Centro-Oeste (Monhangara) – 1984-1992. (N. do E.)
2
Banco Internacional para Reconstrução e Desenvolvimento, instituição que compõe o Banco Mundial. (N. do E.)
3
Waiselfisz (1988).
4
Programa de Expansão e Melhoria da Educação no Meio Rural do Nordeste Brasileiro – 1981-1985. (N. do E.)
Em Aberto, Brasília, v. 29, n. 96, p. 177-193, maio/ago. 2016
179
isto é, área de programa; atuava no âmago dos processos de gestão das
secretarias. Minha proposta considerava o planejamento como atividade
integral, envolvendo diagnóstico, execução e avaliação. Todas as fases devem
estar conectadas, não podem viver separadas.
Na educação observava-se o mesmo processo de ultraespecialização das
indústrias sob o fordismo. Temos duas separações, quem planeja é alguém
que não executa, e quem executa é alguém que não planeja. O produtor
direto também se torna independente dos produtos. Ninguém assume a
mínima responsabilidade pelos produtos que se geram na educação. Nem
a Secretaria, nem o Ministério, nem as escolas, nem os professores. Se
queremos criar responsabilidade e queremos criar gestão, temos que
reintegrar as funções. Quem planeja tem de saber executar, e quem executa
tem de saber avaliar. E trocar suas práticas a partir de uma avaliação. Se
não for assim, para que serve a avaliação? Resultados e conclusões
praticamente acabam se perdendo. Depois que acabou o Monhangara, o
que ficou?
180
Eu acreditava que não valia a pena montar projetos específicos, como o
Monhangara, em que um grupo de escolas tem uma prática e outro grupo
de escolas não recebe nada. Era necessário intervir no sistema educacional
como um todo. Não queria avaliar um projeto, queria avaliar a educação.
Dessa forma, seria possível saber se o projeto contribuiu ou não para a
melhoria da educação. A proposta era avaliar as escolas e a educação dos
estados, não o projeto e um grupo de escolas. Minha proposta inicial era
avaliar a educação dos estados do Nordeste para depois convencer o
Ministério: já que íamos avaliar os estados do Nordeste, porque não o resto
do Brasil?
Essas ideias foram consideradas avançadas demais. Diziam que não
funcionaria aqui no Brasil.
João Horta: E qual era a visão daquela equipe do Bird?
J. J. Waiselfisz: O Banco Mundial sempre pregou a avaliação dos seus projetos e
investimentos. Sempre queria projetos-piloto. Por causa disso, a equipe do
Bird afirmou que não queria avaliação geral, mas apenas do projeto. Eu
insistia e afirmava que era necessário apontar as contribuições das diversas
ações empreendidas para atingir as metas regionais, estaduais e municipais
e que não haveria nenhum entrave para que a sistemática e a avaliação
propostas se estendessem a outros estados.
Tratava-se, em última instância, de avaliar as gestões estratégicas dos
sistemas educacionais. Questões relativas à universalização, à qualidade
do ensino, à competência pedagógica e à gestão educacional. Em resumo,
avaliar a educação. Se admitimos que o eixo central da estratégia de
avaliação se encontra nos problemas diagnosticados e nas políticas
formuladas para superar esses problemas, podemos colocar três questões
globais que a avalição deve ter condições de responder: Em que medida as
Em Aberto, Brasília, v. 29, n. 96, p. 177-193, maio/ago. 2016
políticas adotadas possibilitam o acesso à escolarização das crianças e a
melhoria da qualidade? Quais são as mudanças nas condições do trabalho
e nas competências pedagógicas? Em que medida a gestão educacional se
torna mais democrática?
Outro ponto que eu também criticava e tentava mudar era a ideia-chave
de que era importante fazer um projeto-piloto para depois expandi-lo. Eu
era totalmente contrário a isso.
João Horta: E qual era a posição do MEC quanto a essa avaliação nacional?
J. J. Waiselfisz: Pessoalmente, acho que o Ministério estava atrás do dinheiro. Não
ouvi nenhuma discussão pedagógica sobre a importância do Projeto, mesmo
porque quem comandava o Ministério era o antigo Partido da Frente Liberal
(PFL). Talvez houvesse, mas como eu não fiz parte da equipe que discutiu
o Projeto – apenas fui chamado pelo Bird para discutir a avaliação –, não dá
para ter certeza.
João Horta: O Bird então não tinha intenção de oferecer ao Brasil um modelo de
avaliação nacional?
J. J. Waiselfisz: Desde o início, pelo menos na minha experiência com o grupo do
Projeto Nordeste, eles não tinham muita ideia do que fazer. Queriam uma
avaliação do projeto igual à que fizeram no Monhangara, na qual o
rendimento do aluno não era uma finalidade em si; era um meio para
verificar o andamento do Projeto que atendia apenas a um grupo – nem
nacional era. O que eu estava propondo – e isso está expresso nos primeiros
documentos do Saeb – era avaliar a educação de um país – não de um
projeto, não de uma área. Um sistema permanente de avaliação da educação,
que não se esgotava no rendimento do aluno.
São vários os fatores que contribuem para o sucesso da educação. Não me
interessava saber quanto tempo o professor gasta passando lição no quadro;
queria sim que ele refletisse sobre sua prática, pois é isso que faz a diferença
em educação. Não me interessava saber se o professor faz isso ou aquilo.
Porque sei de professores que se dão bem e se dão mal fazendo a mesma
coisa. Não é a técnica nem a subtécnica que definem o que vai funcionar.
Cada professor tem sua própria salada de frutas. Não existe prática melhor
ou pior.
Penso que não existe uma máquina de ensinar, aquela em que você coloca
um insumo, mais um livro e dá um resultado ou produto melhor. Existe
trabalho docente, que tem de ser formulado nas melhores condições
possíveis. Coisa que os projetos do Banco não permitiam. Claro que quem
tem mais grana tem melhores condições, mais insumos, melhores
bibliotecas. Mas isso não é o definidor de uma melhor aprendizagem.
Educação não tem milagres. Não há nada que você faça agora e que resolverá
tudo em dois anos.
Em Aberto, Brasília, v. 29, n. 96, p. 177-193, maio/ago. 2016
181
João Horta: E quando aquela sua proposta apresentada ao Bird foi apresentada ao
MEC? Quem encampou a ideia de se discutir essa avaliação nacional?
J. J. Waiselfisz: Foi Júlio Correia, então secretário-adjunto da Secretaria de Ensino
de Primeiro e Segundo Grau (SEPS) do MEC – um pernambucano que depois
virou reitor da Universidade Federal de Pernambuco (UFPE) –, e Madalena
Rodrigues dos Santos, se não me engano a chefe de gabinete da SEPS, que
anos depois foi trabalhar no Bird. Os dois haviam participado da experiência
de planejamento participativo e autonomia das escolas que implantei em
Pernambuco. Ambos acreditavam nessas ideias e eram contra as ideias do
Bird de avaliar apenas o Projeto.
João Horta: Nesse período temos dois grandes movimentos acontecendo: os estudos
financiados pelo Inep e conduzidos pelo Heraldo Vianna (estudos em 10,
20 e 39 cidades para validar os testes de desempenho que seriam aplicados
mais tarde), e a discussão do Projeto Nordeste. Como esses fatos se ligam?
J. J. Waiselfisz: Eram movimentos independentes. Nos dois casos, os itens que foram
desenvolvidos pelo Heraldo eram o que havia de comum com a minha
proposta, pois usaríamos o que já havia sido feito, sem inventar nada. Mas
era mais que apenas testar os alunos.
João Horta: Aproveitando o tema do teste, por que foram escolhidas para serem
testadas a primeira, a terceira, a quinta e a sétima séries?
182
J. J. Waiselfisz: A ideia era usar algo que já existia, a partir dos trabalhos do Heraldo
que já utilizavam estas séries, e inclusive os itens que haviam sido
desenvolvidos. Havia um projeto de, a partir do segundo ciclo do Saeb, criar
um banco de itens. O mais importante era o desenho do sistema e aproveitar
os instrumentos disponíveis: os testes da Fundação Carlos Chagas, as
pesquisas sobre custo-aluno do Instituto de Pesquisa Econômica Aplicada
(Ipea).
Desde o início, a ideia era testar o final dos ciclos, como o Saeb começou a
fazer a partir de 1995. O problema é que naquela época não se tinha os
instrumentos para isso. O importante não era avaliar as séries, mas a
terminalidade dos ciclos, não importa em que série o aluno aprendeu.
João Horta: Por que o Saeb não incluiu o ensino médio?
J. J. Waiselfisz: Primeiro, porque não tínhamos itens para essa etapa. Depois, porque
na época a prioridade era o ensino fundamental, o foco das políticas do MEC.
Mas se pensava sim em avançar para essa etapa. O que eu achava era que
não daria para, logo de início, abarcar tudo.
João Horta: E quais as referências utilizadas nesse seu modelo?
J. J. Waiselfisz: O formato que eu estava propondo tinha mais a ver com o que o
National Assessment of Educational Progress (Naep), dos Estados Unidos,
estava fazendo. Nossa proposta, inclusive, era muito mais complexa que a
Em Aberto, Brasília, v. 29, n. 96, p. 177-193, maio/ago. 2016
do Naep. De comum, havia a utilização de testes para os alunos, formulário
do professor e formulário da direção. Enfim, tentar abranger o maior número
possível de fatores que pudessem explicar por que o aluno tem dificuldades
de aprender. Voltando ao Monhangara, sua avaliação tinha mais a ver com
a avaliação do projeto e não com a qualidade; tomava o rendimento do aluno
como medida e não como padrão nem patamar referencial; não julgava se
os resultados foram bons, nem o que o aluno aprendera, nem o que precisava
aprender. Ele apontava se o aluno aprendeu mais ou menos em relação a
um grupo de controle. Não havia padrões educacionais. Queríamos avançar
mais ainda; queríamos ter uma referência para a avaliação, definindo o que
deveria ser o mínimo a ser aprendido e o quão distante os alunos estavam
disso. Essa ideia depois foi colocada em prática no segundo ciclo do Saeb,
em 1993, a partir do trabalho que já havia sido feito em Pernambuco. Isso
foi a base daquilo que depois foi feito para definir as Matrizes de Referência
do Saeb e, posteriormente, as Matrizes Curriculares Nacionais.
Queríamos um sistema no qual fosse possível transitar de um instrumento
para outro, que não fosse composto por entidades isoladas. Podia transitar
de custo-aluno para proficiência da escola, experiência do professor para
competência do professor, para modelo de gestão. Era um sistema de vasos
comunicantes entre si – algo que não existia naquela época –, a capacidade
de os diversos elementos se conectarem entre si. Os instrumentos do Saeb
de hoje não mudaram muito, em termos dos testes e dos questionários que
propusemos na época. Mudaram sim as técnicas utilizadas, mas as ideias
iniciais com relação a esses instrumentos permanecem.
Os outros instrumentos, que usavam, em parte, algumas das ideias que se
desenvolveram em Pernambuco, foram abandonados.
Todas essas ideias eu também levei, depois da implantação do Saeb, para
o Ceará, cuja avaliação eu ajudei a desenhar.
João Horta: Por que a decisão de fazer a avaliação e não de fazer medidas pontuais
sobre o rendimento do aluno, sobre o que o professor consegue fazer com
o aluno, o que o diretor está fazendo na gestão da escola? Pergunto isso
porque hoje grande parte dos testes param na medida, não fazem nada
mais do que medir.
J. J. Waiselfisz: A proposta que desenhei não tinha como foco medir o que o aluno
aprendeu. Os estudos do Heraldo Vianna mediam o que o aluno aprendeu.
A nós, interessava ver o que o sistema estava fazendo para o aluno aprender.
O foco passa do aluno para o sistema. Por isso, perguntamos a cada uma
das secretarias o que o aluno deveria aprender, segundo a própria secretaria,
e fomos atrás de medir se o aluno estava aprendendo o que a secretaria
disse que deveria aprender. Nosso problema não era o que o aluno aprendeu.
Era saber o que fez a secretaria para que o aluno aprendesse o que deveria
ter aprendido. É responsabilidade do Estado para com a qualidade da
aprendizagem. Por meio dos insumos mínimos, medimos o que o sistema
Em Aberto, Brasília, v. 29, n. 96, p. 177-193, maio/ago. 2016
183
está dando ao aluno, não o que o aluno aprendeu. Nos estudos de Heraldo,
ao não se ter como referência o que a secretaria quer que seja trabalhado
na escola, foca-se apenas no fato de o aluno ter conseguido ou não aprender.
Se ele não aprendeu, o que se faz com o aluno? O que se faz com um sistema
que não consegue ensinar? A visão que tínhamos era essa: estamos
pesquisando para ver o que o sistema conseguiu fazer para que o aluno
aprenda. O foco não era o aluno, era a rede de ensino.
João Horta: Depois da discussão com o Bird, qual o passo seguinte na criação do
Saeb?
J. J. Waiselfisz: Como o Bird não concordou em fazer a avaliação nacional em 1988,
eu convenci o pessoal do Ministério de que valia a pena fazer por conta
própria a avaliação nacional, porque haveria recursos. Sugeri fazer um piloto
para testar os instrumentos que eu havia desenvolvido na proposta ao Bird,
para depois ampliar para todo o País. Eles toparam.
Como eu estava no escritório do IICA, sabia que existiam recursos que
poderiam bancar esse piloto. Eu sabia também que havia recursos no
Programa das Nações Unidas para o Desenvolvimento (Pnud), por volta de
US$ 900 mil, que, por meio de mecanismos de cooperação entre agências,
no caso a Organização dos Estados Americanos (OEA) e a Organização das
Nações Unidas (ONU), poderiam ser repassados para o IICA, para financiar
a aplicação nacional e a implantação de uma infraestrutura nos estados, a
fim de poder coletar os dados.
184
Para viabilizar o piloto, conversamos com dois secretários de Educação, do
Paraná e do Rio Grande do Norte. Eles ficaram entusiasmados com a
possibilidade de obter dados que não possuíam, e imediatamente acertamos
que eles ficariam com a responsabilidade da aplicação dos instrumentos,
algo que caminhava na direção da descentralização das ações. O Júlio Correia
topou o desafio e fizemos o piloto em setembro de 1988, na gestão do
ministro Hugo Napoleão. Esse projeto-piloto gerou um relatório assinado
pelo MEC e IICA5 em que consta meu nome, como coordenador do estudo,
o nome das quatro pessoas da equipe técnica do MEC – entre as quais o de
Maria Inês Pestana –, e o de cinco consultores que ficaram responsáveis
pelos estudos de custo-aluno, gestão e professor, elementos que, junto com
o teste de desempenho, compunham o Saeb. Nesse relatório sugerem-se
reformulações e ajustes nos instrumentos e procedimentos do Sistema. É
importante destacar: toda a equipe do MEC tinha apenas quatro pessoas!
Por isso a cooperação dos estados era fundamental.
Em 1989, já estava tudo pronto para a aplicação nacional, mas os recursos
ainda não haviam sido disponibilizados, o que só aconteceu em meados de
1990, ano em que aconteceu o primeiro ciclo do Saeb. Nesse ano, fizemos
5
IICA e MEC (1990).
Em Aberto, Brasília, v. 29, n. 96, p. 177-193, maio/ago. 2016
em julho uma capacitação de duas semanas, da qual participaram dois
servidores de cada secretaria de Educação das 27 unidades federativas, em
Caldas Novas, no estado de Goiás, para capacitar e discutir os instrumentos
e chegar à sua versão final antes da aplicação. No final de 1990, fomos a
campo, com a cooperação dos estados. Para garantir a perenidade do sistema,
produzimos manual de tudo: instrumentos, procedimentos e técnicas de
aplicação.
Começamos a constituir uma estrutura em cada unidade federada. Montamos
a equipe: coordenador, aplicadores treinados e capacitados pela própria
equipe, e a equipe de processamento de dados. Elaboramos os critérios de
validação: critérios para correção da produção textual – pois havia uma
produção textual curta –, instrumentos de controle fundamentais para
monitorar o fluxo de instrumentos de avaliação para e a partir da escola;
centenas de coisas, uma longa série de instrumentos. Por fim, a constituição
da amostra: manuais de amostragem, relação de turmas, quantidades de
alunos e relação de alunos. Eram as próprias unidades federadas que, com
base nas instruções, produziam o passo a passo, elaboravam sua própria
amostra.
Tudo isso sem que fosse necessário visitar os estados para verificar os
procedimentos que estavam sendo executados. Eu viajava, mas só para dar
uma olhada, tirar alguma dúvida, sem interferir no processo. Houve alguns
erros, alguns desvios; alguns puderam ser corrigidos e outros não, mas
nada que comprometesse o trabalho.
Por causa da greve dos professores na época da coleta, somente Piauí e
Mato Grosso do Sul não participaram do primeiro ciclo. Mas, no ano seguinte,
os dois estados solicitaram e fizeram a aplicação do Saeb com recursos
próprios.
O objetivo era ter um ciclo a cada dois anos: anualmente não daria tempo
para terminar todo o trabalho de análise e divulgação dos resultados; três
anos era muito tempo. Por isso nos fixamos em dois. Se pudéssemos fazer
todo ano, melhor, mas a estrutura não dava – éramos quatro ou cinco para
fazer tudo.
João Horta: O momento político vivido na época – redemocratização e descentralização
– foi decisivo para que os estados aceitassem participar da avaliação?
J. J. Waiselfisz: Grande parte do que se discutia na época era a passagem de uma
estrutura autoritária para uma estrutura democrática, mas sem saber muito
bem como fazer isso. Sabíamos o que queríamos quando nos referíamos a
uma educação democrática, mas não sabíamos como seria uma estrutura
democrática de gestão educacional. Os estados queriam esse sistema para
ter acesso a informações que não tinham. Os relatórios do MEC nessa época
informavam, no máximo, quantas escolas foram construídas, quantas salas,
quantas matrículas e só.
Em Aberto, Brasília, v. 29, n. 96, p. 177-193, maio/ago. 2016
185
João Horta: O que se esperava que esses dados provocassem?
J. J. Waiselfisz: Esperava-se gerar uma discussão sobre o fazer educacional. Nos
surpreendeu muito a adesão que teve o Saeb. Nenhuma secretaria gosta
de receber novas tarefas, mas nenhuma disse não. O pior me aconteceu
aqui em Pernambuco. Tivemos a séria oposição da Undime, que aconselhou
a não participação de todos os 174 municípios, porque Recife não tinha
participado da discussão sobre os currículos mínimos que orientariam a
elaboração dos itens dos testes cognitivos. No final, conseguimos convencêlos e Pernambuco participou do Saeb.
João Horta: Por que o próximo ciclo do Saeb, que deveria acontecer em 1992, só
aconteceu em 1993?
J. J. Waiselfisz: Houve problemas de recursos: o MEC não tinha orçamento e nem
havia recursos externos para financiar o ciclo de 1992. Como minha família
morava em Recife, eu decidi voltar ao estado e perdi contato com o pessoal
do MEC. Mas o Saeb foi realizado em 1993, e, muito importante, dessa vez
financiado pelos próprios estados que queriam continuar obtendo
informações sobre a educação.
João Horta: Mas, em 1995, o senhor volta a ter contato com a equipe do Saeb.
186
J. J. Waiselfisz: Isso. Em 1995, Maria Inês Pestana me chama porque Maria Helena
Guimarães Castro, à época presidindo o Inep, queria conversar comigo. Eles
ainda estavam com problemas para finalizar o relatório do ciclo de 1993,
que estava com alguns buracos, principalmente de análise estatística, e
queriam a minha ajuda. Se eu sou o pai do Saeb, imagina se iria recusar
fazer o relatório.
João Horta: Nos relatórios dos dois primeiros ciclos do Saeb, consta que foram feitas
correlações simples entre rendimento e alguns fatores, de modo que seriam
necessários mais estudos.
J. J. Waiselfisz: Sim, seriam necessários para aprofundar estudos nas diversas técnicas
de correlação múltipla. Não quis utilizar técnicas extremamente sofisticadas,
porque achava que ia dificultar a compreensão do relatório. Mas a gente
deveria ter feito o controle estatístico a partir do nível socioeconômico,
porque explicaria muita coisa. A estratégia que seguimos na época é o que
se chama de incremental: à medida que os ciclos se repetiam periodicamente,
criava-se a cultura da avaliação. Para mim, avaliar não deve ser coisa só de
especialista, acho que todo mundo tem de saber avaliar. A prática avaliativa
tem de se incorporar à pratica cotidiana, criativa. Quem planeja tem de
executar e quem executa tem que ter o poder de avaliar. Cada ciclo tem
que ter uma crítica ao ciclo anterior. Coisa que não existe no Saeb atual,
pois apenas se repete o que foi feito antes.
João Horta: Fazia parte dos planos comparar os ciclos entre si? Por que a Teoria de
Resposta ao Item (TRI) só foi usada em 1995?
Em Aberto, Brasília, v. 29, n. 96, p. 177-193, maio/ago. 2016
J. J. Waiselfisz: Fazia, mas, em 1990, não sabíamos ainda como. Isso era para ser
pensado no ciclo seguinte. E essa foi uma das razões pelas quais me
chamaram de volta em 1995, pois não havia formas de comparar os dois
ciclos. Não foram tomadas providências para isso. Aí comecei a pensar.
Consultando colegas, como o Luiz Pasquali, da Universidade de Brasília
(UnB), surgiu a ideia de usar a TRI. Mas não podíamos usá-la, pois não
tínhamos mais os alunos que fizeram as provas em 1990 e em 1993. Assim,
desenvolvemos um método para colocar as duas provas, a de 1990 e a de
1993, na mesma escala. Construímos uma amostra representativa de alunos
em seis estados e aplicamos, via modelo balanceado, os itens de 1990 e de
1993 a um mesmo aluno. Isso foi feito rapidamente, com as secretarias
aplicando os testes. O custo foi baixíssimo.
Com os resultados em mãos, foi feito o equating de quanto representava
cada prova na mesma escala. Foi um método inovador, não testado antes.
Qual era a parte conceitual do método? Aplicando os mesmos itens ao
mesmo aluno, tenho uma constante – a proficiência é constante, pois o
aluno não mudou. O que varia é o poder de discriminação do item, a
proficiência do item e não da pessoa. Mantenho constante a proficiência da
pessoa e mudo a proficiência do item. Mas tenho escala de diferença entre
os itens e entre os testes, juntando os itens num só teste. Isso foi o que se
aplicou. Portanto, a TRI não começou a ser aplicada em 1995; foi antes,
nesse trabalho que fizemos. Esse método está documentado, com poucos
detalhes, no relatório do ciclo de 1993.6
Mas, quanto à forma como se usa a TRI hoje, tenho ressalvas. Como os itens
não são divulgados para poder usá-los em aplicações futuras com o intuito
de permitir a comparação entre os testes, fica a dúvida: qual é a vantagem
de não divulgar o item e divulgar o resultado do teste? Como professor, se
me mostram o item que o aluno não acertou, sei mais ou menos o que fazer.
Prefiro divulgar os itens para o professor ter uma ideia do que pode ter
acontecido a divulgar uma escala abstrata que o professor não entende. A
ideia seria divulgar os itens respondidos pelo aluno para que o professor
analisasse e discutisse o que fazer. Penso que é muito mais eficiente
pedagogicamente, ao invés de divulgar escalas abstratas.
João Horta: Chegamos em 1995, quando Paulo Renato Souza assume como ministro
da Educação.
J. J. Waiselfisz: Como comentei, fui contratado no início de 1995. Paulo Renato fazia
questão da avaliação desde o início de sua gestão. Tendo criado e
impulsionado o Saeb, eu era considerado figura importante nesse processo.
Considero 1995 o ponto de ruptura: uma cultura de avaliação se instalando
e enorme interesse das secretarias em continuar com o Sistema.
6
Brasil. Inep (1995).
Em Aberto, Brasília, v. 29, n. 96, p. 177-193, maio/ago. 2016
187
Preparei um conjunto de oito sugestões para o desenvolvimento e a
consolidação do Saeb.7 Vou ler aqui uns pontos do documento, e depois lhe
passo uma cópia, para ser levada para a biblioteca do Inep.
A primeira sugestão, na verdade, era reforçar os aspectos mais importantes
da proposta original, apontando que o Sistema deveria ser patrimônio dos
estados e que seria um retrocesso mudar as estratégias ou finalidades do
Saeb sem a participação de estados e municípios. Apontava também que,
apesar de ser um indicador relevante, o desempenho do aluno não era
suficiente, pois diagnosticava uma situação sem apontar como superá-la.
Além disso, afirmava que seria possível a realização do seu terceiro ciclo,
ainda em 1995, apesar do curto tempo para isso.
A segunda sugestão envolvia aprimorar o teste cognitivo, e eu apontava a
importância do uso da TRI para melhorar o ferramental para a construção
de itens e sua análise, argumentando que já existia competência para tal
no Brasil, ainda que pouco desenvolvida: Philip Flecher, da Fundação Carlos
Chagas, e Ruben Klein, da Fundação Cesgranrio. Para isso, sugeria duas
estratégias: a mais cara seria contratar as duas instituições para o
desenvolvimento de um banco de 1.200 itens ao custo de quase R$ 300
mil; a outra utilizaria os professores do Distrito Federal, treinados pelo Luiz
Pasquali da UnB, para elaborar itens e depois fazer um pré-teste usando as
equipes dos estados, a um custo inferior a R$ 80 mil.
188
Outras duas sugestões envolviam a reformulação dos questionários de
gestão e do professor e o desenvolvimento de novos levantamentos (hábitos
de estudo e leitura, nível socioeconômico familiar, participação dos pais nos
estudos dos filhos e currículo familiar). As outras sugestões envolviam o
aprimoramento dos cálculos amostrais, o uso de folhas para leitura ótica e
a supervisão de campo. Por fim, eu sugeri a inclusão do ensino médio no
Saeb.
Com relação ao ensino médio, esse era um desejo do Paulo Renato, muito
influenciado pelo Mares Guia,8 que tinha feito, como secretário de Educação
de Minas Gerais, um sistema de avaliação que incluía essa etapa.
De qualquer forma, havia um ambiente de avaliação que não existia antes
de 1990. Nenhum dos ministros anteriores falou duas palavras seguidas
acerca da avaliação. Já existia uma equipe no MEC que havia feito duas
avaliações nacionais, atuando com deficiências – mas vinha atuando.
Ninguém no Brasil tinha feito alguma avaliação nacional. Nem a Fundação
Carlos Chagas, nem a Fundação Cesgranrio, nem a UnB, nenhuma delas
trabalhou com as secretarias e as 27 unidades federadas, como a equipe
do Saeb. A equipe do MEC era a única, nacionalmente, que tinha a expertise
7
Waiselfisz (1995).
8
Walfrido dos Mares Guia, secretário de estado de Educação de Minas Gerais de 1991 a 1994 e vice-governador de
1995 a 1999. (N. do E.)
Em Aberto, Brasília, v. 29, n. 96, p. 177-193, maio/ago. 2016
para aplicar o Saeb naquele momento. Apesar disso, optou-se por contratar
outras instituições para aplicá-lo.
Quero reforçar aqui as duas dimensões do Saeb, conforme seu desenho
original. A primeira era voltada para dentro do sistema educacional, com o
objetivo de gerar conhecimento sobre a dimensão dos problemas que afetam
o sistema. A segunda, voltada para fora do sistema, buscava envolver a
sociedade civil nos problemas educacionais que afetam a educação pública.
Uma espécie de prestação de contas, accountability, do poder público,
referente a um dos serviços oferecidos à população.
João Horta: Nessa época havia duas propostas sobre a mesa: a sua e a de Korte e
Nash,9 que foram contratados pelo MEC para propor aprimoramentos no
Saeb.
J. J. Waiselfisz: Acho que as propostas não eram divergentes, as duas abordavam
os mesmos pontos. Era mais uma questão de forma, pois a minha destacava
a participação ativa dos estados. A outra apontava a necessidade de uma
aplicação externa para garantir mais controle. O que estava em jogo era
deixar o processo com o MEC e os estados ou repassar para instituições
fazerem a maior parte do trabalho, envolvendo a aplicação dos instrumentos
e a análise dos resultados. Outro ponto em jogo era a abrangência do Saeb
para além dos testes.
João Horta: Nessa época surge a ideia de accountability, algo que não era discutido
antes.
J. J. Waiselfisz: Nos dois primeiros ciclos, a preocupação fundamental era a de fazer
avaliações, não prestação de contas. Isso deu sustentação para que o Saeb
continuasse avançando. Toda a estratégia que foi montada no primeiro ciclo
foi implementada. Se o próximo ciclo do Saeb não acontecesse, haveria o
risco de degringolar tudo. A subida de Paulo Renato, que dava ênfase à
avaliação, foi o que deu sustentação para poder continuar avançando, como
comentei com Inês Pestana diversas vezes. A nossa ideia era mobilizar os
estados e municípios, a partir de aplicações amostrais. Eu sei que a partir
de uma amostra não se implanta o accountability, pois ninguém se reconhece
numa amostra.
A ideia original era apoiar política e tecnicamente a consolidação de sistemas
estaduais, para que eles fizessem o levantamento sobre o universo. A nossa
proposta, completamente diferente da que veio depois, era consolidar um
sistema nacional de avaliação, envolvendo todos os entes da Federação e
ajudando-os técnica e financeiramente. Era o modelo americano. A nosso
favor havia o fato de que muitos deles aceitavam esse modelo.
O interesse das escolas não é o interesse do MEC. O Ministério não vai dizer
que a escola tem de fazer isto ou aquilo. Isso é com as secretarias estaduais
9
Korte e Nash (1995).
Em Aberto, Brasília, v. 29, n. 96, p. 177-193, maio/ago. 2016
189
e municipais. Esse deveria ter sido o papel do MEC nessa época, e não o de
pagar para que alguma instituição fizesse a aplicação do Saeb. Teria sido
mais barato e mais eficiente, preservando o direito da integralidade nacional.
Cada estado tem sua órbita de atuação dentro do sistema, e cada município
também oferece sua colaboração.
João Horta: Essa ideia estava presente na Portaria MEC nº 1.795, de 27 de dezembro
de 1994, editada pelo ministro Murílio Hingel pouco antes da posse do
ministro Paulo Renato.
J. J. Waiselfisz: Sim, essa era a ideia. Cada estado fazendo a avaliação de cada uma
de suas escolas, numa época em que não havia a mínima tradição em
avaliação. Os técnicos de primeiro escalão do MEC daquela época diziam
que isso era para país de primeiro mundo; aqui não iria funcionar. Não era
verdade. Primeiro, todos os estados fizeram dois ciclos e ficou provado que
podia ser feito. Deviam ter assumido o compromisso de continuar avançando
e apoiando a criação desse sistema nacional. Ficou só na portaria de Murílio.
Não houve nenhum passo do MEC nesse sentido. Terceirizamos, acabou o
sistema nacional.
190
Era necessário crescer. O papel do MEC deveria ser o de estimular, discutir
e orientar a criação do sistema nacional. Não com todos os estados. O sistema
nacional seria criado com aqueles que tivessem interesse e condições de
avaliar o universo das escolas. Que fossem 15,19, 25 etc.; à medida que o
interesse surgisse, os outros se incorporariam ao sistema nacional. E haveria
um banco de itens nacional, que poderia ser partilhado por todos. Retiramse itens do banco, devolvem-se novos itens – uma troca. Os estados
alimentariam o nacional e o MEC os calibraria, permitindo que todos
trabalhassem na mesma métrica. Assim, estados interessados teriam sua
avaliação do universo escolar; os menos interessados teriam sua avaliação
por amostra de escolas.
Outra diferença importante do Saeb nacional por amostragem e os sistemas
estaduais refere-se ao caráter e à consequência da avaliação. O Saeb
nacional, apesar de sua sistematicidade, se comporta como pesquisa
avaliativa reiterada no tempo; não induz per se à mudança nas unidades
avaliadas. No máximo, fornece insumos para alternativas de superação em
que a própria presença da avaliação se converte em poderoso instrumento
indutor de mudanças. Ninguém quer ser fantoche. Com a participação dos
outros entes, as coisas poderiam ser diferentes.
João Horta: O senhor então acompanhou a aplicação de 1995?
J. J. Waiselfisz: A aplicação e a análise dos testes ficaram por conta das fundações
Cesgranrio e Carlos Chagas. A primeira ficou com a 8ª série do ensino
fundamental e a 3ª do ensino médio e a segunda, com a 4ª do fundamental
e a 2ª do médio.
Quando os resultados chegaram, fui chamado novamente porque os dados
estavam mostrando que os alunos da 3ª série do ensino médio apresentaram
Em Aberto, Brasília, v. 29, n. 96, p. 177-193, maio/ago. 2016
desempenho inferior aos da 2ª. Isso não fazia sentido e queriam que eu
ajudasse a encontrar uma saída. Durante as negociações entre as duas
instituições, a análise dos resultados foi feita de forma diferente por cada
uma delas, utilizando-se modelos também diferentes. Na época, decidiu-se
deixar de lado o resultado da 2ª série e divulgar apenas o da 3ª. A minha
opinião era de não divulgar nenhum dos dois, dado que não se sabia se o
erro estava no segundo ou no terceiro ano, ou em ambos. Sugeri estudar
melhor o que poderia ter acontecido, aprimorar os mecanismos e fazer a
aplicação no ciclo seguinte. Não fui ouvido.
Por diversos motivos, a minha situação com a cúpula do MEC foi ficando
cada vez mais delicada, e eu resolvi sair. Voltei para Recife e fiz algumas
consultorias, por intermédio da Unesco, em Alagoas e no Maranhão, com
o objetivo de desenvolver sistemas de avaliação. De vez em quando algumas
pessoas ainda me chamam para discutir o tema.
João Horta: Considerando sua posição privilegiada no processo, pelo menos nos
estágios iniciais, o que fez com que a avaliação fosse um dos mais longevos
programas do MEC, passando por Sarney,10 Itamar,11 FHC,12 Lula13 e Dilma14?
J. J. Waiselfisz: O Saeb não foi um instrumento inventado, uma ideia que foi vendida.
Quando foi desenvolvido, ele estava respondendo a uma necessidade muito
grande do momento. A avaliação se vendeu sozinha, ninguém teve de fazer
muita propaganda para ser adotada. Essa era a novidade. Sentia-se tanto
sua necessidade que o segundo ciclo foi financiado pelos próprios estados.
Veio a calhar na hora justa, no momento justo. Hora justa porque havia uma
grande virada nas políticas educacionais. Passou-se do quantitativo para o
qualitativo. O problema da oferta, uma grande preocupação do Brasil, estava
bem encaminhado e os holofotes foram direcionados para a qualidade.
Ninguém sabia muito bem o que fazer e o Saeb foi importante para começar
a dar algumas respostas, apesar de seus defeitos e problemas. Suas análises
ajudaram, de alguma forma, a escola a se converter em uma entidade
gestora de políticas e não em entidade executora de decisões. Nesse
momento, frutificou a eleição de diretor e também questões ligadas à gestão
e democratização escolar.
A partir da virada do século, o poder de decisão política se coloca nas duas
pontas do processo pedagógico: na formulação de grandes metas e grandes
objetivos a serem atingidos em cada momento histórico e no controle e
supervisão dessas metas, à medida que estão sendo alcançadas e se foram
alcançadas. O Saeb se encaixa nessa segunda parte. A criação de parâmetros
curriculares respondeu até certo ponto à primeira parte.
10
José Sarney de Araújo Costa, presidente do Brasil, 1985-1990. (N. do E.)
11
Itamar Augusto Cautiero Franco, presidente do Brasil, 1992-1995. (N. do E.)
12
Fernando Henrique Cardoso, presidente do Brasil, 1995-2002. (N. do E.)
13
Luiz Inácio Lula da Silva, presidente do Brasil, 2003-2010. (N. do E.)
14
Dilma Vana Rousseff, presidente do Brasil, 2011-2016. (N. do E.)
Em Aberto, Brasília, v. 29, n. 96, p. 177-193, maio/ago. 2016
191
Quando encontro um professor, pergunto: como foram no Saeb? O professor
sabe o que é, sabe que existe, sabe das metas, é de sua escola. Sabe que é
uma prova e sabe se foi bem, regular ou mal. Mas não tem como aprofundar
mais nada. A própria concepção do Saeb faz isso; gera um cansaço pela
utilização de escalas incompreensíveis. Acredito que 90% do potencial do
Saeb não é empregado.
Acho que se deveria voltar às origens, porque havia propostas muito
promissoras que foram abandonadas pelo caminho. Hoje temos condições
que não tínhamos naquela época. As secretarias estão informatizadas. Não
temos que mandar computador para as escolas. Podemos pensar alternativas
diferentes para o ensino médio, como os testes adaptativos. Devemos ir
pensando em alternativas como essa. A tecnologia mudou; as técnicas
mudaram. Só o Saeb que não mudou em 25 anos. Acho que o Saeb precisa
se repensar.
E qual o papel do MEC dentro do Sistema Nacional de Avaliação? Acho que
o papel do MEC não é vender pacotes nem ser intermediário entre a grande
indústria pedagógica educacional do Brasil e a escola. O papel do MEC é
criar e desenvolver competências. Introjetar as metas e os objetivos de uma
sociedade democrática dentro da sua própria estrutura. Se queremos criar
democracia, não pode ser mediante autoritarismo.
192
Uma gestão democrática exige autonomia nas decisões, participação nas
decisões – algo que não encontro nem no MEC nem nas próprias secretarias.
Os gestores estão comprando competências e passam a depender delas.
Mas não se pode esquecer: o desempenho do aluno é um indicador
privilegiado, mas não se pode considerá-lo suficiente. Como indicador do
processo, diagnostica uma situação, mas não aponta como podemos superála. Para que possamos compreender mais sobre a qualidade do ensino, são
necessários outros indicadores que possam explicar as condicionantes extra
e intraescolares; em última instância, é necessário passar o registro dos
efeitos à consideração das possíveis determinantes.
Hoje tudo o que interessa é aplicar os testes. O resto é resto. O que interessa
é dar tabelinhas e resultados. A ideia de sistema de avaliação se perdeu,
hoje não existe. O Saeb deveria continuar sendo patrimônio dos estados,
depois ser aprofundado pelos municípios e, mais ainda, pelas escolas.
Em Aberto, Brasília, v. 29, n. 96, p. 177-193, maio/ago. 2016
Referências bibliográficas
BRASIL. Instituto Nacional de Estudos e Pesquisas Educacionais (Inep). Relatório
do 2º ciclo do Sistema Nacional de Avaliação da Educação Básica, Saeb-1993.
Brasília, 1995. 165 p.
INSTITUTO INTERAMERICANO DE COOPERAÇÃO PARA A AGRICULTURA (IICA);
MINISTÉRIO DA EDUCAÇÃO (MEC). Relatório da aplicação piloto do Sistema de
Avaliação do Ensino Público de Primeiro Grau. Brasília: IICA, 1990. 109 p.
KORTE, Robert C.; NASH, Beverly E. Review of the Sistema Nacional de Avaliação
da Educação Básica (Saeb). Brasilia: Inep, 1995. 35 p.
WAISELFISZ, Jacobo. Proposta de avaliação do programa de educação básica para
o nordeste (VI acordo MEC/Bird). 1988. Mimeo. 21 p.
WAISELFISZ, Jacobo. Sugestões para a reformulação do Saeb. 1995. Mimeo. 14p.
Julio Jacobo Waiselfisz, formado em Sociologia pela Universidade de Buenos
Aires, com mestrado em Educação pela Universidade Federal do Rio Grande do Sul
(UFRGS), trabalhou como docente, pesquisador e gestor universitário na Argentina,
em El Salvador e no Brasil. Trabalhou no Instituto Interamericano de Cooperación
para la Agricultura (IICA), órgão da Organização dos Estados Americanos (OEA), na
área de educação rural, desenvolvendo atividades em Pernambuco e, depois, em
Brasília; na Organização das Nações Unidas para a Educação, a Ciência e a Cultura
(Unesco), em Brasília e em Recife; prestou diversas consultorias para o Ministério
da Educação (MEC). Atualmente, integra os quadros da Faculdade Latino-Americana
de Ciências Sociais (Flacso), sediada no Rio de Janeiro, onde atua como professor,
pesquisador e coordenador da área de estudos da violência e, desde 1998, coordena
a pesquisa Mapa da Violência no Brasil e continua se dedicando aos estudos da
avaliação educacional.
juliowa@gmail.com
João Luiz Horta Neto, doutor em Política Social e mestre em Educação pela
Universidade de Brasília (UnB), é pesquisador do Instituto Nacional de Estudos e
Pesquisas Educacionais Anísio Teixeira (Inep). Possui diversos capítulos de livros e
artigos publicados sobre a avaliação educacional.
jlhorta@gmail.com
Recebido em 9 de maio de 2016
Aprovado em 3 de junho de 2016
Em Aberto, Brasília, v. 29, n. 96, p. 177-193, maio/ago. 2016
193