Você está na página 1de 122

INTRODUÇÃO

O objetivo da apostila Estatísticas educacionais, avaliação da


educação básica e posicionamento do Brasil no cenário internacional é
fornecer ao leitor uma introdução dos principais indicadores usados na
descrição do sistema educacional brasileiro, principalmente, na avaliação da
educação básica e nas comparações internacionais.
Sob esse foco, esta apostila foi dividida em quatro módulos.
No módulo I, descreveremos os indicadores educacionais usados
para caracterizar o acesso e a permanência na escola. Essas descrições
encontram-se sintetizadas na trajetória escolar do estudante e nas suas
taxas de abandono, aprovação e reprovação. Para entendermos a
importância desses indicadores, iniciaremos com um detalhamento do
sistema educacional e das suas finalidades, cujo monitoramento é
viabilizado pelos indicadores apresentados.
No módulo II, analisaremos os indicadores de aprendizado
utilizados no Brasil. Para tanto, consideraremos as matrizes de referência, a
escala de proficiência, e os indicadores de qualidade e desigualdade
utilizados pelo Sistema de Avaliação da Educação Básica (Saeb).
No módulo III, analisaremos, por meio de uma descrição
educacional e estatística, o Índice de Desenvolvimento da Educação
Básica (Ideb). Além disso, apresentaremos as sínteses dos resultados das
avaliações realizadas por meio de duas plataformas: o portal Ideb Escola
e o portal QEdu, que auxiliam na contextualização do cenário
educacional brasileiro.
Por fim, no módulo IV, compararemos os resultados dos
estudantes brasileiros de educação básica com os dos seus pares latino-
americanos e internacionais. Para tanto, apresentaremos o desempenho
dos alunos brasileiros em duas avaliações internacionais: os estudos
organizados pela Unesco e o Pisa.
SUMÁRIO
MÓDULO I – EDUCAÇÃO: APRENDIZADOS, ENSINO E ESCOLA .................................................................. 9

INTRODUÇÃO ..................................................................................................................................... 9
Sistema educacional ....................................................................................................................... 11
TRAJETÓRIAS ESCOLARES ................................................................................................................ 13
Categorização das trajetórias........................................................................................................ 14
Etapas e modalidades do ensino ................................................................................................... 14
Faixa etária .......................................................................................................................................... 15
Território .............................................................................................................................................. 15
INDICADORES DE ACESSO E PERMANÊNCIA ................................................................................ 16
Taxa de analfabetismo (TA) ........................................................................................................... 16
Acesso ............................................................................................................................................... 17
Taxa de atendimento escolar (TAE) ............................................................................................... 17
Taxa de escolarização líquida (TEL)................................................................................................ 18
Taxa de escolarização bruta (TEB) ................................................................................................. 20
Permanência .................................................................................................................................... 20
RENDIMENTO ESCOLAR .................................................................................................................. 21
Movimento escolar ......................................................................................................................... 22
Aprovação e reprovação ................................................................................................................ 22
Taxas de rendimento escolar ........................................................................................................ 22
Exemplo de cálculo, aplicação e interpretação dos indicadores ............................................ 24

MÓDULO II – INDICADORES DE APRENDIZADO .......................................................................................... 31

INTRODUÇÃO ................................................................................................................................... 31
MATRIZES DE REFERÊNCIA DO SAEB ............................................................................................. 33
Matriz de Língua Portuguesa ........................................................................................................ 34
Matriz de Matemática..................................................................................................................... 35
Composição dos testes .................................................................................................................. 36
Escolas e alunos avaliados............................................................................................................. 37
Prova Brasil....................................................................................................................................... 37
Motivação ............................................................................................................................................ 38
Características .................................................................................................................................... 39
Resultados ........................................................................................................................................... 40
Relevância pedagógica ..................................................................................................................... 41
Análise crítica ...................................................................................................................................... 41
ESCALA DE PROFICIÊNCIA ............................................................................................................... 43
Interpretação pedagógica da medida ......................................................................................... 46
Interpretação normativa ................................................................................................................ 47
Distribuição de referência ............................................................................................................. 48
INDICADORES DE QUALIDADE ....................................................................................................... 51
INDICADORES DE DESIGUALDADE ................................................................................................ 52
Diferenças segundo o sexo do aluno .......................................................................................... 53
Diferenças segundo a raça/cor do aluno .................................................................................... 55
Diferenças segundo as faixas de nível socioeconômico do aluno ......................................... 57
Diferenças segundo grupos definidos por múltiplas variáveis ............................................... 59

MÓDULO III – DESCRIÇÃO EDUCACIONAL E ESTATÍSTICA DO IDEB......................................................... 63

INTRODUÇÃO ................................................................................................................................... 63
ÍNDICE DE DESENVOLVIMENTO DA EDUCAÇÃO BÁSICA (IDEB) ................................................ 65
Componentes do Ideb .................................................................................................................... 65
Indicador de desempenho .............................................................................................................. 66
Indicador de rendimento ................................................................................................................. 69
Cálculo do Ideb ................................................................................................................................ 71
INTERPRETAÇÃO NORMATIVA ........................................................................................................ 72
Faixas do Ideb .................................................................................................................................. 73
ANÁLISE CRÍTICA DO IDEB .............................................................................................................. 76
Discussão .......................................................................................................................................... 80
EVOLUÇÃO DO IDEB E SEU USO PARA MONITORAMENTO DAS ESCOLAS .............................. 81
Plataforma de resultados e metas ............................................................................................... 81
Plataforma de consulta pública .................................................................................................... 83
Plataforma QEdu ............................................................................................................................. 85

MÓDULO IV – COMPARAÇÃO COM PARES LATINO-AMERICANOS E INTERNACIONAIS ...................... 87

COMPARAÇÕES LATINO-AMERICANAS ......................................................................................... 87


Instituição responsável .................................................................................................................. 87
Primeiro estudo comparativo e explicativo regional (Perce) ................................................... 88
Segundo estudo comparativo e explicativo regional (Serce) ................................................... 90
Terceiro estudo comparativo e explicativo regional (Terce) .................................................... 95
Análise critica ................................................................................................................................. 100
COMPARAÇÃO INTERNACIONAL ................................................................................................. 101
Pisa ................................................................................................................................................... 101
Composição da amostra ................................................................................................................ 102
Questionários contextuais............................................................................................................. 103
Indicadores de características dos estudantes ......................................................................... 103
Indicadores de características das escolas ................................................................................ 104
O que é testado?............................................................................................................................ 104
Descrição dos testes ....................................................................................................................... 105
Escala de proficiência...................................................................................................................... 106
Níveis .................................................................................................................................................. 106
Resultados do Brasil........................................................................................................................ 110
Impactos no Brasil ........................................................................................................................... 112
ANEXO I ............................................................................................................................................................. 113

BIBLIOGRAFIA .................................................................................................................................... 116

PROFESSOR-AUTOR ........................................................................................................................... 120


MÓDULO I – EDUCAÇÃO: APRENDIZADOS,
ENSINO E ESCOLA

Neste módulo, descreveremos os indicadores educacionais usados para caracterizar o acesso


e a permanência na escola. Essas descrições encontram-se sintetizadas na trajetória escolar do
estudante e nas suas taxas de abandono, aprovação e reprovação. Para entendermos a importância
desses indicadores, iniciaremos com um detalhamento do sistema educacional e das suas
finalidades, cujo monitoramento é viabilizado pelos indicadores apresentados.

Introdução
A palavra “educação” está associada tanto aos aprendizados adquiridos ao longo da vida
quanto ao ensino, necessário para a aquisição desses aprendizados, e à escola, instituição onde
ocorrem muitos dos aprendizados essenciais. O aprendizado é, portanto, o núcleo central de
sentido da palavra “educação”, como estabelecido no artigo 205 da Constituição Brasileira:

“Art. 205º - A educação, direito de todos e dever do Estado e da família,


será promovida e incentivada com a colaboração da sociedade, visando ao
pleno desenvolvimento da pessoa, seu preparo para o exercício da
cidadania e sua qualificação para o trabalho” (BRASIL, 1988).

A leitura desse artigo, que estabelece a educação como direito, permite-nos afirmar que a
educação tem como objetivo dotar as pessoas de capacidades que as possibilitem desenvolver o seu
pleno potencial, exercitar a cidadania e inserir-se no mundo do trabalho. Outra síntese
particularmente influente dos objetivos da educação é aquela usada no Relatório Delors da Unesco
(1998), em que se estabelece que a educação visa dotar as pessoas das capacidades de aprender a
aprender, a conviver, a ser e a fazer.
Embora completamente adequadas a um artigo constitucional ou a um relatório como o da
Unesco, essas categorias usadas para descrever os aprendizados devem ser desdobradas de forma
que se possam concretizar nas propostas pedagógicas das escolas. O primeiro passo a ser dado para
alcançar essa meta consiste em estabelecer as chamadas aprendizagens essenciais. O Brasil ainda
não fez isso, mas há vários exemplos internacionais. A Comissão Europeia (2006), por exemplo,
apresenta como essenciais as seguintes aprendizagens:

“Comunicação na língua materna, Comunicação em línguas estrangeiras,


Competência matemática e competências básicas em ciências e
tecnologia, Competência digital, aprender a aprender, Competências
sociais e cívicas, Empreendedorismo, Consciência e expressão cultural”
(Comissão Europeia, 2006).

Como podemos notar, os aprendizados necessários à vida têm pelo menos quatro
dimensões: a dimensão cognitiva, a das atitudes, a dos valores e a da cultura. Tais aprendizados
são, portanto, adquiridos em vários ambientes. Esta obra, no entanto, toma como referência a Lei
de Diretrizes e Bases da Educação (Lei 9.394/96) e concentra-se na educação escolar, mais
especificamente na educação básica, que oportuniza os aprendizados por meio do ensino. Vejamos
como a educação escolar é definida na LDB:

“Art. 1º A educação abrange os processos formativos que se desenvolvem


na vida familiar, na convivência humana, no trabalho, nas instituições de
ensino e pesquisa, nos movimentos sociais e organizações da sociedade
civil e nas manifestações culturais.
§ 1º Esta Lei disciplina a educação escolar, que se desenvolve,
predominantemente, por meio do ensino, em instituições próprias.
§ 2º A educação escolar deverá vincular-se ao mundo do trabalho e a
prática social” (BRASIL, LDB, 9.394/96)

10
Sistema educacional
Para garantirem o direito à educação, as sociedades criam os seus sistemas educacionais,
constituídos de muitas instituições e atores. Naturalmente, esse sistema tem como resultado geral
os aprendizados dos alunos. No entanto, para assegurar que um estudante tenha adquirido os
aprendizados de que precisa para a sua vida, é necessário verificar se este teve acesso à escola e se lá
permaneceu tempo suficiente para aprender. Além disso é necessário caracterizar os diferentes
atores e instituições que compõem o sistema. De forma particular, é preciso estudar o sistema
educacional reconhecendo os seus diferentes níveis:
os alunos;
a sala de aula;
a escola;
as redes de escolas e
a sociedade.

Cada um desses níveis tem características próprias, que não estão presentes no nível
anterior. Dessa forma, uma escola deve ser analisada como uma estrutura complexa, cujas
características vão muito além daquelas típicas de um mero conjunto de salas de aula e de alunos
individuais. Uma rede de escolas, que é mais do que um conjunto de escolas, e toda a
complexidade das Secretarias de Educação e de órgãos centrais da administração das redes
públicas precisam ser consideradas no estudo do sistema educacional.

11
O modelo conceitual apresentado a seguir sintetiza a estrutura desse sistema, permitindo-nos
definir, monitorar e planejar ações de melhoria na educação escolar.

Figura 1 – Modelo Conceitual explicativo da proficiência

Fonte: Soares (2012).

12
Neste conteúdo, apresentaremos e discutiremos os indicadores que caracterizam cada uma
das partes do sistema educacional, como descrito no modelo apresentado.

Para saber mais sobre sistema educacional, leia:

Unesco. Repensar a educação: rumo a um bem comum mundial? Brasília, DF: Unesco,
2016. Disponível em: <http://unesdoc.unesco.org/images/0024/002446/
244670POR.pdf>. Acesso em: fev. 2018.

Trajetórias escolares
Como vimos, para adquirir os aprendizados que caracterizam o atendimento do direito à
educação, é necessário que o cidadão acesse e frequente uma escola de educação básica. Para
monitorar esse direito de todos os cidadãos de forma completa, seria necessário construir um
arquivo em que cada linha representasse um cidadão e cujas colunas registrassem a sua situação
escolar ano a ano. Tal arquivo permitiria a construção da trajetória escolar de todas as pessoas e
produziria, com muita facilidade, as informações necessárias às diferentes políticas públicas
educacionais. O atual Plano Nacional de Educação (Lei nº. 13.005, de 25 de junho de 2014)
estabelece, por exemplo, que o Brasil deveria universalizar, até 2016, a educação infantil para as
crianças de quatro a cinco anos de idade. Para verificar se isso foi ou não atendido, bastaria, por
meio do nosso arquivo hipotético de trajetórias, separar as crianças de quatro a cinco anos de
idade e verificar se estão matriculadas em uma escola de educação infantil. Essa seria uma
operação muito simples de seleção e contagem de dados.
No entanto, esse tipo de arquivo não existe e, para produzirmos as informações necessárias à
proposição e ao monitoramento das políticas públicas educacionais, precisamos utilizar várias
fontes de informação alternativas, como:
o Censo Demográfico, realizado pelo Instituto Brasileiro de Geografia e Estatística
(IBGE) de 10 em 10 anos;
a Pesquisa Nacional por Amostra de Domicílios (Pnad), realizada anualmente também
pelo IBGE e
o Censo Escolar, realizado pelo Instituto Nacional de Estudos e Pesquisas Anísio
Teixeira (Inep) anualmente.

Os indicadores dessas pesquisas são amplamente difundidos e usados, pois nos permitem
conhecer aspectos específicos da trajetória escolar dos estudantes. Entre esses aspectos incluem-se
o acesso à escola, a permanência e a conclusão das diferentes etapas em que o ensino é organizado.
Nas próximas seções, utilizaremos as sínteses divulgadas no Anuário da Educação Básica
brasileira (2016), uma publicação conjunta do movimento Todos pela Educação e da Editora

13
Moderna que, além de apresentar os números do Censo Demográfico e da Pesquisa Nacional por
Amostra de Domicílios (Pnad), apurados e divulgados pelo Instituto Brasileiro de Geografia e
Estatística (IBGE), traz também os dados do Censo Escolar e do Sistema de Avaliação da
Educação Básica (Saeb), disponibilizados pelo Ministério da Educação.

Criado em setembro de 2006, o Todos Pela Educação é um


movimento financiado, exclusivamente, pela iniciativa
privada, congregando sociedade civil organizada,
educadores e gestores públicos, que têm como objetivo
contribuir para que o Brasil garanta a todas as crianças e
jovens o direito à educação básica de qualidade. O
movimento trabalha para que sejam garantidas as
condições de acesso, alfabetização e sucesso escolar, além
de lutar pela ampliação e boa gestão dos recursos públicos
investidos na educação. Esses grandes objetivos foram
traduzidos em cinco metas, com prazo de cumprimento até
2022, ano do bicentenário da Independência do Brasil.

É importante ressaltarmos que o Censo Escolar permite-nos obter informações completas


das trajetórias escolares de todos os estudantes matriculados nas escolas de educação básica a partir
de 2007. Assim sendo, com o passar dos anos, o Inep terá todas as informações necessárias à
construção da trajetória escolar de cada brasileiro, já que, a cada ano, é mais razoável assumirmos
que todas as famílias matriculam os seus filhos em uma escola.

Categorização das trajetórias


Muitos indicadores apresentam sínteses das trajetórias de estudantes que pertencem a um
grupo definido por etapa e modalidade de ensino, faixa etária e local de residência. Dessa forma,
antes de prosseguirmos, é importante que fixemos esses conceitos.

Etapas e modalidades do ensino


A LDB segmenta a educação básica da seguinte forma:
creche;
educação infantil;
ensino fundamental (dividido em duas etapas: anos iniciais e anos finais) e
ensino médio.

14
Essas diferentes etapas são oferecidas em diferentes modalidades. A mais importante delas é
a regular, mas existem ainda a Educação de Jovens e Adultos, a Educação Profissional ou Técnica,
a Educação Especial e a Educação Indígena.

Faixa etária
Atualmente, as leis brasileiras estabelecem que a frequência à escola é obrigatória dos 4 aos
17 anos. No entanto, como nem sempre foi assim, há na população brasileira pessoas que, por
motivos diversos, não completaram diferentes etapas da educação básica. A idade dos alunos é
utilizada para caracterizar as trajetórias educacionais e, por isso, os indicadores educacionais são
usualmente relativos a faixas etárias específicas. A LDB fixa essas faixas etárias e os respectivos
segmentos que o estudante deveria cumprir caso tivesse uma trajetória escolar regular. Vejamos:
creche – para as crianças de 0 a 3 anos;
educação infantil – para as crianças de 4 e 5 anos;
ensino fundamental I – para as de 6 a 10 anos;
ensino fundamental II – para as de 10 a 14 anos e
ensino médio – para os jovens de 14 a 17 anos.

Como os nascimentos ocorrem durante todo o ano, mas o ano escolar só se inicia em
fevereiro, há uma convenção para a alocação dos indivíduos nessas diferentes faixas etárias. Fixada
pelo Conselho Nacional de Educação (CNE), a data base para as decisões educacionais é 31 de
março, ou seja, em todas as questões escolares, considera-se a idade da pessoa no dia 31 de março,
data escolhida por ser dois meses depois do início usual do ano letivo, quando, portanto, as
matrículas já devem estar estabilizadas. Naturalmente, a fixação de outra data de referência
mudaria a faixa etária usada para efeitos do planejamento educacional, com sérias consequências
para o planejamento do seu atendimento. Por conta disso, a data escolhida é uma opção
polêmica, cuja legalidade foi contestada e hoje aguarda decisão de recursos no Superior Tribunal
Federal (STF).

Território
As leis educacionais estabelecem que a União é responsável pelas instituições de ensino
superior e, em relação à educação básica, tem função supletiva e redistributiva. Já os estados são
responsáveis pelo ensino médio e, em parceira com os municípios, pelo ensino fundamental. Os
municípios, por sua vez, são responsáveis pelas creches, pela educação infantil e pelo ensino
fundamental, em parceria com os estados.

15
Indicadores de acesso e permanência
Como já vimos, os dados que fornecem informações sobre o acesso à educação básica são
obtidos por meio do Censo Demográfico e da Pnad. O Censo Demográfico usa um questionário
muito sintético para a grande maioria das residências e um formulário mais extenso para uma
amostra de 10% delas. Isso quer dizer que os indicadores educacionais produzidos com dados do
Censo Demográfico são estimativas feitas a partir de uma amostra. Assim sendo, só se conhece a
situação escolar para conjuntos de indivíduos, por exemplo, os residentes em um dado município.
O questionário usado no Censo Demográfico e na Pnad inclui as seguintes perguntas para
cada membro da família incluída na amostra:

1. Sabe ler e escrever?


2. Frequenta escola ou creche?
2.1. Qual é o curso que frequenta?
2.2. Qual é a série do curso que frequenta?
2.3. Em que município e UF frequenta escola ou creche?
3. Qual foi o curso mais elevado que frequentou?
3.1. Concluiu esse curso?

A resposta a essas perguntas fornece informações para a construção dos indicadores de


acesso e permanência dos estudantes, cujas definições estão no Dicionário de indicadores
educacionais do Inep.

Taxa de analfabetismo (TA)


No Brasil, considera-se analfabeto o sujeito incapaz de ler e escrever ao menos um bilhete
simples na sua língua de origem. Nos questionários da Pnad e do Censo Demográfico, o
analfabetismo é captado pela resposta dada à pergunta “Sabe ler e escrever?”. Aquele que responde
“Não” é considerado analfabeto.
A taxa de analfabetismo (TA) é calculada por meio do quociente entre a população analfabeta e
a população total de um mesmo grupo etário. Essa taxa é muito utilizada pelos órgãos internacionais,
pois permite medir os níveis de desenvolvimento socioeconômico dos países. Vejamos:

100

Onde:
= taxa de analfabetismo
= população analfabeta de determinado grupo etário

16
= população total nesse mesmo grupo etário
Para verificar o avanço das políticas públicas referentes ao ensino básico e contribuir para a
formulação de políticas de alfabetização de adultos, é oportuno que a análise dessa taxa seja
realizada por faixa etária, retirando assim o efeito composicional da estrutura etária que está
embutida na taxa (RIOS-NETO, 2005).

Acesso
O acesso é, usualmente, sintetizado em três indicadores: taxa de atendimento escolar, taxa
de escolarização líquida e taxa de escolarização bruta. Veremos cada um deles, com mais detalhes,
a seguir.

Taxa de atendimento escolar (TAE)


A taxa de atendimento escolar é definida como o percentual da população de determinada
idade ou faixa etária que se encontra matriculado na escola. Formalmente, essa taxa é definida da
seguinte forma:

100

Onde:
= número de pessoas matriculadas na escola na idade ou faixa etária
= população na idade ou faixa etária
= até 3, 4 e 5, 6 a 14, 15 a 17 e 20 a 24 anos

No Anuário da Educação Básica (2016), taxa de atendimento escolar está disponível para
diferentes faixas etárias. Por exemplo, a tabela a seguir, cujos resultados foram calculados com
dados da Pnad, apresenta as informações referentes às crianças de quatro e cinco anos.

17
Tabela 1 – Crianças de quatro e cinco anos que frequentam escola no Brasil (2001-2014)

ano percentual de crianças

2001 66,4

2002 67,6

2003 69,7

2004 71,8

2005 72,5

2006 76,7

2007 78,9

2008 81,1

2009 83,0

2010 0,0

2011 85,6

2012 85,9

2013 87,9

2014 89,1

Fonte: Anuário da Educação Básica (2016, p. 17).

Taxa de escolarização líquida (TEL)


Para definir as prioridades educacionais de um governo, é importante saber quantas crianças
ou jovens estão sendo atendidos em dada etapa do ensino na idade certa. Essa informação é
captada pela taxa de escolarização líquida (TEL), definida por meio da divisão entre o número
total de matrículas de alunos com a idade prevista para a etapa de ensino em consideração e o
número de estudantes dessa faixa etária na população de interesse. Dessa forma, temos:

ú é !
100
" " çã % á !

18
Por exemplo, se um estudante tem uma trajetória regular, deve cursar o ensino médio
quando tiver entre 15 a 17 anos. Nesse caso, a taxa líquida de escolarização é a razão entre o
número de jovens de 15 a 17 anos matriculados no ensino médio em um território (k) e o
número total de pessoas na mesma faixa etária no mesmo território. Em outras palavras, o
denominador dessa taxa é igual ao número de jovens residentes no município, na faixa etária de
15 a 17 anos, e o numerador é obtido identificando-se, entre os jovens com idade nessa faixa, os
que estão matriculados no ensino médio.
Baixos valores da TEL indicam a existência de jovens de 15 e 17 anos que não estão
frequentando o ensino médio. Esse problema pode ter como causa:
a evasão do aluno ainda no ensino fundamental;
o fato de o aluno ainda estar cursando o ensino fundamental ou
o fato de ter terminando o ensino fundamental, mas não ter efetuado matrícula no
ensino médio por algum motivo.

Como um estudante chega ao ensino médio com a idade esperada somente se teve uma
trajetória escolar regular, a TEL descreve, de forma bastante útil, uma das dimensões da qualidade
da educação no território em que é calculada, ou seja, o nível de atraso escolar nessa população.

A tabela a seguir mostra os resultados da TEL entre os anos de 2000 e 2015:

Tabela 2 – Taxa de escolarização líquida – ensino médio – Brasil e Regiões (2000 a 2015)

localidade 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2011 2012 2013 2014 2015

Brasil 34,4 36,9 40,0 43,1 44,4 45,3 47,1 48,0 50,4 50,9 51,6 54,0 55,1 56,3 56,9

Norte 19,2 26,4 29,1 31,7 27,5 30,7 34,7 36,0 39,7 39,1 41,2 42,4 44,9 46,7 47,9

Nordeste 18,9 20,5 22,7 25,5 27,9 30,1 33,1 34,5 36,4 39,2 42,6 44,8 46,2 47,5 48,3

Sudeste 46,3 48,0 52,4 55,5 58,0 57,4 57,9 58,8 61,9 60,5 59,6 62,5 62,9 63,8 65,2

Sul 44,0 47,8 50,7 52,7 53,4 53,6 54,9 55,0 56,4 57,4 55,1 57,1 59,3 61,0 58,6

Centro-
34,4 36,7 40,0 44,2 44,9 45,9 48,3 49,6 51,8 54,7 56,8 58,5 57,2 58,5 58,5
Oeste

Fonte: IBGE/Pnad. Elaborado por Inep/Deed.

19
Taxa de escolarização bruta (TEB)
Outro indicador de acesso muito usado é a taxa de escolarização bruta. Esse indicador
mede o esforço que está sendo feito para dar acesso à educação aos que não a tiveram na idade
correta. Vejamos:

ú !
' 100
" " çã % á !

No numerador, temos o total de pessoas cursando a etapa no território, sem restrição de


idade. No denominador, estão alocadas todas as pessoas da faixa etária em análise. Se o resultado
desse indicador é maior que 100%, isso significa que o território, região, estado ou município está
buscando atender aos que não foram atendidos na idade certa.
Na tabela a seguir, temos os resultados da TEB entre os anos de 200 e 2015:

Tabela 3 – Taxa de escolarização bruta – ensino médio – Brasil e Regiões (2000 a 2015)

Localidade 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2011 2012 2013 2014 2015

Brasil 73,0 73,9 75,9 81,1 81,4 80,7 82,2 82,6 85,5 83,0 82,2 83,2 83,5 83,7 83,3

Norte 59,6 80,1 80,7 85,6 72,1 76,8 78,0 75,2 83,3 80,3 79,8 81,5 82,3 84,2 82,3

Nordeste 53,8 56,7 58,2 67,0 71,3 72,0 76,8 79,4 78,7 77,4 77,9 78,2 79,6 78,6 77,5

Sudeste 87,9 84,7 87,4 90,6 91,1 88,2 88,0 87,5 91,6 88,5 85,3 87,9 86,8 87,1 89,5

Sul 81,4 78,1 80,5 82,8 81,7 80,5 79,4 79,9 83,4 81,1 80,4 79,9 82,3 83,1 78,6

Centro-Oeste 77,2 77,5 80,4 83,9 82,9 82,1 84,0 84,4 88,0 86,1 91,5 88,2 86,0 86,7 84,2

Fonte: IBGE/Pnad. Elaborado por Inep/Deed.

Permanência
Na ausência de informações sobre a trajetória escolar individual, a permanência do
estudante na escola é acompanhada de forma indireta. Nesse caso, as taxas de conclusão das etapas
da educação básica são indicadores especialmente importantes.
Por exemplo, um estudante cuja trajetória é regular deve terminar o ensino fundamental
com 14 anos. Dessa forma, interessa-nos saber quantos jovens de 16 anos terminaram o ensino
fundamental. A tabela a seguir, obtida também do Anuário da Educação Básica brasileira, fornece-
nos essa informação.

20
Tabela 4 – Percentual de jovens de 16 anos que concluíram o ensino fundamental – Brasil e
Regiões (2001-2014)

Região 2001 2002 2003 2004 2005 2006 2007 2008 2009 2011 2012 2013 2014

Brasil 49,1 52,1 56,6 58,0 58,9 60,8 62,9 64,8 66,3 67,5 69,5 71,7 73,7

Norte 35,0 41,8 45,7 40,2 41,2 46,7 50,5 52,7 52,0 53,8 55,3 57,6 59,9

Nordeste 28,2 30,5 33,9 36,8 39,3 44,1 44,8 48,2 51,7 56,7 59,1 60,5 62,6

Sudeste 62,9 66,4 72,6 73,8 74,1 73,7 76,2 77,3 76,3 76,6 78,7 81,2 83,5

Sul 64,5 67,8 67,6 74,2 69,9 70,0 72,2 72,6 74,6 72,2 75,3 78,5 79,7

Centro- 48,6 51,0 55,6 58,9 62,4 62,7 67,8 66,2 75,0 77,6 72,9 75,0 76,3
Oeste

Fonte: IBGE/Pnad. Elaboração: Todos Pela Educação.

Os indicadores de rendimento escolar que têm como unidade o município e dependem de


dados coletados pelo Censo Demográfico só podem ser obtidos de 10 em 10 anos. Nos anos em que o
Censo não é realizado, o seu cálculo exige o uso de projeções de população por faixa etária e por
município. Esse é um problema demográfico bastante complicado, que deve, entretanto, ser
enfrentado para atender não só à lei do PNE mas também à necessidade de monitorar o direito à
educação da população brasileira. O enfrentamento desse problema é de especial importância, pois os
municípios são os locais onde as decisões essenciais sobre o ensino fundamental são tomadas.

Rendimento escolar
Todos os anos, o Inep atribui a cada aluno matriculado em uma escola de educação básica um
código único de identificação. Aluno é o indivíduo, enquanto matrícula é o vínculo estabelecidos
entre um aluno e uma turma. Um mesmo aluno pode ter matrículas em mais de uma turma de
distintas etapas ou modalidades de ensino, na mesma escola ou em escolas diferentes.
A cada ano, considerando a data de referência do Censo Escolar da Educação Básica, ou
seja, a última quarta-feira do mês de maio do ano vigente, as escolas registram os alunos
matriculados nas suas turmas. No ano seguinte, as escolas informam o movimento e o
rendimento escolar das matrículas informadas na primeira etapa. Os dados coletados permitem a
construção de vários indicadores, conforme explicado na nota técnica do Inep Cálculo dos
indicadores de rendimento escolar – censo da Educação Básica.

21
Movimento escolar
Por movimento escolar entende-se a mudança de vínculo escolar de cada uma das
matrículas no período entre a data de referência do Censo Escolar e o encerramento do ano letivo.
Existem três situações possíveis quanto ao movimento escolar da matrícula:
transferido – quando a matrícula do aluno foi, formalmente, desvinculada de uma escola;
abandono – quando o aluno deixou de frequentar a escola antes da conclusão do ano
letivo, não tendo sido formalmente desvinculado por transferência. Nesse caso, a sua
matrícula não possui registro de rendimento e
falecido – quando o aluno faleceu antes do término do ano letivo.

Aprovação e reprovação
O rendimento escolar registra o sucesso ou o fracasso da matrícula de cada aluno ao final do
ano letivo. São duas as situações possíveis quanto ao rendimento escolar de cada matrícula:
aprovado – quando o aluno conclui o ano escolar com sucesso e está apto a matricular-se
na etapa seguinte, no ano seguinte, e
reprovado – quando o aluno não obtém êxito na conclusão do ano letivo e, portanto,
não está apto a matricular-se na etapa seguinte, no ano seguinte.

Os conceitos de movimento escolar, aprovação e reprovação são


utilizados para o cálculo dos indicadores de rendimento escolar.

Taxas de rendimento escolar


As taxas de rendimento escolar – ou seja, as taxas de aprovação e reprovação, e a taxa de
abandono – são calculadas para diferentes territórios ou unidades de agregação (escola, município,
rede, etc.), considerando-se o conjunto de matrículas que as compõem.
Depois das análises de consistência, a cada matrícula é associada uma situação (falecido,
abandono ou sem informação) e um rendimento (aprovação ou reprovação). As seguintes
notações são usadas:

22
Tabela 5 – Notações utilizadas na taxa de rendimento escolar

abreviação notação

FAL falecido

APR aprovado

REP reprovado

ABA abandono

SIR sem informação de rendimento escolar, falecimento ou abandono

Fonte: MEC/Inep (2013, p. 5).

As matrículas consideradas no cálculo das taxas de rendimento escolar são dadas por:

( )* ) +,(

Onde:
= total de matrículas iniciais
* = quantidade de matrículas de alunos falecidos
+,( = matrículas que não tiveram a situação de rendimento escolar, o falecimento ou o
abandono informado

Como, para cada uma dessas matriculas, há uma condição de rendimento escolar –
aprovado (APR), reprovado (REP) – ou de abandono (ABA), vale a seguinte igualdade:

* - +,( - (-( - '

Dessa forma, as taxas de rendimento escolar são calculadas pelas seguintes expressões:

a) Taxa de aprovação:

(
" 100
.APR - REP - ABA4

23
b) Taxa de reprovação:

(
( " 100
.APR - REP - ABA4

c) Taxa de abandono:

'
5 100
.APR - REP - ABA4

d) Taxa de não resposta:


Por fim, para verificar a representatividade das taxas de rendimento escolar, calcula-se a taxa
de não resposta (TNR), definida como:

+,(
6( 100
.n ) FAL4

Devemos observar que, necessariamente, vale a seguinte relação:

" : çã - " : çã - 5 100

Exemplo de cálculo, aplicação e interpretação dos indicadores


Suponha que você tenha acabado de assumir a Secretaria de Educação de Curvelo (MG) e
precise saber como está o cenário da pré-escola no município. Utilizando os dados apresentados
pelo IBGE1, será necessário fazer o levantamento das seguintes informações:
taxa de atendimento escolar na pré-escola;
taxa de escolarização bruta na pré-escola e
taxa de escolarização líquida na pré-escola.

Após o levantamento e o cálculo dessas taxas, será preciso responder às seguintes questões:
Como se encontra o cenário da pré-escola no município?
Qual(is) seria(m) a(s) iniciativas da Secretaria?
Qual(is) seria(m) a(s) requisições da Secretaria ao governo do Estado?

1
Informações disponíveis em: <https://www.ibge.gov.br/estatisticas-novoportal/sociais/educacao.html>.

24
Inicialmente, vamos realizar o cálculo de cada uma das informações necessárias:

a) Taxa de atendimento escolar na pré-escola:


Para encontrarmos a taxa de atendimento na pré-escola, devemos utilizar a fórmula da TAE:

; < =>á?
100
; < =>á?

Onde:
= matrícula em todos os níveis de ensino na faixa etária selecionada
= população na mesma faixa etária.
No entanto, como precisamos saber os dados específicos da faixa etária de quatro a cinco anos,
devemos buscar essa informação, que pode ser encontrada no site do Sidra, o sistema IBGE de
recuperação automática de dados.2 Após a montagem da tabela, os dados recuperados são os seguintes:

Tabela 1973 – pessoas que frequentavam creche ou escola por nível de ensino, sexo e
grupos de idade

município = Curvelo – MG

variável = pessoas que frequentavam escola ou creche (pessoas)

nível de ensino ou curso que frequentavam = total

sexo = total

ano = 2010

grupos de idade

4 anos 712

5 anos 1.022

soma 1.734

2
Disponível em: <https://sidra.ibge.gov.br/Tabela/1973>.

25
Agora, devemos buscar as informações referentes à população do munícipio de Curvelo.
Ainda por meio da montagem da tabela disponível do site do Sidra, temos:

Tabela 1378 – população residente, por situação do domicílio, sexo e idade, segundo a
condição no domicílio e compartilhamento da responsabilidade pelo domicílio

município = Curvelo – MG

variável = população residente (pessoas)

situação do domicílio = total

sexo = total

condição no domicílio e compartilhamento da responsabilidade pelo domicílio = total

ano = 2010

grupos de idade

4 anos 1.024

5 anos 1.106

soma 2.130

Podemos, por fim, aplicar os dados obtidos à fórmula da TAE:

@ABC
J@BKD E F EGHI 100 81,40%
D E F EGHI

b) Taxa de escolarização bruta na pré-escola:


A taxa de escolarização bruta na pré-escola deve ser encontrada por meio da seguinte fórmula:

P?éQ=RSTU
' 100
C V TR

Onde:
= matrícula total em um determinado nível de ensino
= população na faixa etária adequada a esse nível de ensino

26
Quanto aos dados referentes à população, por meio da construção da tabela no site do
Sidra, temos:

Tabela 1378 – população residente, por situação do domicílio, sexo e idade, segundo a
condição no domicílio e compartilhamento da responsabilidade pelo domicílio

município = Curvelo – MG

variável = população residente (pessoas)

situação do domicílio = total

sexo = total

condição no domicílio e compartilhamento da responsabilidade pelo domicílio = total

ano = 2010

grupos de idade

4 anos 1.024

5 anos 1.106

soma 2.130

Já os dados sobre volume de matrículas no nível de ensino em análise são os seguintes:

Tabela 1973 – pessoas que frequentavam creche ou escola por nível de ensino, sexo e
grupos de idade

município = Curvelo – MG

variável = pessoas que frequentavam escola ou creche (pessoas)

nível de ensino ou curso que frequentavam = pré-escolar

sexo = total

grupos de idade = total

ano = 2010

2.253

27
Aplicando os dados encontrados à fórmula da TEB, temos:

2253
' 100 105,77%
2130

C) Taxa de escolarização líquida na pré-escola:

A última taxa a ser encontrada, a TEL, deve ser calculada da seguinte forma:

C V TR
100
C V TR

Onde:
= matrícula na faixa etária adequada a determinado nível de ensino
= população na mesma faixa etária

Nesse caso, precisamos, novamente, das informações referentes à população:

Tabela 1378 – população residente, por situação do domicílio, sexo e idade, segundo a
condição no domicílio e compartilhamento da responsabilidade pelo domicílio

município = Curvelo – MG

variável = população residente (pessoas)

situação do domicílio = total

sexo = total

condição no domicílio e compartilhamento da responsabilidade pelo domicílio = total

ano = 2010

grupos de idade

4 anos 1.024

5 anos 1.106

soma 2.130

28
Agora, precisamos das informações referentes ao número de matrículas na pré-escola:

Tabela 1973 – pessoas que frequentavam creche ou escola por nível de ensino, sexo e
grupos de idade

município = Curvelo – MG

variável = pessoas que frequentavam escola ou creche (pessoas)

nível de ensino ou curso que frequentavam = pré-escolar

sexo = total

ano = 2010

grupos de idade

4 anos 508

5 anos 716

soma 1.224

Aplicando os dados encontrados à fórmula da TEL, temos:

1224 C V TR
100 57,46%
2130 C V TR

Agora, por meio dos resultados obtidos (TAE = 81,40%; TEB = 105,77%; TEL =
57,46%), podemos retomar as questões previamente apresentadas, buscando respondê-las:

a) Como se encontra o cenário da pré-escola no município?


Ao levarmos em consideração os cálculos efetuados, podemos inferir que, no município de
Curvelo (MG), a pré-escola não é ofertada de maneira universalizada à população residente, o que
pode ser comprovado por meio da taxa de atendimento escolar encontrada (TAE = 81,49%), que
indica o percentual da população daquela faixa etária que está frequentando a escola
Podemos também observar que a demanda potencial por matrículas nesse nível,
representada pelo cálculo da taxa de escolarização bruta, é alta (TEB = 105, 77%), ultrapassando
os 100%, o que reforça a afirmação de que há problemas de acesso presentes no município.

29
Finalmente, a taxa de escolarização líquida (TEL = 57,46%) reitera o acesso como um
problema no município, além de revelar outra fragilidade: o sistema educacional do município
tem problemas relativos à eficácia, uma vez que pouco mais de 50% da população possui acesso e
progressão na vida escolar adequados (regular).

b) Qual(is) seria(m) a(s) iniciativas da Secretaria?


Entre outras iniciativas, a Secretaria poderia:
aumentar a oferta de acesso à pré-escola por meio da construção de escolas de educação
infantil;
estabelecer convênios para garantir a oferta de vagas;
abrir concursos para contratação de professores, especialistas e profissionais para
trabalhar nesses novos estabelecimentos e
garantir políticas de formação inicial e complementar aos profissionais da educação.

c) Qual(is) seria(m) a(s) requisições da Secretaria ao governo do estado?


São possíveis requisições a serem feitas pela Secretaria:
solicitação de recursos para a construção de escolas de educação infantil (Governo
Federal);
estabelecimento de convênios ou acordos entre estado e prefeitura, de forma a
proporcionar o aluguel de espaços onde os alunos dessa faixa etária pudessem ser
atendidos;
solicitação de recursos para efetuar novas contratações;
parcerias com universidades e institutos federais para a oferta de cursos de formação
inicial e continuada.

30
MÓDULO II – INDICADORES DE APRENDIZADO

Neste módulo, analisaremos os indicadores de aprendizado utilizados no Brasil. Para tanto,


consideraremos as matrizes de referência, a escala de proficiência, e os indicadores de qualidade e
desigualdade utilizados pelo Sistema de Avaliação da Educação Básica (Saeb).

Introdução
Como vimos, o direito constitucional à educação no Brasil se concretiza quando:
o estudante tem uma trajetória regular, isto é, tem acesso a uma escola de educação
básica na idade correta;
permanece na escola e
conclui as diferentes etapas em que o ensino é organizado, também nas idades esperadas.

No entanto, não podemos levar em conta somente a passagem do estudante pela escola.
Durante essa experiência escolar, o estudante deve adquirir os aprendizados de que necessita para
uma vida plena e, por isso, os indicadores de aprendizado são tão necessários ao monitoramento
do direito à educação.
Neste conteúdo, vamo-nos restringir à análise dos indicadores de aprendizado do ensino
fundamental, pois há dados, produzidos principalmente pelo Sistema de Avaliação da Educação
Básica (Saeb) e a Prova Brasil, que nos permitem realizar um monitoramento abrangente do
direito de aprender ao longo de muitos anos.
O Sistema de Avaliação da Educação Básica (Saeb) foi criado no início da década de 1990,
tendo como objetivo medir o desempenho acadêmico dos alunos da educação básica, e os fatores
associados a esse desempenho e que nele interferem (fatores intra e extraescolares). O sistema é
composto de duas avaliações:
Avaliação Nacional da Educação Básica (Aneb) – divulgada com o nome de Saeb, essa
avaliação é aplicada a uma amostra de estudantes das redes públicas e privadas do País,
localizados na área rural e urbana e matriculados nos 5º e 9º anos do ensino
fundamental, e também no 3º ano do ensino médio, e
Avaliação Nacional do Rendimento Escolar (Anresc) – divulgada e conhecida com o
nome de Prova Brasil, essa avaliação é aplicada censitariamente a alunos dos 5º e 9º anos
do ensino fundamental público, nas redes estaduais, municipais e federais de área rural e
urbana, em escolas que tenham, no mínimo, 20 alunos matriculados na série avaliada.

A Prova Brasil faz parte do Sistema de Avaliação da Educação Básica (Saeb). Participam
dessa avaliação as escolas públicas com, no mínimo, 20 alunos matriculados nas séries avaliadas.

Para saber mais sobre o Saeb e a Prova Brasil, acesse:

Portal do Inep. Disponível em: < http://portal.inep.gov.br/educacao-basica/saeb>.


Acesso em: fev. 2018.
Portal do Inep. Disponível em: < http://portal.mec.gov.br/prova-brasil>. Acesso em:
fev. 2018.

Os dados existentes no âmbito da Avaliação Nacional da Alfabetização (ANA) e do Exame


Nacional do Ensino Médio (Enem) também podem ser usados para a produção de indicadores de
aprendizado das outras etapas da educação básica, apesar de não terem ainda a mesma
abrangência temporal do Saeb, nem a mesma estabilidade nas suas matrizes e nos seus processos
de coleta.
A Constituição Federal de 1988 explicitou o projeto da nação brasileira e estabeleceu, no seu
artigo 210, a necessidade de construção de uma futura norma legal a partir da qual os aprendizados
que caracterizam o atendimento do direito à educação dos estudantes fossem definidos. No entanto,
essa norma está ainda em construção, por meio da Base Nacional Comum Curricular.
A longa demora na fixação dos objetivos de aprendizagem comuns a todos os sistemas de ensino
tem consequências. Uma delas envolve o fato de que as avaliações externas como Saeb e Prova Brasil
assumiram o papel de determinar as aprendizagens a serem adquiridas. No entanto, o ideal seria que o
contrário ocorresse, ou seja, os testes do Saeb deveriam basear-se em uma especificação que a lei chama
de Base Nacional Comum. Além disso, o sistema educacional brasileiro sofre com a ausência de uma

32
linguagem curricular comum, fundamental tanto para a produção e organização de materiais didáticos
quanto para a formação inicial e continuada dos professores.
Apesar dessa ausência, a importância de se conhecer o nível de aprendizado dos estudantes é
tão premente que o Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira
(Inep) definiu uma matriz responsável por orientar as suas avaliações externas desde 1995.

Matrizes de referência do Saeb3


Para a fixação das matrizes do Saeb, estabeleceu-se que os objetivos de aprendizagem seriam
definidos por meio de sentenças que especificam, conjuntamente, os conhecimentos e a ação
mental a ser realizada. Com isso, optou-se por desconsiderar as especificações, usuais até então,
que consistiam em uma lista de conteúdos disciplinares. Essa opção teórica nos mostra que o
objetivo da educação é levar o estudante a desenvolver um conjunto de habilidades que o permita
enfrentar problemas concretos durante a sua vida.
Na realidade, essa opção teórica reconhece que o estudante deve desenvolver conhecimentos
e habilidades, ou seja, competências que, segundo Phillipe Perrenoud (1993, p. 23), consistem na
“capacidade de agir eficazmente em um determinado tipo de situação, apoiando-se em
conhecimentos, mas sem se limitar a eles.” Para enfrentar uma situação, geralmente, colocam-se
em prática vários recursos cognitivos e não cognitivos entre os quais estão os conhecimentos.
“Quase toda ação mobiliza alguns conhecimentos, algumas vezes elementares e esparsos, outras
vezes complexos e organizados em rede” (PERRENOUD, 1993, p. 23).

O planejamento inicial do Saeb definiu que apenas as


competências leitora e a matemática seriam objetos de
medida, considerando-as duas áreas fundamentais, pois,
além de terem importância própria, permitem aos
estudantes aprenderem outras competências.

A construção dessa matriz, realizada em 1995, foi precedida de uma consulta nacional aos
currículos usados pelas Secretarias Estaduais de Educação e praticados nas escolas brasileiras de
ensino fundamental e médio. O objetivo dessa consulta era buscar o havia de comum entre esses
currículos. Todavia, como se sabe, há uma grande distância entre o currículo proposto e aquilo
que é, de fato, ensinado. Por esse motivo, o Inep consultou, adicionalmente, professores das
capitais brasileiras regentes nas redes municipal, estadual e privada da 4ª e 8ª séries do ensino
fundamental e da 3ª série do ensino médio, nas disciplinas de Língua Portuguesa e Matemática.
Além disso, examinou os livros didáticos mais utilizados nas mesmas redes e séries, para validar a

3
O conteúdo desta seção tem como base os documentos do Inep que descrevem a metodologia do Saeb (2001).

33
listagem inicial. Em seguida, incorporou as análises de especialistas nas áreas de conhecimento a
serem avaliadas.
Tanto a competência leitora quanto a matemática envolvem muitas habilidades. Por conta
disso, as habilidades a serem desenvolvidas em cada série e disciplina foram agregadas em grupos
denominados descritores. Cada descritor deu origem a diferentes itens e, a partir das respostas
dadas a esses itens, verificou-se o que alunos sabiam e conseguiam realizar a partir dos
conhecimentos adquiridos.
Em sequência, veremos o conteúdo das matrizes de Língua Portuguesa e Matemática,

Matriz de Língua Portuguesa


O ensino de Língua Portuguesa tem como finalidade promover o desenvolvimento do
aluno para o domínio ativo do discurso. Dessa forma, considera-se que o indivíduo realmente
domina uma língua quando sabe fazer uso dos seus recursos expressivos em diversas situações ou
quanto, por meio do texto, é capaz de manifestar os seus próprios desejos e convicções, sabe
informar, persuadir, divertir, emocionar, argumentar, posicionar-se e criticar.

Ser competente no uso da língua significa saber interagir,


por meio de textos, em qualquer situação de comunicação.

Por tudo isso, o texto deve ser o ponto de partida e de chegada das atividades de ensino-
aprendizagem e de verificação do aprendizado da língua. Por restrições operacionais de várias
ordens, em Língua Portuguesa, optou-se por avaliar somente habilidades de leitura. Essa
centralidade dada à leitura não significa, no entanto, que o Saeb minimiza a importância de
avaliar a competência dos alunos quanto à produção de textos escritos.
A matriz do Saeb está organizada em subconjuntos de habilidades denominados descritores. Os
descritores da matriz de Língua Portuguesa não contemplam todos os objetivos de ensino de leitura,
mas apenas aqueles considerados mais relevantes e possíveis de serem avaliados em um teste de
múltipla escolha. Os resultados de tais testes devem possibilitar uma visão real do ensino brasileiro,
sem que sejam privilegiados enfoques curriculares ou características regionais de abordagem.
Há, entretanto, diferenças no que diz respeito ao grau de complexidade com que esses
descritores são tratados nos itens colocados nos testes. Esse grau de complexidade resulta, por
exemplo, da temática desenvolvida, das estratégias textuais usadas na sua composição, da escolha
de um vocabulário mais ou menos incomum, dos recursos sintático-semânticos utilizados, bem
como das determinações específicas do gênero e da época em que foi produzido.
O grau de complexidade da tarefa resulta de aspectos relativos aos diversos saberes que o
sujeito terá de mobilizar para resolver o problema proposto. Ao se considerarem as articulações
entre a complexidade da tarefa e do objeto, outros graus de dificuldade também podem ser
introduzidos, de modo que não existem padrões fixos de complexidade.

34
O mesmo descritor, dependendo do texto escolhido e do tipo de tarefa solicitada, pode
trazer graus de dificuldade diferentes. Por exemplo, quando se solicita que o leitor localize uma
informação no texto, a tarefa poderá ser mais ou menos difícil, dependendo da complexidade
desse texto e do tipo de questão proposta.

Matriz de Matemática
Existe um razoável consenso entre os professores que ensinam Matemática de que a
resolução de problemas deve ser tomada como eixo norteador das atividades dessa área de
conhecimento. Tal consenso se deve ao fato de que a resolução de problemas possibilita o
desenvolvimento das capacidades de observação, estabelecimento de relações, comunicação
(diferentes linguagens), argumentação e validação de processos. Além disso, estimula formas de
raciocínio como intuição, indução, dedução e estimativa. Essa opção traz implícita a convicção de
que o conhecimento matemático ganha significado quando os alunos têm situações desafiadoras
para resolver e trabalham para desenvolver estratégias de resolução. Tudo isso se contrapõe a um
ensino de Matemática limitado a processos que têm como finalidade a simples memorização de
regras e técnicas.
Dessa forma, os instrumentos de avaliação devem também contemplar a opção pedagógica
pela solução de problemas, exigindo explicações, justificativas e argumentações orais, uma vez que
estas revelam aspectos do raciocínio que, muitas vezes, não ficam explícitos nas avaliações escritas.
Sob esse aspecto, é evidente que o desempenho dos alunos em uma prova com questões de
múltipla escolha não fornece ao professor indicações de todas as competências desenvolvidas nas
aulas de Matemática. Por esse motivo, a Matriz de Referência de Matemática do Saeb é um
documento que visa identificar as competências em conteúdos matemáticos desenvolvidas nos
Ensinos Fundamental e Médio, passíveis de serem verificadas por meio de avaliações escritas. Essa
Matriz não pode, no entanto, ser interpretada como um conjunto de indicações que norteará as
estratégias de ensino nas escolas, papel reservado a parâmetros, currículos e diretrizes curriculares.
No processo de elaboração dos itens do Saeb, é levado em conta que, em última análise,
podemos dizer que um aluno aprendeu uma noção quando ele é capaz de utilizá-la para resolver
um problema diferente daquele que deu origem à construção da noção, quando questiona as
resoluções efetuadas e as respostas encontradas. Dessa forma, a prova busca constituir-se,
prioritariamente, de situações em que a resolução de problemas seja significativa para o aluno.
Por problemas significativos para o aluno entendem-se situações que permitam a esse aluno
“recontextualizar” os conhecimentos que foram “descontextualizados” por ocasião do seu processo
de aprendizagem. Ao contrário da situação-problema, cuja utilização está estreitamente ligada a
situações de aprendizagem, os problemas significativos têm por objetivo verificar em que medida
essa aprendizagem foi efetivamente realizada. Essa opção pela resolução de problemas

35
significativos não exclui totalmente a possibilidade da proposição de alguns itens com o objetivo
de avaliar se o aluno tem domínio de determinadas técnicas.

Para saber mais sobre os descritores de Matemática, que são em maior número, acesse:

Portal do Inep. Disponível em: <http://portal.inep.gov.br/web/guest/educacao-


basica/saeb/matrizes-e-escalas>. Acesso em: fev. 2018.

Composição dos testes


Para cumprir a sua função de avaliar o ensino oferecido pelas escolas de educação básica, o
Saeb precisa contemplar as muitas especificidades de cada uma das duas competências (leitura e
matemática) avaliadas. Isso exige a inclusão de muitas questões nos testes. De 1995 até 2005, em
torno de 150 itens eram incluídos nos testes, número grande demais para ser respondido por um
único aluno. Para contornar esse problema, o Saeb utiliza uma técnica denominada Blocos
Balanceados Incompletos (BIB), que permite montar testes de tamanho adequado ao tempo
disponível, mas com itens comuns. Dessa forma, diferentes alunos de um mesmo ciclo do Saeb
fazem provas diferentes, mas que têm entre si itens comuns e que, no seu conjunto, contemplam
todas as especificidades da competência considerada. Ciclos contíguos do Saeb também têm itens
em comum. Até 2005, 26 cadernos de provas diferentes eram utilizados, como podemos ver na
tabela a seguir. A partir de 2005, com a criação da Prova Brasil, outros planejamentos passaram a
ser utilizados.

Tabela 6 – Delineamento de blocos incompletos balanceados (BIB)

primeiro segundo terceiro primeiro segundo terceiro


caderno caderno
bloco bloco bloco bloco bloco bloco

1 1 2 5 14 1 3 8

2 2 3 6 15 2 4 9

3 3 4 7 16 3 5 10

4 4 5 8 17 4 6 11

5 5 6 9 18 5 7 12

6 6 7 10 19 6 8 13

7 7 8 11 20 7 9 1

36
primeiro segundo terceiro primeiro segundo terceiro
caderno caderno
bloco bloco bloco bloco bloco bloco

8 8 9 12 21 8 10 2

9 9 10 13 22 9 11 3

10 10 11 1 23 10 12 4

11 11 12 2 24 11 13 5

12 12 13 3 25 12 1 6

13 13 1 4 26 13 2 7

Fonte: Inep(2006).

Escolas e alunos avaliados


Embora a participação no Saeb seja voluntária, atualmente todos os estados brasileiros
cooperam. Respondem aos testes os alunos presentes na escola no dia da aplicação da avaliação, de
turmas da quarta série (quinto ano) e oitava série (nono ano) do ensino fundamental e do terceiro
ano do ensino médio de uma amostra de escolas públicas. A inclusão de uma escola na amostra
segue o plano amostral elaborado por técnicas estatísticas recomendadas pela literatura. Desde
2001, o plano amostral tem as mesmas linhas estruturais. Na primeira etapa desse plano amostral,
são selecionadas as escolas que participarão do Saeb. Na segunda etapa, são selecionadas as turmas
da escola que participarão da avaliação. Todos os alunos das turmas escolhidas são testados. Desse
modo, a classe é a unidade amostral elementar.
Com o objetivo de conseguir um maior espalhamento, escolas com uma ou duas turmas
regulares na série têm apenas uma turma selecionada, enquanto escolas com três ou mais turmas
regulares têm duas turmas selecionadas (Inep, 2001).

Prova Brasil
A partir de 2005, o Inep passou a aplicar os testes do Saeb a alunos de 5º e 9º anos do
ensino fundamental público de todas as escolas das redes estaduais, municipais e federais, das
áreas rural e urbana, com mais de 20 alunos matriculados na série avaliada. Isso implicou a quase
universalização do Saeb.

37
Para evidenciar esse novo escopo, o Inep passou a utilizar a denominação Avaliação
Nacional de Rendimento Escolar (Anresc), com nome fantasia de Prova Brasil, para os testes
aplicados. Também mudou a denominação do Saeb para Aneb (Avaliação Nacional da Educação
Básica). Nesse novo formato, o nome Saeb passou a denominar uma estrutura geral que abrange
os vários tipos de avaliações relativas à educação básica.

Motivação
A criação da Prova Brasil resultou de uma crítica recorrente feita ao Saeb. Segundo a visão
de alguns críticos, o Saeb não atendia às necessidades de escolas específicas e, portanto, não teria
utilidade pedagógica. Em outras palavras, como a maioria das escolas não era avaliada, os
resultados obtidos não eram vistos como representativos da realidade de uma escola específica.
Isso ensejava a desconsideração das suas conclusões. Com a produção de resultados para cada
escola, tornou-se necessário buscar então explicações para os resultados dos alunos de cada escola.
A Prova Brasil atendeu também àqueles que defendem a ideia de que as organizações
públicas devem prestar contas das suas ações à sociedade rotineiramente. De posse dos resultados
da Prova Brasil, cada escola pode mostrar e explicar aos grupos sociais a que atende como está o
aprendizado dos seus alunos.
Com o uso das medidas de aprendizado obtidas por meio da Prova Brasil na construção do
Índice de Desenvolvimento da Educação Básica (Ideb), a ideia de que os resultados podem ser
entendidos como registros do aprendizado dos alunos entrou, definitivamente, no debate
educacional brasileiro.

38
Características
O desenho da Prova Brasil é semelhante ao do Saeb. A partir da edição de 2007, os alunos
avaliados respondem a testes de duas disciplinas: Língua Portuguesa e Matemática. A Prova Brasil
é estruturada da seguinte maneira:

Tabela 7 – Estrutura da Prova Brasil.

ano Português Matemática organização

7 blocos 7 blocos 21 cadernos de provas diferentes;


cada aluno responde a 1 caderno contendo 2
5° ano 11 itens por 11 itens por blocos de português e 2 blocos de matemática e
bloco bloco cada aluno responde 22 itens de cada disciplina.

7 blocos 7 blocos 21 cadernos de provas diferentes;


cada aluno responde a 1 caderno contendo 2
9° ano 13 itens por 13 itens por blocos de português e 2 blocos de matemática e
bloco bloco cada aluno responde 26 itens de cada disciplina.

A cada novo ciclo da Prova Brasil, novas escolas têm sido incluídas, expandindo-se assim,
progressivamente, o número de alunos que potencialmente podem fazer a prova. Hoje a Prova
Brasil é um levantamento quase censitário das escolas públicas. No entanto, como não inclui as
escolas privadas, fornece um quadro mais parcial do que aquele produzido pelo Saeb acerca do
ensino fundamental brasileiro.

39
Resultados
As tabelas a seguir nos mostram o número de escolas estaduais ou municipais com mais de
15 alunos que atingiram os níveis “adequado” e “avançado” entre as que fizeram cada ciclo da
Prova Brasil.

Tabela 8 – Percentual de alunos de escolas estaduais, municipais e federais acima do ponto de


referência adequado em Leitura e Matemática nos testes da Prova Brasil (2005-2015).

ano 4ª série 8ª série

Matemática Leitura Matemática Leitura

2005 20,4 29,1 12,9 19,4

2007 21,5 25,4 9,4 15,7

2009 30,2 31,6 10,6 22,4

2011 33,3 37,1 12,5 23,1

2013 36,2 41,5 12,0 24,8

2015 40,1 51,7 14,0 29,9

Fonte: Elaboração baseada nos microdados da Prova Brasil 2007 a 2015.

Tabela 9 – Número de escolas estaduais, municipais ou federais com mais de 70% de seus alunos
acima do ponto de corte nos diferentes ciclos da Prova Brasil

ano 5º ano Matemática 5º ano Leitura 9º ano Matemática 9º ano Leitura

2005 21 (0,1%) 155 (0,5%) 13 (0,1%) 8 (0,0%)

2007 260 (0,7%) 303 (0,8%) 35 (0,1%) 28 (0,1%)

2009 540 (1,2%) 321 (0,7%) 16 (0,05%) 19 (0,1%)

2011 1.131(2,8%) 958 (2,3%) 38 (0,1%) 49 (0,2%)

2013 935 (2,4%) 1.197 (3,0%) 17 (0,1%) 39 (0,1%)

2015 1.573 (4,1%) 3.069 (7,9%) 36 (0,1%) 84 (0,3%)

Fonte: Elaboração baseada nos microdados divulgados pela Prova Brasil.

40
Como podemos notar, ainda é diminuto o número de escolas que atingiram o patamar
estabelecido. No entanto, devemos observar que houve melhora a partir de 2005, quando a Prova
Brasil teve a sua primeira edição. Além disso, a situação da oitava série é sistematicamente pior do
que a da quarta série.

Relevância pedagógica
A instituição da Prova Brasil criou necessidades novas, ainda não completamente atendidas.
Como o seu o resultado é enviado a cada escola, tornou-se necessário produzir material que
permita a essas escolas dar sentido pedagógico e instrucional aos resultados obtidos. Essa
necessidade não estava presente quando apenas o Saeb era realizado e destinado apenas às redes de
ensino que, por isso, nos seus relatórios podiam usar linguagem mais acadêmica e sofisticada.
Muitas iniciativas têm sido realizadas para suprir essas novas necessidades. O Inep envia
um cartaz com uma síntese dos resultados da escola e alguma informação para a sua
contextualização. Recentemente, o movimento Todos pela Educação, em parceira com o Inep e a
Secretaria de Educação Básica do MEC, produziu documentos com orientações para o estudo da
Prova Brasil (INEP, 2009a; 2009b). O objetivo de tais documentos é explicar o que são as
matrizes de referência, como são construídos os itens avaliados nas provas, como deve ser feita a
interpretação pedagógica das escalas de proficiência, alguns exemplos de questões, etc. O estudo
desses documentos permitiria aos professores saber quais habilidades devem ser desenvolvidas no
ensino fundamental até o 5º e o 9º anos.
Apesar desses esforços, ainda há muito a ser feito nessa área. Uma dificuldade estrutural
reside no fato de a análise dos dados da Prova Brasil exige conhecimentos e práticas que não estão
disseminados na maioria das escolas. Desse modo, dar relevância pedagógica à Prova Brasil
constitui ainda objetivo a ser alcançado.

Análise crítica
Com a implementação da Prova Brasil, o Saeb perdeu a proeminência. Nesse novo
quadro, apenas a qualidade do ensino das escolas públicas é avaliada. As escolas privadas de
ensino fundamental não são avaliadas de nenhuma forma, apesar do que estabelece o artigo
209 da Constituição:

“Art. 209. O ensino é livre à iniciativa privada, atendidas as seguintes


condições:
I - cumprimento das normas gerais da educação nacional;
II - autorização e avaliação de qualidade pelo Poder Público.”

41
A Prova Brasil avalia apenas o ensino fundamental. Embora o ensino médio ainda seja avaliado
por meio do Enem, como esse exame é voluntário, os seus resultados não podem ser usados como
descritivos de toda a realidade desse estágio de ensino. Assim sendo, com a perda de importância do
Saeb, o País deixou de conhecer a evolução da educação básica como um todo, ou seja, ganhou em
profundidade no estrato, onde estão a maioria dos alunos, mas perdeu em representatividade.
Para a realização da Prova Brasil, com base na informação fornecida pelas escolas no Censo
Escolar, os responsáveis pela organização enviam um teste nominalmente identificado a todos os
alunos matriculados nas escolas selecionadas. No entanto, ainda não há um controle das ausências
dos alunos no dia de aplicação da Prova Brasil. Não se sabe se essas ausências são intencionais,
ocasionais ou se devem-se, simplesmente, ao fato de as escolas não terem preenchido corretamente
o Censo Escolar.
A tabela a seguir nos apresenta o número e o percentual de alunos que estiveram presentes e
ausentes no teste realizado no ano de 2009. Como podemos observar, os percentuais de ausência
são grandes o suficiente para que os resultados obtidos possam ser questionados, principalmente
na oitava série. Não há estudos de caracterização dos ausentes que permitam identificar o perfil
dos alunos ausentes e, consequentemente, validar os resultados obtidos.

Tabela 10 – Número de alunos presentes e ausentes na Prova Brasil 2009

SITUAÇÃO
série total
ausente presente

458,888 2,568,638
4a 3,027,526
15.2% 84.8%

723,443 2,020,975
8a 2,744,418
26.4% 73.6%

Fonte: Elaboração baseada nos microdados divulgados pela Prova Brasil.

O número total de itens aplicados diminuiu, consideravelmente, do Saeb para a Prova


Brasil. O eventual impacto dessa diminuição na qualidade do diagnóstico é uma questão de
pesquisa ainda em aberto. Também o questionário contextual foi diminuído, impedindo a
contextualização dos resultados por dimensões que podiam ser medidas anteriormente. A
justificativa para os questionários que vinham sendo utilizados no Saeb está em Franco et al.
(2003) e a mudança do questionário não foi justificada.
Finalmente, a Prova Brasil adotou a mesma matriz do Saeb, ao mesmo tempo em que se
introduziu a comparação com outros países com a criação das metas do Ideb. No entanto, é

42
pouco enfatizado no debate educacional que o Pisa exige habilidades mais complexas nos seus
testes de Leitura e Matemática do que a Prova Brasil. Em outras palavras, mesmo se o Brasil viesse
a atingir as metas de desempenho colocadas para a Prova Brasil, os seus alunos não estariam com
o mesmo nível de conhecimento de alunos de outros países medidos pelo Pisa.

Escala de proficiência
As notas dos alunos que fazem os testes do Saeb recebem o nome técnico de proficiências e
são obtidas por meio do uso de um modelo da Teoria de Resposta ao Item – TRI (KLEIN,
2013). Essa técnica estatística considera os acertos nas questões, bem como usa a informação
presente nos itens comuns aos diferentes testes e ciclos para atribuir aos alunos proficiências que
são comparáveis entre as séries e os anos.
Os valores dessas proficiências foram calculados, em 1997, fixando-se a média teórica das
proficiências de todos os alunos da oitava série em 250 e o respectivo desvio-padrão em 50.
Considerando que a escala das proficiências é única para as três séries (anos escolares) incluídas no
Saeb, os alunos da quarta série do ensino fundamental têm, tipicamente, proficiências menores, e
os do terceiro ano do ensino médio têm proficiências maiores do que as dos alunos da oitava série.
No entanto, a variação das proficiências em cada série é significativa, o que resulta em grande
interseção entre as distribuições das proficiências dos alunos das diferentes séries.
Além disso, é importante ressaltarmos que, fruto de uma idiossincrasia técnica, as
proficiências de Leitura em uma dada série são tipicamente maiores que as de Matemática. No
entanto, um valor maior de proficiências em Leitura do que em Matemática não significa,
necessariamente, que o aluno tem maior domínio da primeira.
Construído e aplicado o teste, como vimos, a medida da competência, que recebe o nome
técnico de “proficiência”, é obtida por meio do uso de modelos da TRI. Uma função matemática,
denominada “curva de característica do item”, mostra como a probabilidade de acerto do item se
associa à proficiência do examinando e à dificuldade do item. Desse modo, a probabilidade de
acerto de um item aumenta com a proficiência do examinando e cai de acordo com a dificuldade
do item.
No Brasil, o modelo logístico usualmente preferido é o de três parâmetros da TRI, que é
assim dividido:
parâmetro a – capta o poder de discriminação;
parâmetro b – representa a dificuldade e
parâmetro c – representa a taxa de acerto casual do item.

43
O modelo de dois parâmetros é, geralmente, usado com itens de respostas curtas, corrigidas
apenas como acerto e erro, situação em que não há acerto casual. Já os modelos de crédito parcial
são usados para questões abertas e redações.
O gráfico a seguir nos mostra a curva do modelo de três parâmetros para um item que tem
nível de dificuldade de 0,114, discriminação de 0,796 e acerto casual baixo, de 0,088. Essa função
matemática representa a relação entre os dados empíricos, isto é, as respostas ao item e as
qualidades não observadas, as proficiências latentes. O parâmetro de dificuldade b, representado
pela linha vertical do gráfico, caminha para a direita ou para a esquerda, na curva de característica,
conforme o nível de dificuldade cresce ou diminui. Já o parâmetro de discriminação do item a,
representado pela linha tangente à curva, altera a inclinação da curva característica, captando o
poder de discriminação do item. Por fim, o parâmetro de acerto casual do item c, representado
pela linha horizontal na base do gráfico, apresenta a probabilidade de um acerto por pessoas sem
nenhuma proficiência na matéria medida pela prova. Vejamos:

Figura 2 – Curva característica de um item no modelo de três parâmetros da TRI

Fonte: SOARES, 2009.

No gráfico, os dados empíricos pelos círculos, cujo tamanho retrata a frequência relativa
observada em cada ponto.
O uso da TRI exige que o teste meça apenas um construto, a chamada hipótese de
unidimensionalidade, que precisa ser verificada. Quando isso ocorre, pode-se estudar esse construto
por meio de uma única medida síntese, não havendo necessidade de considerar qual foi a resposta
dada a cada um dos itens do teste. Um ajuste dos dados ao modelo, adequado a situações reais, requer
que o princípio da unidimensionalidade se aplique pelo menos aproximadamente.
O pressuposto adicional da independência local implica a possibilidade de cada item ser
tratado como um evento independente, o que requer que as respostas aos itens do teste sejam
independentes do ponto de vista estatístico, depois de considerada a proficiência de cada

44
examinando. Em outras palavras, o modelo da TRI pressupõe que a resposta a um item do teste
não deve determinar ou influenciar a resposta a qualquer outro item. Nessas condições, a
probabilidade de obter qualquer conjunto de respostas de item, denominada independência local,
é obtida pelo produto das probabilidades individuais dos itens. Isso permite a utilização do
princípio da máxima verossimilhança para estimar a proficiência dos examinandos.
Quando pode ser demonstrado que as respostas dos examinandos se ajustam ao modelo de
resposta, entende-se que os parâmetros de cada item não dependem dos examinandos avaliados em
determinada ocasião e também que as estimativas das proficiências não dependem dos itens aplicados
em determinada ocasião. Da mesma forma, os procedimentos da verossimilhança acomodam bem a
substituição, a eliminação e o acréscimo dos itens, assim como toleram bem respostas ausentes de itens
que não foram resolvidos pelos alunos ou que não lhes foram apresentados.
Finalmente, a TRI permite que testes diferentes aplicados a grupos distintos de alunos
sejam organizados de forma que possam produzir proficiências comparáveis. Isso permite que os
resultados de testes de anos diferentes possam ser comparados.
Todos esses fatos justificam o amplo uso da TRI em processos de avaliação educacional,
apesar das fortes hipóteses exigidas.

Para saber mais sobre o modelo da TRI, leia:

HAMBLETON, R. K.; SWAMINATHAN, H.; ROGERS, H. J. Fundamentals of item response


theory. Newburry Park, Califórnia: Sage Publications Inc., 1991.

A escala de proficiência na Prova Brasil, originalmente calculada por meio de desvios-


padrão, é transformada para valores de 0 a 500 pontos. Como a escala de proficiência é a mesma
para as diferentes edições da Prova, devido ao processo de equalização utilizado na análise dos
testes, as variações na proficiência dos alunos de determinado ano escolar entre as edições refletem
a melhora ou piora no aprendizado das coortes avaliadas.4 Além disso, como a mesma escala é
usada para expressar os escores dos alunos dos diferentes anos escolares ou séries, os alunos do 5º
ano têm, tipicamente, proficiências com valores mais baixos do que os alunos do 9º ano.

4
O processo de equalização supõe a inclusão de itens comuns nas edições dos testes e em etapas do ensino contíguas.
Isso garante que uma escala única de medida das proficiências seja usada para acompanhar tanto os aprendizados dos
alunos ao longo das edições bianuais do Saeb/Prova Brasil quanto os ganhos ocorridos ao longo da trajetória escolar dos
estudantes. Para saber mais, acesse: Portal do Inep. Disponível em: <http://portal.inep.gov.br/web/saeb/aneb-e-anresc>.
Acesso em: fev. 2018.

45
Interpretação pedagógica da medida
Consideremos a seguinte situação hipotética: um teste foi construído com tantos itens
quantos necessários para captar toda a diversidade de tarefas que caracteriza, completamente, a
competência considerada e foi aplicado a um grande número de alunos que tenham todos os
níveis na respectiva competência. Nesse caso, dizemos que as proficiências desses alunos definem
uma escala de medida da competência. Usualmente, essa escala é um continuum, mas, por opções
metodológicas, varia usualmente entre menos três e três (-3 e 3), limites que podem ser
transformados em quaisquer outros valores julgados mais convenientes.
Uma escala só é útil para finalidade de diagnóstico ou de ação pedagógica se os seus
diferentes pontos tiverem uma interpretação pedagógica. A interpretação começa com a
construção de um mapa de itens, que consiste em associar cada item do teste a um ponto da escala
utilizada para medir as proficiências dos alunos. Como mostrado pela curva de característica, a
relação entre um item e uma escala é probabilística e, portanto, muitos pontos da escala podem
ser escolhidos como localização de um item. É bastante frequente tomar como ponto de locação
de um item a proficiência em que a probabilidade de acertar o item seja de 65%. A figura a seguir
nos traz a expressão gráfica de um mapa de itens, mostrando que tanto os alunos quanto os itens
estão referenciados a pontos da escala.

Figura 3 – Mapa de itens

Fonte: SOARES, 2009.

Após a construção desse mapa de itens, a interpretação pedagógica se baseia no seguinte


princípio: alunos com proficiência em um dado valor são capazes de realizar tarefas implícitas
presentes nos itens que estão localizados em valores menores do que os da sua proficiência.
Existem várias nuances para a aplicação prática desse princípio. A referência clássica é o
artigo de Beaton e Allen (1992). Os detalhes podem ser encontrados nas várias interpretações
publicadas da escala do Saeb, principalmente em Fontanive, Elliot e Klein (2007). Os materiais
de divulgação do Saresp também apresentam a interpretação da escala do Saeb com itens que
foram utilizados nesse exame.

46
Para saber mais sobre o Saresp, acesse:

Saresp. Disponível em: <http://saresp.fde.sp.gov.br/2017>. Acesso em: fev. 2018.

Interpretação normativa
A interpretação que acabamos de apresentar, embora fundamental para orientar
intervenções pedagógicas, não explicita se as proficiências obtidas pelo grupo de alunos analisados
são ou não adequadas, considerando a trajetória escolar dos alunos testados. Isso exige a produção
de outra interpretação, usualmente apresentada por meio da escolha de níveis, ou seja, pela divisão
da escala de medida em intervalos a que são atribuídos significados pedagógicos e normativos.
Há muita diversidade de opinião sobre o número e a denominação dos níveis a serem
usados. Para este conteúdo, escolhemos quatro níveis, cujas denominações e seus respectivos
significados normativos são os seguintes:
abaixo do básico – o aluno demonstra um domínio rudimentar da competência medida;
básico – o aluno demonstra um domínio apenas parcial da competência;
proficiente – o aluno demonstra dominar os conteúdos e habilidades esperados para o
seu estágio escolar e
avançado – o aluno domina a competência de forma especialmente completa,
ultrapassando o esperado para o seu estágio escolar.

A opção por quatro níveis reflete a necessidade de orientar a organização de atividades a


serem oferecidas aos alunos após a análise dos dados obtidos em uma avaliação.
O uso de níveis permite dar às medidas das proficiências dos alunos uma utilidade
pedagógica, e não apenas gerencial. Os alunos que estão no nível abaixo do básico precisam de
acompanhamento imediato para que a situação em que se encontram não se cristalize. Já os
alunos do nível proficiente precisam de atividades que envolvam desafios, como olimpíadas, pois
oportunizam a criação de um grupo com desempenho avançado. As atividades adequadas aos
alunos do nível básico exigem uma análise mais detalhada de cada situação, considerando o nível
de ensino e as preferências individuais desses alunos. Alguns estão nesse nível por entenderem
que, em relação àquela competência, não precisam de desempenho além do caracterizado pelo
nível básico. No entanto, na maioria das vezes, precisam melhorar o seu desempenho, merecendo
atividades de consolidação.
O problema que se coloca, entretanto, é a escolha de pontos de corte que definam,
exatamente, a localização desses níveis na escala de proficiência. A metodologia escolhida para
decidir os pontos de corte no Saresp é apresentada em seguida.

47
Há uma expressiva literatura, criada a partir da proposta de Angoff (1971), para a escolha
de níveis de aprendizado em avaliações educacionais de larga escala. Todos os métodos
recomendam que a escolha dos pontos de corte deve ser feita utilizando-se, concomitantemente, o
mapa de itens e as considerações substantivas sobre o significado pedagógico de cada item, além
da organização do ensino. Embora os dados para esse tipo de pesquisa estejam disponíveis, ainda
não se organizou, no Brasil, um esforço de interpretação da escala do Saeb como recomendado
por essa literatura, sintetizada por Cizek (2001).
Diante disso, Soares (2009) escolheu pontos de corte para o Saresp de forma empírica e
comparativa. O autor escolheu uma distribuição de referência para as proficiências dos alunos e, a
partir dessa distribuição, fixou os pontos de corte que definiram os níveis. A adoção de uma
distribuição de referência traz, implicitamente, o reconhecimento prático de que as proficiências
dos alunos de um sistema educacional assumirão valores diversos. No entanto, os limites da
variação das proficiências devem estar em valores compatíveis com as necessidades de participação
social dos alunos. Em outras palavras, quando se monitora a competência cognitiva dos alunos,
não se pretende produzir igualdade, mas dar a todos a possibilidade de inserção em diferentes
formatos. Diferentes pessoas terão diferentes competências em níveis mais ou menos altos; todos
terão, entretanto, domínio das competências que os permitam desenvolver-se como cidadãos.

Distribuição de referência
Para a definição dos níveis de proficiência, escolhemos a distribuição de referência que
considera a comparação entre o desempenho dos alunos brasileiros e o desempenho dos alunos de
um grupo de países participantes do Programme for International Student Assessment (Pisa) –
Programa Internacional de Avaliação de Estudantes.

48
Vejamos, a seguir, um exemplo de comparação entre o desempenho ideal e o desempenho
dos alunos da 8ª série do ensino fundamental que fizeram o teste de Matemática:

Figura 4 – Comparação entre o desempenho ideal e o desempenho dos alunos da 8ª série do


ensino fundamental que fizeram o teste de Matemática (Saeb, 2003)

Fonte: SOARES, 2009.

Para saber mais sobre o a distribuição de referência utilizada, leia:

SOARES, José Francisco; DELGADO, Victor Maia Senna. Medida das desigualdades de
aprendizado entre estudantes de Ensino Fundamental. Estudos em Avaliação
Educacional, v. 27, n. 66, p. 754-780, 2016.

Obtida a distribuição de referência, os níveis foram estabelecidos da seguinte maneira: o


ponto de corte que define o nível proficiente foi fixado no mesmo valor escolhido pelo
movimento Todos pela Educação para o seu indicador, cuja equipe técnica escolheu o ponto
acima do qual deveriam estar 70% dos alunos no momento em que a educação brasileira pudesse
ser considerada de qualidade. Embora essa escolha tenha sido feita utilizando-se a experiência dos
membros da comissão e as interpretações já feitas pela escala do Saeb, os pontos obtidos são muito
próximos do percentil 70 da distribuição de referência escolhida.

49
Para saber mais sobre o valor escolhido pelo Movimento Todos pela Educação como ponto de
corte que define o nível proficiente, acesse:

Todos pela Educação. Disponível em: <https://www.todospelaeducacao.org.br/>.


Acesso em: fev. 2018.

A definição de apenas um ponto de corte pode ensejar atitudes pouco razoáveis. Por
exemplo, os alunos que estão muito abaixo desse ponto não receberão atenção devida nas suas
escolas, já que será quase impossível levá-los até o nível desejado em curto prazo. Por outro lado,
todas as escolas devem ter excelência acadêmica, o que implica que alguns dos seus alunos tenham
um desempenho que ultrapasse o esperado.
Diante dessas considerações, usuais em muitos outros sistemas de avaliação no mundo,
optou-se por criar para o Saresp mais dois pontos de corte. Os dois outros pontos de corte foram
escolhidos de forma ad-hoc, de modo a colocar 25% dos alunos no nível avançado e 25% no nível
básico. Desse modo, os pontos de corte são aqueles que definem, na distribuição de referência,
intervalos com frequência de alunos de 5%, 25%, 45% e 25%. Depois de todas essas
considerações, os pontos de corte adotados em São Paulo ficaram definidos como mostram as
tabelas a seguir:

Tabela 11 – Níveis Saresp de desempenho para Leitura

nível 4ª série EF 8ª série EF 3º ano EM

abaixo do básico menor que 150 menor que 200 menor que 250

básico entre 150 e 200 entre 200 e 275 entre 250 e 300

adequado entre 200 e 250 entre 275 e 325 entre 300 e 375

avançado acima de 250 acima de 325 acima de 375

Fonte: SOARES, 2009.

50
Tabela 12 – Níveis Saresp de desempenho para Matemática

nível 4ª série EF 8ª série EF 3º ano EM

abaixo do básico menor que 175 menor que 225 menor que 275

básico entre 175 e 225 entre 225 e 300 entre 275 e 350

adequado entre 225 e 275 entre 300 e 350 entre 350 e 400

avançado acima de 275 acima de 350 acima de 400

Fonte: SOARES, 2009.

Indicadores de qualidade
A seguir, apresentamos os dados obtidos pelos testes do Saeb (1995 -2005) e pela Prova
Brasil (2005-2009) quanto aos indicadores de qualidade.

Tabela 13 – Percentual de alunos de escolas estaduais, municipais e privadas urbanas acima do


ponto de referência adequado em Leitura e Matemática nos testes do Saeb (1995-2005)

ano 4ª série 8ª série

Matemática Leitura Matemática Leitura

1995 19,0 39,3 16,9 37,7

1997 22,3 36,7 17,1 32,3

1999 15,1 26,0 13,2 18,6

2001 16,1 25,6 13,4 21,8

2003 16,7 28,0 14,7 20,0

2005 20,4 29,1 12,9 19,4

Fonte: Baseado nos microdados do Saeb 1995-2005.

51
Tabela 14 – Número de Escolas estaduais ou municipais com mais de 70% de seus alunos acima
do ponto de corte nos diferentes ciclos da Prova Brasil

ano 5º ano Matemática 5º ano Leitura 9º ano Matemática 9º ano Leitura

2005 21 (0,1%) 155 (0,5%) 13 (0,1%) 8 (0,0%)

2007 265 (0,7%) 307 (0,8%) 35 (0,1%) 28 (0,1%)

2009 1447 (3,3%) 974 (2,2%) 54 (0,2%) 66 (0,2%)

Fonte: Baseado nos microdados divulgados pela Prova Brasil.

Indicadores de desigualdade
As desigualdades são estudadas por meio da relação entre grupos sociais. Ao se medir o
aprendizado de um conjunto de estudantes, não se espera observar igualdade. Ao contrário,
espera-se observar variações aleatórias. Assim sendo, quando se comparam dois alunos, não é
possível saber se a eventual diferença de aprendizado é uma simples variação ou é fruto de uma
desigualdade sistemática.
Para esclarecer isso, precisamos comparar o aprendizado dos alunos segundo grupos
definidos por diversas variáveis, tais como: sexo, raça/cor, região do País, local de moradia, nível
socioeconômico ou outras características de interesse. Em uma situação de igualdade de
oportunidades, tratamento e resultados educacionais, as variações entre esses grupos seriam iguais.

O conceito de equidade pode ser interpretado em


dimensões relativas à equidade de acesso (igualdade de
oportunidade), equidade no ambiente de aprendizagem
(igualdade de tratamento), equidade na produção (igualdade
de desempenho ou resultados) e equidade na realização. A
visão pluralista de equidade entende que todas essas
dimensões devem ser consideradas.

Para saber mais sobre as diversas abordagens teóricas e metodológicas do conceito de


equidade, leia:

SIMIELLI, L. E. R. Equidade educacional no Brasil: análise das oportunidades educacionais


em 2001 e 2011. 133 f. Tese (Doutorado em Administração Pública e Governo) – Escola de
Administração de Empresas de São Paulo. São Paulo, 2015.

52
Para analisar os indicadores de desigualdade, tomamos como referência as medidas do
aprendizado em Leitura e Matemática para os grupos sociais de interesse. A forma de medir a
diferença de resultado entre esses grupos obedeceu ao nível de mensuração das variáveis
escolhidas, que foram as seguintes:
sexo;
raça/cor e
faixas de nível socioeconômico.

Como essas variáveis são categóricas, foi possível determinarmos a distância entre as
distribuições da medida de qualidade entre os grupos. A desigualdade educacional foi então
observada pelo hiato de desempenho entre os grupos sociais, como veremos a seguir.

Diferenças segundo o sexo do aluno


As tabelas a seguir mostram as médias de proficiência em Leitura e Matemática segundo a
variável sexo e as diferenças entre os grupos. Vejamos:

Tabela 15 – Média das proficiências em Leitura dos estudantes por ano de realização da Prova
Brasil e sexo

edição da
ano escolar masculino (M) feminino (F) diferença (F - M)
Prova Brasil

2005 169,92 178,97 9,06

2007 170,00 179,90 9,90

5° ano 2009 177,91 188,12 10,21

2011 182,37 195,55 13,18

2013 187,93 200,60 12,67

2005 220,20 228,74 8,54

2007 222,51 235,05 12,55

9° ano 2009 230,75 244,72 13,97

2011 231,39 246,49 15,10

2013 231,80 247,67 15,87

Fonte: Alves, Soares, Xavier, 2016.

53
Tabela 16 – Média das proficiências em Matemática por ano de realização da Prova Brasil e sexo

edição da diferença
ano escolar masculino (M) feminino (F)
Prova Brasil (F - M)

2005 181,63 181,46 -0,17

2007 192,80 191,56 -1,24

5° ano 2009 203,78 202,58 -1,20

2011 209,08 206,41 -2,67

2013 210,39 209,75 -0,64

2005 243,79 236,97 -6,82

2007 245,25 236,97 -8,30

9° ano 2009 246,52 236,94 -9,58

2011 249,25 242,57 -6,68

2013 247,21 242,13 -5,07

Fonte: Alves, Soares, Xavier, 2016.

Como podemos observar, em Leitura, houve melhora nas médias tanto do 5º quanto do 9º
ano, de 2005 a 2013. No entanto, as meninas estão claramente em patamar superior de
aprendizado e as diferenças cresceram. Em Matemática, também houve melhora das médias, mas
o comportamento é diferente: os meninos estão em vantagem, sendo que as diferenças são
maiores no 9º ano. Vale registrarmos, entretanto, que o hiato das meninas no 5º ano, em
Matemática, é relativamente pequeno, inferior a 10 pontos. Na escala da Prova Brasil, esse não é
um valor substancial, que não possa ser equalizado.
O hiato de desempenho entre meninas e meninos é um resultado consistente com a
literatura educacional sobre diferenças de gênero. Vários estudos internacionais de avaliação
concordam com o fato de que as alunas têm um desempenho em Leitura melhor que os alunos,
enquanto que, em Matemática, a diferença entre os gêneros é menos clara e mais instável
(EURYDICE, 2010).

54
Diferenças segundo a raça/cor do aluno
No questionário contextual da Prova Brasil, cada aluno deve escolher entre cinco categorias
de raça/cor: branco, pardo, preto, amarelo e indígena. Como são poucos os alunos que se
autodeclaram amarelos ou indígenas (cerca de 5%), optou-se por destacar somente as diferenças
entre brancos, pardos e pretos.
Nas tabelas a seguir, há duas diferenças que precisam ser analisadas: entre brancos e pretos;
e entre pardos e pretos. Vejamos:

Tabela 17 – Média das proficiências em Leitura por ano de realização da Prova Brasil e raça/cor

edição da
ano escolar Prova branco (B) pardo (Pd) preto (Pt) diferença (Pt - B)
Brasil

2005 180,29 174,26 260.72 -19,58

2007 179,37 175,08 162,77 -16,60

5° ano 2009 187,77 182,87 170,48 -17,29

2011 195,90 188,09 176,23 -19,66

2013 202,19 194,84 180,51 -21,68

2005 229,92 222,60 216,67 -13,25

2007 236,33 225,87 220,01 -16,32

9° ano 2009 245,90 235,37 228,30 -17,60

2011 248,37 236,81 230,28 -18,09

2013 248,87 238,34 230,21 -18,67

Fonte: Alves, Soares, Xavier, 2016.

55
Tabela 18 – Média das proficiências em Matemática por ano de realização da Prova Brasil
e raça/cor

edição da
ano escolar Prova branco (B) pardo (Pd) preto (Pt) diferença (Pt - B)
Brasil

2005 187,49 181,30 168,74 -18,76

2007 197,23 192,14 179,51 -17,72

5° ano 2009 208,91 203,14 189,37 -19,54

2011 215,78 206,83 194,20 -21,59

2013 218,46 210,99 195,50 -22,96

2005 246,78 237,42 231,24 -15,53

2007 248,89 236,87 231,45 -17,43

9° ano 2009 250,23 237,63 232,56 -17,67

2011 255,15 242,52 236,65 -18,50

2013 253,43 242,57 235,52 -17,91

Fonte: Alves, Soares, Xavier, 2016.

Como podemos observar, os alunos que se autodeclaram pretos, mesmo apresentando melhora
da proficiência, sobretudo no 5º ano, têm desempenho pior do que os que se autodeclaram brancos
ou pardos. A distância entre pardos e pretos, embora substancial, é menor do que a distância entre
brancos e pretos, cuja diferença está destacada na última coluna da tabela (Pt-B).
Socialmente, o mais preocupante é o fato de as diferenças não terem diminuído ao longo
dos anos. Vale destacarmos que a distância entre pretos e brancos é mais expressiva do que a
observada entre meninas e meninos. O aluno preto está em desvantagem equivalente a quase um
ano de aprendizado, embora esteja cursando a mesma série que o aluno branco.

56
Diferenças segundo as faixas de nível socioeconômico do aluno
A relação entre nível socioeconômico (NSE) e sucesso escolar é a mais explorada desde os
estudos precursores de Coleman (1966) e também de Bourdieu e Passeron (2008). A medida do
NSE do aluno sintetiza vários itens do questionário contextual relacionados à escolaridade e ao
setor ocupacional dos pais do aluno, à posse de itens de conforto e à contratação de empregados
domésticos no domicílio. Para a estimação do NSE foram utilizados os itens dos questionários de
avaliações realizadas pelo Inep: o Saeb (inclui a Prova Brasil) de 2005 a 2013, e o Exame Nacional
do Ensino Médio (Enem) de 2007 a 2013. A estimação do NSE com os dados em conjunto
resultou em uma escala representativa do espectro de escolas brasileiras (públicas e privadas) e
comparável entre edições.
As tabelas a seguir mostram as médias dos estudantes agregados pelo seu respectivo nível
socioeconômico em quintis.

Tabela 19 – Média das proficiências em Leitura na Prova Brasil por ano de realização da Prova
Brasil e Nível Socioeconômico do aluno (NSE)

quintis do nível socioeconômico do aluno

edição da
ano 1 2 3 4 5 diferença
Prova
escolar (5-1)
Brasil mais
mais baixo
alto

2005 167,99 173,20 175,81 279,76 188,08 20,08

2007 163,65 170,42 174,84 179,57 186,18 22,53

5° ano 2009 165,12 176,14 182,51 189,90 197,08 31,96

2011 169,46 179,73 186,58 194,76 202,41 32,95

2013 167,93 180,41 189,35 200,46 209,11 41,19

2005 217,95 222,80 225,73 231,06 238,43 20,48

2007 217,16 224,99 229,54 234,93 241,84 24,68

9° ano 2009 223,53 233,24 238,10 244,07 250,49 26,96

2011 221,12 231,28 237,63 244,54 251,09 29,97

2013 222,57 231,01 237,12 243,82 248,66 26,10

Fonte: Alves, Soares, Xavier, 2016.

57
Tabela 20 – Média das proficiências em Matemática na Prova Brasil por ano de realização da
Prova Brasil e Nível Socioeconômico do aluno (NSE)

quintis do nível socioeconômico do aluno

edição da
ano 1 2 3 4 5 diferença
Prova
escolar (5-1)
Brasil mais
mais baixo
alto

2005 175,32 180,30 183,04 186,99 195,09 19,77

2007 180,20 187,15 192,23 197,67 205,17 24,97

5° ano 2009 182,86 195,44 202,97 211,29 219,65 36,79

2011 185,60 197,04 205,22 214,64 224,32 38,72

2013 180,99 194,94 204,84 216,75 227,28 46,29

2005 231,59 237,86 241,76 248,14 257,57 25,98

2007 227,07 235,51 241,05 247,40 255,88 28,81

9° ano 2009 225,38 234,77 240,77 247,64 256,53 31,15

2011 226,45 236,80 243,48 250,68 259,03 32,57

2013 226,24 234,23 240.62 247,81 255,23 28,99

Fonte: Alves, Soares, Xavier, 2016.

Na coluna “diferença (5-1)”, podemos observar o hiato entre os alunos com os maiores e
menores valores de NSE. As diferenças são enormes, e todo o avanço no aprendizado médio dos
estudantes brasileiros não mudou em nada as desigualdades. Os alunos com menor NSE (1º
quintil) apresentam médias muito semelhantes em todas as edições da Prova Brasil.

Os resultados mostram a importância de colocar-se na pauta do


debate educacional a diminuição das diferenças encontradas.

O hiato entre os alunos discriminados por grupos de NSE é o mais elevado observado até
agora. Esse é um constrangimento real, extraescolar, que afeta diretamente as escolas e as salas de
aula (BROOKE; SOARES, 2008). No entanto, o tamanho da diferença deve ser destacado. Em
2013, no 5º ano, tanto em Leitura quanto em Matemática, a desvantagem de um aluno com NSE

58
mais baixo é equivale a mais de dois anos de aprendizado, quando comparado a um aluno com
NSE mais alto. Alunos com essa defasagem serão fortes candidatos a não concluírem o ensino
médio ou não conseguirem avançar para o ensino superior.
É importante relembrarmos que essas diferenças se referem a alunos matriculados em
escolas públicas estaduais e municipais.

Um hiato tão elevado sinaliza que as nossas escolas públicas são,


em média, incapazes de garantir a igualdade de oportunidades.

Diferenças segundo grupos definidos por múltiplas variáveis


Normalmente, definimos o nível de desigualdade de um sistema como a força do peso da
origem social sobre os resultados educacionais. No entanto, os mecanismos de produção dessas
desigualdades são complexos, e as características de grupos se reforçam ou compensam desvantagens.
Quando os grupos são definidos por múltiplos critérios, diferenças ainda mais acentuadas
são observadas. As tabelas a seguir apresentam as médias de proficiência de grupos de alunos
definidos por sexo, cor e quintis do NSE. Como todas as combinações dessas variáveis
produziram muitos grupos, nas tabelas, são mostrados apenas os grupos entre os quais as
diferenças são mais notáveis.

59
Vejamos a tabela que apresenta os resultados referentes à Leitura:

Tabela 21 – Média das proficiências em Leitura por ano de realização da Prova Brasil grupos
definidos por sexo, cor e NSE

edição
ano da diferença
A B C D E F G H
escolar Prova (E-D)
Brasil

2005 174,20 163,24 165,29 156,91 202,11 168,54 190,47 162,93 45,20

2007 168,37 161,94 159,47 155,04 200,36 174,00 188,20 165,42 45,32

5° ano 2009 170,40 165,47 160,81 158,46 211,33 186,26 199,42 176,86 52,87

2011 176,92 171,17 163,67 160,63 218,94 195,23 204,79 181,45 58,31

2013 175,21 169,72 161,28 159,51 226,53 201,07 212,53 188,01 67,02

2005 223,14 217,69 215,30 210,91 251,98 232,77 236,59 220,41 41,07

2007 223,51 218,03 212,80 208,39 257,67 239,53 239,46 220,47 49,29

9° ano 2009 229,37 224,99 216,67 213,81 266,95 248,48 248,23 228,32 53,14

2011 229,21 225,71 214,25 213,04 268,38 251,12 249,65 229,21 55,33

2013 229,55 226,63 215,90 214,42 267,07 247,99 247,49 226,74 52,65

Fonte: Alves, Soares, Xavier, 2016.

Grupos
A = meninas brancas com NSE mais baixo E = meninas brancas com NSE mais alto

B = meninas pretas com NSE mais baixo F = meninas pretas com NSE mais alto

C = meninos brancos com NSE mais baixo G = meninos brancos com NSE mais alto

D = meninos pretos com NSE mais baixo H = meninos pretos com NSE mais alto

Nessa tabela, a coluna “diferença (E-D)” destaca as distâncias entre as meninas brancas com
NSE mais alto (5º quintil) e os meninos pretos com NSE mais baixo (1º quintil). No 5º ano, a
distância entre esses dois grupos é enorme e crescente. O mesmo padrão é observado no 9º ano,
exceto em 2013, em que é observada uma pequena queda da diferença entre os grupos.

60
Vejamos, agora, a tabela referente às proficiências em Matemática:

Tabela 22 – Média das proficiências em Matemática por ano de realização da Prova Brasil grupos
definidos por sexo, cor e NSE

edição
ano da diferença
A B C D E F G H
escolar Prova (G-B)
Brasil

2005 177,73 167,26 177,33 168,99 202,60 171,78 202,52 173,41 35,26

2007 180,51 173,58 181,02 175,81 212,62 184,50 213,53 187,62 39,95

5° ano 2009 183,76 177,96 183,40 180,25 227,39 200,15 228,73 202,21 50,76

2011 186,83 179,72 186,55 182,65 232,15 206,04 235,21 208,33 55,49

2013 183,80 177,95 177,76 176,58 236,96 209,88 238,08 210,87 60,14

2005 231,57 224,48 238,24 231,16 262,15 239,90 264,64 242,53 40,16

2007 226,96 219,50 235,57 228,41 260,02 239,34 264,50 241,76 45,00

9° ano 2009 223,72 217,83 233,30 228,45 260,91 239,31 266,07 243,61 48,24

2011 226,58 221,37 233,03 229,96 265,45 244,63 267,89 244,99 46,52

2013 225,90 222,04 231,37 229,08 262,46 241,95 263,80 241,54 41,76

Fonte: Alves, Soares, Xavier, 2016.

Grupos
A = meninas brancas com NSE mais baixo E = meninas brancas com NSE mais alto

B = meninas pretas com NSE mais baixo F = meninas pretas com NSE mais alto

C = meninos brancos com NSE mais baixo G = meninos brancos com NSE mais alto

D = meninos pretos com NSE mais baixo H = meninos pretos com NSE mais alto

Nessa tabela, a coluna “diferença (G-B)” destaca a distância entre meninos brancos com
NSE mais alto e meninas pretas com NSE mais baixo, que têm, sistematicamente, desempenho
pior em Matemática. As diferenças entre os grupos do 5º ano são crescentes ao longo do período
analisado. No 9º ano, a tendência é de crescimento até 2009 e, depois, de queda.

61
Quase todas as distâncias entre os grupos são superiores a 40 pontos (dois anos de
aprendizado) e algumas ultrapassam os 60 pontos. Isso significa que dois alunos matriculados na
mesma série, mas diferentes em relação a sexo, cor e NSE, podem estar distantes ao equivalente a
mais de três anos de aprendizado um do outro. No entanto, vale destacarmos que as diferenças
entre NSE são aquelas que mais pesam para as distâncias verificadas nas tabelas apresentadas.

62
MÓDULO III – DESCRIÇÃO EDUCACIONAL E
ESTATÍSTICA DO IDEB

Neste módulo, analisaremos, por meio de uma descrição educacional e estatística, o Índice
de Desenvolvimento da Educação Básica (Ideb). Além disso, apresentaremos as sínteses dos
resultados das avaliações realizadas por meio de duas plataformas: o portal Ideb Escola e o portal
QEdu, que auxiliam na contextualização do cenário educacional brasileiro.

Introdução
A União, os estados e os municípios brasileiros estão usando, de modo cada vez mais
frequente, o desempenho dos seus alunos em avaliações externas de aprendizagem para orientar as
suas políticas educacionais. Esses resultados, por sua vez, têm sido sintetizados em indicadores
globais de qualidade da educação, entre os quais o mais importante e influente é o Índice de
Desenvolvimento da Educação Básica (Ideb), introduzido pelo Inep em 2006.
O Ideb se tornou a forma privilegiada e, frequentemente, a única utilizada para analisar a
qualidade da educação básica brasileira. Por esse motivo, tem tido grande e profunda influência
no debate educacional brasileiro. A sua introdução colocou no centro desse debate a ideia de que,
atualmente, os sistemas educacionais brasileiros devem ser avaliados não apenas pelos seus
processos de ensino e gestão, mas sim, e principalmente, pelo aprendizado e pela trajetória escolar
dos alunos.
A valorização dos resultados estava ausente nas análises até então dominantes da educação básica
brasileira, que eram centradas na questão da expansão dos sistemas. Nessas abordagens, a solução para
os problemas educacionais era sempre a expansão de algum aspecto dos sistemas educacionais: mais
horas-aula, mais etapas obrigatórias, mais recursos, mais escolas e mais professores.

O Ideb, sem questionar a necessidade de novos recursos e


expansões, coloca o aprendizado e a regularidade na
trajetória escolar dos alunos como elementos essenciais de
um sistema educacional.

A importância da consideração de resultados para a análise dos sistemas educacionais ficou


ainda mais evidente com a introdução do Plano de Metas Todos pela Educação (Compromisso),
estabelecido pelo decreto nº 6.094, de 24 de abril de 2007 (BRASIL, 2007), cuja primeira diretriz
é “estabelecer como foco a aprendizagem, apontando resultados concretos a atingir.”
A ideia de que o sistema educacional deve ser analisado pelos seus resultados tem origem nas
análises educacionais realizadas por meio dos dados coletados nos censos demográficos. Rigotti
(2004) nos mostra como estão redigidas as questões relativas à educação nos diferentes censos.

Para saber mais sobre como são abordadas as questões referentes à educação nos diversos
censos, leia:

RIGOTTI, J. I. R. Variáveis de educação dos censos demográficos brasileiros de 1960 a


2000. In: RIOS-NETO, E. L. G.; RIANI, J. L. R. (Org.) Introdução à demografia da educação.
Campinas: Abep, 2004. p.129-142.

Fletcher e Ribeiro (1989) nos mostraram, também por meio da análise de dados censitários,
que a repetência era a grande característica do sistema brasileiro de educação básica, e não a
evasão. Esses autores cunharam o termo “pedagogia da repetência”, conceito que teve profundo
impacto nas políticas de educação fundamental. Uma dessas influências foi a reformulação do
Censo Escolar, hoje um refinado sistema de coleta de dados sobre cada aluno matriculado. A
partir dos dados obtidos nos censos demográfico e escolar calculam-se indicadores de
analfabetismo, acesso e cobertura, resultados fundamentais para a análise de um sistema de
educação básica.

Um indicador especialmente importante para o


conhecimento de um sistema educacional, mas que exige
análises específicas, é o fluxo dos seus alunos (KLEIN, 2006).

64
Com a introdução do Sistema de Avaliação da Educação Básica (Saeb), a ideia de que, além
dos indicadores de rendimento, uma medida de aprendizado dos alunos deveria ser usada para o
monitoramento do sistema foi ganhando espaço e concretizou-se, em 2005, com a criação da
Prova Brasil e, em 2006, com a introdução do Ideb. Uma justificativa nunca explicitada para o
uso de resultados de rendimento e aprendizado no monitoramento de sistemas de educação básica
é a de que apenas dessa forma o Estado fica sabendo se o direito à educação dos seus cidadãos está
sendo atendido. Na ausência de um sistema como esse, o direito público subjetivo estabelecido no
texto constitucional não pode ser monitorado e, eventualmente, exigido.
Nesse sentido, nosso objetivo é explicitar as opções metodológicas feitas na construção do
Ideb, bem como os efeitos diretos e indiretos que induz quando a escola decide buscar, por meio
de políticas e práticas internas, a sua maximização. Como qualquer indicador, o Ideb faz um
recorte e uma redução do foco de análise. Dessa forma, é importante identificar e discutir como
esse indicador define a qualidade e a equidade dos sistemas educacionais brasileiros. Como
veremos, se o Ideb, como definido atualmente, for o único indicador usado para guiar as políticas
educacionais de educação básica – mesmo no caso otimista de que as suas metas sejam atingidas –,
podemos não ter um sistema educacional que garanta o direito constitucional de educação.

Índice de Desenvolvimento da Educação Básica (Ideb)


Nesta unidade, explicitaremos as opções metodológicas feitas na construção do Ideb e os
respectivos algoritmos. O entendimento desses algoritmos é essencial para construirmos uma
análise crítica do indicador.

Componentes do Ideb
O Ideb de uma escola ou de uma rede de ensino é definido a partir do produto entre:
um indicador de desempenho, tomado como o nível médio da proficiência dos alunos
da escola ou rede obtido na Prova Brasil e
um indicador de rendimento, definido como o valor médio das taxas de aprovação da
escola ou sistema obtido no Censo Escolar do ano em que o Ideb é divulgado.

O valor do Ideb cresce à medida que os resultados do aprendizado dos alunos melhoram e cai à
medida que as taxas de aprovação diminuem. Um dos motivos da grande aceitação obtida pelo Ideb é
o fato de o índice agregar, em um único indicador, uma medida de desempenho e outra de
rendimento, dimensões fundamentais para uma análise relevante de sistemas de educação básica.
A seguir, veremos os indicadores de desempenho e rendimento com mais detalhes.

65
Indicador de desempenho
O desempenho de uma escola é definido, para o cálculo do Ideb, como a média das
proficiências em Leitura e Matemática obtida pelos alunos da escola na Prova Brasil. Como as
escalas de medida das duas competências são diferentes, é necessário fazer uma padronização
dessas medidas antes de calcular a sua média. A metodologia do Ideb assume que, para tornar
comparáveis as proficiências de Leitura e Matemática, basta fazer com que variem no mesmo
intervalo. Para isso, utiliza o seguinte algoritmo:

." % ê : ' ) % " % ê 4


. " " % ê ) % " % ê 4

Os limites inferiores e superiores, apresentados na tabela seguir, são os valores situados a


três desvios-padrão acima e abaixo da proficiência média de todos os alunos que fizeram o Saeb
em 1997, ano em que a escala foi definida. Vejamos:

Tabela 23 – Limites superiores e inferiores usados para a padronização das notas de Leitura e
Matemática no Ideb

Matemática Leitura
série
inferior superior inferior superior

4ª série 60 322 49 324

8ª série 100 400 100 400

Fonte: Nota técnica do Inep sobre a concepção do Ideb.

66
Vamos analisar um exemplo para melhor entendermos esse algoritmo. Consideremos uma
escola que ofereça apenas as primeiras séries do ensino fundamental e cujos alunos da 4ª série (5º
ano), tenham tido, na Prova Brasil de 2011, proficiência média de 206,92 em Matemática e
184,52 em Leitura. A proficiência padronizada dessa escola deve ser obtida da seguinte forma:

.206,92 ) 604
" % ê " ] á 0,561
.322 ) 604

.184,52 ) 494
" % ê " ] 0,493
.324 ) 494

0,561 - 0,493
" % ê " ] 10 5,27
2

A multiplicação por 10 coloca a proficiência padronizada no intervalo de 0 a 10, intervalo


esse usado, habitualmente, na atribuição de notas em trabalhos escolares.
Aritmeticamente, a proficiência padronizada da escola é a média das proficiências
padronizadas dos seus alunos. Em outras palavras, para obtermos a proficiência padronizada de
uma escola, podemos primeiramente padronizar, usando o algoritmo apresentado na primeira
equação, a proficiência de cada um dos seus alunos e, em seguida, tomar a média dos valores
resultantes como a proficiência padronizada da escola.
Como as médias variam muito menos do que observações individuais, embora as
proficiências padronizadas dos alunos assumam valores entre 0 e 10, as proficiências padronizadas
das escolas estão concentradas em um intervalo mais restrito. Dessa forma, do ponto de vista
empírico, é incorreto dizer que o Ideb varia de 0 a 10, já que a proficiência padronizada de uma
escola atingiria o valor máximo de 10 apenas em uma situação muito improvável: aquela em que
todos os seus alunos tenham, em Leitura e em Matemática, proficiências que, medidas pela Prova
Brasil, sejam iguais aos limites superiores apresentados na Tabela 23. Analogamente, uma escola
só teria proficiência padronizada igual a 0 se todos os seus alunos tivessem a mesma proficiência,
sendo esta igual ao limite inferior apresentado na Tabela 23.

67
Usando os dados da Prova Brasil de 2011, as proficiências padronizadas das escolas de 5º
ano variam de acordo com o histograma do gráfico a seguir. Como previsto, essas proficiências
cobrem apenas uma parte do intervalo [0, 10].

Figura 5 – Histograma das proficiências padronizadas do quinto ano de 2011

O gráfico apresentado nos mostra que, para realizarmos a interpretação da proficiência


padronizada, não podemos usar a experiência adquirida com a escala de atribuição de notas em
trabalhos escolares. Nessa situação, sabemos que notas acima de oito são boas e abaixo de quatro
são ruins. No Ideb, entretanto, os valores acima de oito quase não ocorrem, e entre os valores
abaixo de quatro há valores possíveis e outros quase impossíveis.
Uma consequência menos conhecida e muito mais intrigante do processo de padronização
utilizado na construção do Ideb é que as proficiências padronizadas em Matemática das escolas
são, muito frequentemente – em 2011, foram 94,8% –, maiores do que as proficiências
padronizadas em Leitura. Isso é fruto do conhecido fato de que, na Prova Brasil, as proficiências
em Matemática são expressas por números maiores do que aqueles usados para Leitura. O

68
algoritmo de padronização, principalmente na 8ª série (9º ano), não leva esse fato em
consideração, pois prescreve valores iguais, como podemos observar na Tabela 23. Dessa forma,
as proficiências padronizadas de Matemática são, em geral, maiores que as de Leitura. Como
consequência, a proficiência média usada na construção do Ideb é mais influenciada pela
proficiência em Matemática. Em outras palavras, o indicador de aprendizado do Ideb assume,
equivocadamente, que os alunos brasileiros de ensino fundamental sabem mais Matemática do
que Leitura. Esse diagnóstico, no entanto, não é um retrato fiel da realidade educacional quando
esta é considerada sob o prisma da interpretação pedagógica dos testes da Prova Brasil ou dos
resultados de outras avaliações.
Mesmo se colocarmos as duas proficiências variando no mesmo intervalo, as escalas de
Leitura e Matemática não serão completamente comparáveis.
Existem muitos algoritmos que, na situação do Ideb, poderiam ser usados para tornar as
duas proficiências, de fato, comparáveis e, desse modo, dar sentido ao cálculo de um valor médio.
Há, por exemplo, o método denominado “Equipercentil”, que cria uma tabela de equivalência
dos escores entre as duas escalas, equalizando os valores dos percentis de cada uma.

Para saber mais sobre o Método Equipercentil, leia:

PETERSEN, N. S.; KOLEN, M. J.; HOOVER, H. D. Scaling, norming, and equating. In: LINN,
R. L. (Ed.). Educational measurement. 3. ed. New York: American Council on Education
and Macmillan, 1989. p. 221-262.

Indicador de rendimento
O conceito de rendimento é usado no âmbito das estatísticas educacionais para sintetizar a
experiência de aprovação ou reprovação dos alunos de uma escola ou sistema de ensino. Ao fim de
um ano letivo, cada aluno matriculado, que não foi formalmente transferido nem faleceu, é
colocado em uma das três categorias. Na categoria de aprovados são classificados os alunos que, ao
final do ano letivo, preencheram os requisitos mínimos de desempenho e frequência previstos em
legislação. Na dos reprovados, são colocados os alunos que, ao final do ano letivo, não
preencheram os requisitos mínimos de desempenho ou frequência previstos em legislação. Já na
categoria de abandono, são colocados os alunos que deixaram de frequentar a escola, tendo a sua
matrícula cancelada.
A taxa de aprovação é definida como a razão entre o número de aprovados e a soma dos alunos
nas três categorias. Detalhes podem ser encontrados na nota técnica do Inep (Inep, 2009a). A soma
das taxas de aprovação, reprovação e abandono é 100%. Portanto, se a taxa de abandono é alta, tanto
a taxa de aprovação quanto a de reprovação podem ser baixas, ao mesmo tempo.

69
Para saber mais detalhes sobre as taxas de aprovação, reprovação e abandono, acesse:

Taxas de aprovação, reprovação e abandono: Censo Escolar da Educação Básica 2007


(nota técnica 003/2009). Disponível em: <http://download.inep.gov.br/
download/censo/2009/NT_003_2009.pdf>. Acesso em: fev. 2018.

O indicador de rendimento usado no Ideb pode ser interpretado como a razão entre o
número de anos da etapa e o número de anos letivos que um aluno típico da escola gasta para
completar uma série. Em uma situação ideal, em que não haja nem reprovação nem abandono,
esse valor seria, naturalmente, igual a 1, ou seja, apenas um ano letivo seria gasto para que os
alunos completassem cada série ou ano escolar. No entanto, na maioria das situações reais, há
reprovações e abandonos. Diante disso, o número de anos letivos para que o aluno típico de uma
escola complete uma série é sempre maior que 1. Isso ocorre porque os reprovados e os que
abandonaram a escola deverão repetir a série, o que aumenta a média de anos letivos de estudo
necessários para que todos os alunos da escola completem cada série ou ano escolar.
Matematicamente, o número de anos letivos necessários para que um aluno típico de uma
escola complete cada série ou ano é dado pelo inverso da taxa de aprovação da respectiva série.
Diante disso, usa-se o inverso da média aritmética dos inversos das taxas de aprovação, chamada
de média harmônica, para sintetizar o rendimento da escola. No jargão da Estatística, o
rendimento de uma escola no Ideb é a média harmônica das taxas de aprovação dos quatro ou
cinco anos que compõem cada uma das etapas do ensino fundamental. Embora essa escolha seja
completamente adequada, o uso da média harmônica, opção raramente usada em análises
estatísticas, torna o entendimento do processo de cálculo do rendimento mais difícil.
Vamos analisar um novo exemplo para que possamos melhor entender as opções feitas. Na
tabela a seguir, apresentamos o cálculo de rendimento de uma escola com cinco séries. Vejamos:

Tabela 24 – Algoritmo de cálculo do indicador de rendimento de uma escola

ano escolar

1 2 3 4 5

taxa aprovação (%) 82,4 79,1 78,4 97,1 88,4

taxa aprovação em decimais 0,824 0,791 0,784 0,971 0,884

anos de estudo necessários para


1,21 1,26 1,28 1,03 1,13
que os alunos completem a série

70
Ao considerarmos a taxa de aprovação do primeiro ano (0,824), podemos observar que são
necessários 1/0,824 = 1,21 anos para que um aluno típico dessa escola complete o 1º ano. A
aplicação desse algoritmo aos outros anos escolares produz os valores da última linha da tabela. O
número de anos letivos de estudo necessários para que os alunos dessa escola completem as cinco
séries é, portanto, o seguinte:

(1,21 + 1,26 + 1,28 + 1,03 + 1,13) = 5,91

O indicador de rendimento é obtido pela divisão do número de séries ou anos letivos que
seria necessário caso a aprovação fosse total pelo número de anos realmente necessários para
completar a etapa (taxa de aprovação). No caso do nosso exemplo, temos:

5/5,91 = 0,8453

O indicador de rendimento é sempre um número entre 0 e 1, e a média utilizada no cálculo


do rendimento não é ponderada, ou seja, não considera, no cálculo do indicador de rendimento,
que cada uma das taxas utilizadas referentes a distintos anos escolares é baseada em diferentes
números de alunos.

Cálculo do Ideb
O Ideb sintetiza os indicadores de rendimento e desempenho em um único número, por
meio do produto dos dois indicadores. Dessa forma, temos:

, 5 " _ ` (

Como o indicador de rendimento é um número menor que 1, o Ideb é sempre menor que
o indicador de desempenho. Em outras palavras, o Ideb penaliza a escola que usa a reprovação
como estratégia pedagógica, atribuindo-lhe valores mais baixos.
Como consequência da agregação dos dois indicadores em um único número, cria-se,
implicitamente, uma equivalência entre diferentes combinações dos indicadores de desempenho e
rendimento. A tabela a seguir nos mostra possíveis combinações dos dois indicadores para se obter um
Ideb de valor 6. A coluna 5, por exemplo, mostra que uma taxa média de reprovação de 14%, com
um desempenho de 6,98, é equivalente a um desempenho de 6 se a taxa de reprovação é zero.

71
Tabela 25 – Diferentes combinações dos indicadores de rendimento e proficiência padronizada
que produzem o mesmo Ideb de 6

indicador combinação

rendimento 0,7 0,76 0,78 0,8 0,86 0,88 0,9 0,92 0,96

desempenho 8,57 7,89 7,69 7,5 6,98 6,82 6,67 6,52 6,25

O raciocínio de que um resultado pode compensar o outro está presente em vários pontos
da metodologia do Ideb. Isso quer dizer que, no Ideb, o melhor aprendizado de um aluno
compensa o pior aprendizado de outro aluno da mesma escola; um melhor desempenho em
Leitura compensa um aprendizado insuficiente em Matemática; o melhor aprendizado de alguns
compensa a reprovação de outros. Essas substituições são criticáveis do ponto de vista do direito à
educação, que considera o aprendizado como um direito de todos e de cada um dos alunos, não
de alunos típicos ou médios.

Interpretação normativa
Em muitos textos sobre o Ideb, principalmente os publicados na grande mídia, é recorrente
a ideia de que se trata de um indicador de fácil compreensão, já que usa valores entre 0 e 10.
Partindo dessa compreensão, entende-se que, para o Ideb, vale o bom senso acumulado nas
avaliações escolares, cujas notas acima de 9 são excelentes e as abaixo de 5 são muito ruins. No
entanto, não é isso que ocorre com o Ideb. Como vimos, o valor do Ideb está concentrado em
uma parte menor do intervalo entre 0 e 10.
Na realidade, a escala do Ideb tem características surpreendentes e difíceis de serem
apreciadas em um primeiro momento por um não especialista. Por exemplo, um Ideb de 4,5 é
um valor médio, não baixo, e está longe, e não perto, do valor 6. Isso ocorre porque os valores
extremos da escala (acima de 6 e abaixo de 3) são raros, e os valores acima de 8 e abaixo de 2 são
quase impossíveis.
O valor 6 foi escolhido como valor de referência para o Ideb. Sucintamente, com algumas
hipóteses, esse seria o valor que o Ideb deveria ter se os alunos brasileiros estivessem todos no nível
3 do Pisa e o indicador de rendimento fosse fixado em 0,96. Esse fato tem sido descrito como se
um Ideb igual a 6 significasse uma escola de “primeiro mundo”. Todavia, isso só seria correto se o
currículo brasileiro, cujo aprendizado é verificado pela Prova Brasil, fosse equivalente ao currículo
dos países da OCDE, o que não ocorre atualmente.

72
Para saber mais sobre a escolha do valor 6 como valor de referência para o Idep, acesse:

Nota metodológica sobre a compatibilização de desempenhos do Pisa com a escala do Saeb.


Disponível em: <http://download.inep.gov.br/educacao_basica/portal_ideb/
o_que_sao_as_metas/Nota_Tecnica_n3_compatibilizacao_PISA_SAEB.pdf>. Acesso em:
fev. 2018.

O problema de se escolher um valor de referência para o Ideb é equivalente ao de


determinar uma distribuição de referência para as proficiências dos estudantes de uma escola.
Delgado et al. (2013), também usando os resultados do Pisa, mas com opções metodológicas
diferentes, criaram uma distribuição de referência que, se usada para calcular o Ideb, com o
indicador de rendimento também fixado em 0,96, resultaria em um Ideb de 6,5. Essa distribuição
de referência reproduz as metas do movimento Todos Pela Educação. No entanto, a existência de
metas diferentes, baseadas nos mesmos resultados da Prova Brasil, tem criado dificuldades, pois os
dois conjuntos de metas são amplamente divulgados, e uma meta é mais exigente que outra.

Faixas do Ideb
Para interpretarmos, pedagogicamente, um valor específico do Ideb, precisamos mostrar
como os seus valores estão associados com os níveis de proficiência dos alunos para os quais
existem interpretações pedagógicas. Essas interpretações expressam o que conhecem e sabem fazer
os alunos alocados nos diferentes níveis. Soares (2009), partindo dos valores definidos pelo
movimento Todos pela Educação, estabeleceu quatro níveis de desempenho, apresentados na
tabela a seguir:

Tabela 26 – Níveis de desempenho para Leitura e Matemática

Leitura Matemática
nível
4ª série EF 8ª série EF 4ª série EF 8ª série EF

abaixo do básico menor que 150 menor que 200 menor que 175 menor que 225

básico entre 150 e 200 entre 200 e 275 entre 175 e 225 entre 225 e 300

adequado entre 200 e 250 entre 275 e 325 entre 225 e 275 entre 300 e 350

avançado acima de 250 acima de 325 acima de 275 acima de 350

Fonte: Soares (2009).

73
Para transformar esses níveis de desempenho em valores do Ideb, primeiramente, é preciso
observar que a maior nota de um aluno que está no nível abaixo do básico é 150 em Leitura e 175
em Matemática. Assumindo-se que todos os alunos de uma escola tenham essas notas e que o seu
indicador de rendimento seja 0,96 – o mesmo valor usado por Fernandes (2007) para fixar as
metas do Ideb –, podemos obter o valor do Ideb para essa escola.
Com hipóteses similares, criaram-se cinco faixas para o Ideb da seguinte maneira: o nível
baixo foi escolhido para retratar a situação em que o desempenho dos alunos da escola é inferior
ao limite escolhido para o nível básico tanto em Leitura quanto em Matemática. As outras faixas
foram escolhidas fixando-se a média das proficiências dos alunos nos seguintes valores:
médio baixo – valores iguais aos limites inferiores do nível básico;
médio – valores situados no meio do nível básico;
médio alto – valores correspondentes ao limite inferior do nível adequado e
alto – valores que estão no meio do nível adequado.

A tabela a seguir sintetiza essas escolhas. Vejamos:

Tabela 27 – Faixas para o Ideb

média média Ideb


Ideb média em rendimento faixa final
em padronizada (D x
(faixas) Matemática (R) **
Leitura (D)* R)

baixo - - - < 3,5

médio 150 175 4,03 0,96 3,87 [3,5 4,5)


baixo

médio 175 200 4,96 0,96 4,76 [4,5 5,5)

médio alto 200 225 5,89 0,96 5,65 [5,5 6,5)

alto 225 250 6,83 0,96 6,55 > 6,5

NOTAS:
* A padronização é feita pelo cálculo apresentado anteriormente.
** A primeira faixa foi definida a partir do intervalo inferior calculado para a segunda faixa.

74
A próxima tabela nos mostra a grande evolução do valor do Ideb nas escolas públicas ao fim
da primeira etapa do ensino fundamental (5º ano). Podemos notar que, ao longo dos anos, há um
forte decréscimo de escolas na faixa mais baixa do Ideb e um crescimento na faixa média.

Tabela 28 – Evolução do Ideb para escolas que oferecem quarta série (quinto ano), por
percentual em cada uma de cinco faixas de valores

faixa do Ideb 2005 2007 2009 2011 2013 2015

baixo 44,4 30,8 25,7 16,3 9,7 3,9

médio baixo 36,8 38,1 30,5 29,2 16,1 14,0

médio 16,6 25,7 29,0 31,6 20,6 19,6

médio alto 2,1 0,5 12,8 18,9 17,4 21,6

alto 0,1 0,4 2,0 4,0 6,1 10,0

É importante verificarmos, no entanto, que a criação dessas faixas traz a seguinte


consequência: a ocorrência de valores altos no Ideb é compatível com um número muito alto de
alunos com desempenhos medíocres, ou seja, nos níveis abaixo do básico e básico, como mostrado
na tabela a seguir.

Tabela 29 – Proporção de alunos nos níveis de desempenho e Ideb das escolas de 5º ano
(Prova Brasil, 2011)

DESEMPENHO
Ideb
insuficiente básico adequado avançado TOTAL

baixo 58,6 34,1 6,6 0,7 100

médio baixo 39,6 43,2 14,8 2,4 100

médio 23,3 41,9 27,3 7,5 100

médio alto 11,1 33,4 37,8 17,7 100

alto 3,8 19,6 41,0 35,7 100

75
O valor do Ideb deve estar acima de 6,5 para que não
existam muitos estudantes na escola ou no município com
desempenho no nível Insuficiente.

Análise crítica do Ideb


A criação do Ideb significou uma grande e positiva mudança no debate educacional
brasileiro. Só a partir da sua criação é que a ideia de que as escolas devem também ser avaliadas
pelo aprendizado dos seus alunos, expresso pelo desempenho, entrou definitivamente nesse
debate. Em outras palavras, a partir do Ideb, a expressão concreta do direito ao aprendizado
passou a ser a evidência fornecida pelo resultado da Prova Brasil. Rapidamente, o Ideb tornou-se
o único indicador de qualidade do sistema de ensino fundamental brasileiro, passou a orientar
políticas públicas educacionais, impactou a cobertura da mídia dos assuntos educacionais e, ainda
que mais lentamente, trouxe novas dimensões para a pesquisa educacional.
O sucesso do Ideb foi de tal ordem que a “maldição” da Lei de Campbell passou a se aplicar
a ele: “Um indicador quantitativo, ao ser usado para a tomada de decisões, fica mais sujeito a
manipulações e assim sua própria existência distorce e corrompe os processos que pretendia
monitorar” (CAMPBELL, 1976, p. 49, tradução nossa). Em outras palavras, o uso de um
indicador único como medida única da qualidade das escolas e das redes fará com que,
naturalmente, essas escolas busquem maximizá-lo e, como isso pode ser feito de maneiras pouco
adequadas pedagogicamente, pode levar a um sistema educacional disfuncional.
O Ideb tem sido muito usado e, às vezes, também criticado. No entanto, poucas são as
análises feitas sobre o indicador. Dessa forma, a seguir, discutimos algumas limitações que
consideramos serem importantes para a análise do Ideb. Tais limitações são as seguintes:

a) Só alunos presentes ao teste são considerados:


Uma limitação séria dos dados usados para cálculo do indicador de desempenho é o fato de
que apenas os alunos presentes na escola no dia da Prova Brasil são considerados. O Inep aceita
apenas 50% de presença para divulgar o Ideb da escola (Inep, 2011). A Prova Brasil envia à escola
um teste para cada aluno matriculado, usando para isso a base do Censo Escolar que registra
informações de cada aluno.
Ao longo dos últimos anos, o Censo Escolar tem-se consolidado como uma excelente
descrição do número de alunos em cada escola brasileira. No entanto, nem todos os alunos para
os quais os testes são enviados fazem as provas. No ano de 2011, voltaram sem resposta 14% dos
testes de 5º ano e 22% dos testes de 9º ano. Essas são porcentagens expressivas que, se

76
correspondem aos alunos mais fracos, fazem com que os valores do Ideb das escolas com muitas
ausências sejam superestimados.
A portaria do MEC sobre cálculo do Ideb diz que o indicador é calculado desde que mais
de 50% dos alunos da escola tenham comparecido. Isso quer dizer que, mantendo-se dentro da
lei, as escolas podem escolher os seus melhores alunos e assim ter um melhor valor no Ideb.
Essa análise nos leva a concluir que o sistema que produz o Ideb é muito tolerante
com ausências.

b) A proficiência em Matemática tem mais peso que a proficiência em Leitura:


Como consequência dos algoritmos usados para padronizar as proficiências, implícito no Ideb
está o fato de que o domínio da competência matemática pelos alunos brasileiros é maior do que o
domínio da compreensão leitora. Essa idiossincrasia estatística pode ser usada como estratégia para
melhorar o Ideb, bastando, para isso, enfatizar o ensino de Matemática para alguns alunos.

c) O Ideb assume substituições questionáveis entre os diferentes componentes:


Como o numerador do Ideb é uma média, implicitamente, o indicador aceita que o bom
desempenho de um aluno compense o mau desempenho de outro. Além disso, assume que um
melhor desempenho compense uma taxa de reprovação mais alta. Essas duas características
deixam aberta a possibilidade de exclusão educacional de alunos, pois, para obter melhores valores
do indicador, pode-se escolher, com cuidado, os alunos em que a escola deve concentrar os seus
esforços instrucionais.

d) Não se pode usar a metáfora da nota escolar para analisar o Ideb:


Como o Ideb é apresentado como um indicador simples, variando de 0 a 10, é muito
frequente interpretá-lo da mesma forma que, tradicionalmente, interpretam-se os conceitos
escolares. Em algumas situações, chega-se a dizer que o nível 6 é baixo e que o Brasil deveria
almejar um Ideb muito mais alto. Um Ideb em torno de 7, que indica um excelente resultado, é
considerado uma nota escolar mediana. Como vimos, esses valores muito altos só ocorrem em
situações raras.

77
e) O Ideb naturaliza baixos desempenhos de muitos alunos:
Vamos rever a tabela 25:

Tabela 25 – Diferentes combinações dos indicadores de rendimento e proficiência padronizada


que produzem o mesmo Ideb de 6

indicador combinação

rendimento 0,7 0,76 0,78 0,8 0,86 0,88 0,9 0,92 0,96

desempenho 8,57 7,89 7,69 7,5 6,98 6,82 6,67 6,52 6,25

Essa tabela nos mostra que um Ideb igual a 6, a meta nacional, é compatível com um
grande número de alunos de desempenho medíocre. Dessa forma, com o uso isolado do Ideb, as
dificuldades educacionais desses alunos não terão nenhuma relevância, considerando o fato de que
o indicador de qualidade está em um nível tido como adequado.

f) O Ideb é muito correlacionado com o nível socioeconômico da escola:


Como já vimos, o nível socioeconômico (NSE) é uma medida resultante da agregação de
indicadores obtidos nos questionários contextuais da Prova Brasil. Tais indicares envolvem o nível
de escolaridade dos pais, a posse de bens de consumo duráveis e a contratação de serviços
domésticos. A agregação é feita por meio de um modelo da Teoria de Resposta ao Item (TRI),
conforme descrito por Alves e Soares (2009).
O modelo da TRI transforma as informações em uma escala que, para facilitar o seu uso,
foi transformada no intervalo entre 0 e 10. Essa medida do nível socioeconômico dos alunos foi
validada, entre outras formas, por meio da verificação da correlação de Pearson entre a renda per
capita dos municípios e o NSE médio dos municípios – obtido pela agregação do NSE médio das
escolas de cada município. O coeficiente de correlação foi igual a 0,91. Esse alto valor comprova
que o NSE capta, de maneira adequada, as condições econômicas dos municípios, o que justifica
o seu uso nas análises estatísticas para a caracterização das escolas.

Para conhecer outras validações, leia:

ALVES, M. T. G.; SOARES, J. F.; XAVIER, F. P. O nível socioeconômico das escolas de Educação
Básica brasileiras: versão 2. Belo Horizonte: Grupo de Avaliação e Medidas Educacionais
(Game); São Paulo: Instituto Unibanco, 2013. 64p. Relatório técnico.

78
Uma grande e sólida literatura mostra que o desempenho dos alunos está muito associado
ao seu nível socioeconômico. Desse modo, não nos surpreende o fato de que a associação entre o
Ideb e o NSE das escolas seja alta.
O gráfico a seguir, construído com o Ideb das escolas públicas do município de São Paulo
que oferecem a primeira etapa do ensino fundamental, aponta uma associação de 0,694 entre o
Ideb de 2011 e o respectivo NSE das escolas. Isso quer dizer que, isoladamente, o Ideb é também
um indicador das condições socioeconômicas das escolas. Vejamos:

Figura 6 – Correlação entre o Ideb e o NSE das escolas públicas de São Paulo (SP)

As correlações entre o NSE e o Ideb são sempre positivas, mas o valor é mais alto entre
escolas de um mesmo município do que entre municípios.
Diante disso, a identificação de escolas com projetos pedagógicos exemplares não pode ser
feita apenas por meio do Ideb, que, como vimos, identifica também escolas que têm bons
resultados apenas porque atendem a alunos que trazem muito do capital cultural das suas famílias.

g) Outras limitações:
Outras limitações do Ideb já foram apresentadas por diversos autores. Por exemplo, Daniel
Cara, em entrevista à Revista Educação, afirmou que "o Ideb é um termômetro que revela se o
aluno está ou não assimilando informações fornecidas pelo sistema educacional, mas não
considera aspectos que têm impacto sobre a qualidade, como a valorização dos profissionais e a
infraestrutura" (AVANCINI, 2008). Embora muito veiculada, não se trata exatamente de uma

79
crítica ao indicador, mas a seu uso isolado. A sensata advertência do autor indica que a avaliação
de escolas e redes de ensino não se deve restringir ao Ideb, e que o indicador de resultados deve ser
contextualizado por indicadores que descrevam as condições reais de oferta do ensino.
Também entrevistado pela Revista Educação (AVANCINI, 2008), João Batista de Oliveira
afirmou o seguinte: "Ao agregar coisas diferentes, o Ideb dá algumas indicações sobre qualidade,
mas ele não sinaliza claramente o que precisa ser melhorado.” De fato, como qualquer indicador-
síntese, um Ideb baixo apenas diz que há algo ruim acontecendo, mas nada diz sobre o que fazer.
Análoga a essa demanda, aparece a crítica de que faltam esclarecimentos sobre o que significam os
números, ou seja, que tipo de intervenção escolar um dado valor do Ideb sugere. Além disso,
como as políticas públicas para conter o abandono e a repetência não são, necessariamente, as
mesmas a serem usadas para aumentar o indicador de desempenho, não fica claro como se pode
passar do diagnóstico para a proposição de políticas. Essas são reflexões sólidas que devem merecer
mais espaço nos esforços de análise do Ideb.

Discussão
Existem vários outros indicadores usados para monitorar os resultados das escolas em
diferentes estados e municípios. E as limitações do Ideb apresentadas são, em maior ou menor
grau, compartilhadas por esses indicadores. Entre tais indicadores, o Idesp, usado no estado de
São Paulo, merece a nossa atenção especial.
Ao produzir a medida de desempenho da escola por meio da síntese de níveis, o Idesp não é
tão vulnerável à concentração do esforço educacional em poucos alunos e não tem o defeito do
desequilibro entre Leitura e Matemática, presente no Ideb. Apesar disso, outras limitações, como
associação com o nível socioeconômico, taxa de substituição não justificada e ausência de
tratamento específico para os alunos ausentes no teste estão igualmente presentes no Idesp.

Um conjunto de indicadores é uma forma de descrever o sistema, e não


uma ferramenta de gestão escolar. Para gerir uma escola, é preciso
considerar cada processo – administrativo, interação com a sociedade,
meios de ensino-aprendizagem, etc. – e escolher as informações de
estrutura e resultado adequadas ao seu monitoramento (BRYK;
HERMANSON, 1993).

Considerando que o Ideb está completamente integrado às políticas educacionais e que, no


entanto, as suas imperfeições são claras, podemos chegar a algumas conclusões.
O Ideb deve ser divulgado de forma contextualizada, demonstrando pelo menos uma
descrição do nível socioeconômico das escolas ou dos municípios. Idealmente, outras
características das escolas, como a sua infraestrutura, devem também ser consideradas. Isso não

80
advoga que as expectativas relativas ao aprendizado dos alunos devem ser diferentes em diferentes
municípios, mas apenas que, para atingir os aprendizados necessários, alguns cenários sociais são
mais adversos que outros.
Além disso, junto com o Ideb, cada escola ou rede deve receber também uma descrição de
quantos alunos estão em níveis de desempenho medíocres. Claro que escolas e redes com Ideb
maiores do que 6,5 estão em uma situação privilegiada, pois esse valor não permite que muitos
estudantes tenham aprendido muito pouco.
Por fim, talvez o mais importante seja transformar o Ideb em um primeiro passo para o
processo de reflexão interna nas escolas. Tal reflexão deve ter como meta a busca de melhores e
mais efetivas práticas pedagógicas, permitindo que os alunos aprendam o necessário para uma
vida digna e feliz.

Evolução do Ideb e seu uso para monitoramento das


escolas
Para que possamos acompanhar a evolução do Ideb e monitorar, juntamente com outros
indicadores educacionais e contextuais da escola, a qualidade da educação, o Inep desenvolveu
duas plataformas. Tais plataformas nos permitem realizar a consulta do valor do Ideb por estados,
municípios ou escolas.

Plataforma de resultados e metas


A primeira plataforma permite-nos acessar os resultados e metas do Ideb. Nessa plataforma,
é possível efetuarmos a comparação entre os resultados obtidos (por Brasil, estado, município ou
escola) com a meta projetada.

Para saber mais sobre a plataforma de resultados e metas, acesse:

Ibeb – resultados e metas. Disponível em: <http://ideb.inep.gov.br/resultado/>. Acesso


em: fev. 2018.

81
Vejamos, a seguir, um exemplo de consulta à plataforma de resultados e metas:

Figura 7 – Tela de acesso à plataforma de resultados e metas do Ideb

Fonte: Ideb – resultados e metas. Disponível em: <http://ideb.inep.gov.br/resultado/>. Acesso em: fev. 2018.

Figura 8 – Exemplo consulta resultados e metas por escola – plataforma de resultados e metas

Fonte: Ideb – resultados e metas. Disponível em: <http://ideb.inep.gov.br/resultado/>. Acesso em: fev. 2018.

82
Plataforma de consulta pública
A segunda plataforma desenvolvida pelo Inep permite-nos efetuar uma consulta pública dos
resultados do Ideb por escola. O que diferencia essa plataforma da primeira é a possibilidade de
obtermos uma contextualização mais completa da unidade escolar (com informações
socioeconômicas, administrativas e de infraestrutura), além da conveniência de podermos
comparar a escola consultada a outras escolas semelhantes (com base na localização, dependência
administrativa ou indicadores de complexidade de gestão e nível socioeconômico). Dessa forma,
para além dos dados resultantes do Ideb, informações coletadas pelo Censo Escolar da Educação
Básica e novos indicadores contextuais desenvolvidos pelo Inep, como o Indicador de Nível
Socioeconômico (Inse), a adequação da Formação Docente, o indicador de Esforço Docente e o
indicador da Complexidade da Gestão Escolar podem ser consultados.

Para saber mais sobre a plataforma de consulta pública, acesse:

Ibeb – consulta pública. Disponível em: <http://idebescola.inep.gov.br/ideb/


consulta-publica>. Acesso em: fev. 2018.

Conheça os novos indicadores

Nível socioeconômico (Inse) – é a média do nível socioeconômico dos alunos de cada


escola, distribuídos em sete níveis. O indicador é calculado com base nas informações
fornecidas pelos estudantes no preenchimento do questionário contextual da Prova Brasil;
Adequação da forma docente – é a proporção de professores de cada escola que têm a
formação adequada para a disciplina que leciona, nos termos da lei;
Esforço docente – mensura a dificuldade enfrentada pelos professores para o exercício
da profissão, considerando o número de escolas em que trabalham, turnos de
trabalho, número de alunos atendidos e etapas nas quais lecionam e
Complexidade de gestão escolar – baseia-se em quatro características da escola: porte
(número de alunos matriculados), número de turnos de funcionamento, complexidade
das etapas ofertadas, e número de etapas/modalidades oferecidas.

83
Vejamos um exemplo de como a consulta pode ser realizada. Primeiramente, devemos
acessar a plataforma meio do seguinte endereço: <http://idebescola.inep.gov.br/ideb/consulta-
publica>. Dessa forma, teremos acesso à seguinte área de consulta:

Figura 9 – Tela de acesso à Plataforma de Consulta do Ideb por Escola

Fonte: Disponível em: <http://idebescola.inep.gov.br/ideb/consulta-publica>. Acesso em: fev. 2018.

Na tela inicial de informações sobre a escola que se desejamos consultar, são várias as
possibilidades. Nela podemos:
inserir somente o código da escola;
selecionar as informações de UF e município, e o nome da escola e
selecionar as informações de UF, município, dependência administrativa e localização
(essa opção dá acesso a todas as escoas que preenchem os requisitos da seleção efetuada).

84
Na figura a seguir, podemos observar um exemplo:

Figura 10 – Exemplo da primeira tela de consulta - Ideb por Escola

Fonte: Disponível em <http://idebescola.inep.gov.br/ideb/escola/dadosEscola/31003280>. Acesso e: fev. 2018.

A partir do acesso às informações da escola, podemos localizar a informação que desejamos


e efetuar a análise.

Plataforma QEdu
Além das plataformas desenvolvidas pelo Inep, também há outra iniciativa, idealizada pela
Meritt e pela Fundação Lemann, chamada QEdu, que busca colocar à disposição da sociedade
civil informações sobre a educação brasileira. O site disponibiliza informações sobre o Censo
Escolar da Educação Básica, a Prova Brasil, o Enem e o Ideb. Os dados permitem contextualizar:

85
o aprendizado dos alunos em Matemática e Língua Portuguesa, identificar o perfil dos alunos, o
número de matrículas para cada etapa escolar, as taxas de aprovação e distorção idade série, a
infraestrutura escolar, o Ideb e o nível socioeconômico. A busca pode ser realizada por estado,
cidade ou escola.

Para saber mais sobre a QEdu, acesse:

QEdu. Disponível em: <http://www.qedu.org.br/>. Acesso em: fev. 2018.

A tela de acesso à plataforma QEdu é a seguinte:

Figura 11 – Tela de acesso à plataforma QEdu

Fonte: Disponível em: <http://www.qedu.org.br/>. Acesso em: fev. 2018.

86
MÓDULO IV – COMPARAÇÃO COM PARES
LATINO-AMERICANOS E INTERNACIONAIS

Neste módulo, compararemos os resultados dos estudantes brasileiros de educação básica


com os dos seus pares latino-americanos e internacionais. Para tanto, apresentaremos o
desempenho dos alunos brasileiros em duas avaliações internacionais: os estudos organizados pela
Unesco e o Pisa.

Comparações latino-americanas
Instituição responsável
O LLECE, Laboratório Latino-Americano de Avaliação da Qualidade de Educação da
Unesco foi criado em 1994, como rede de unidades nacionais de avaliação da qualidade da
educação na América Latina e no Caribe. São 15 os membros fundadores: Argentina, Bolívia,
Brasil, Chile, Colômbia, Costa Rica, El Salvador, Guatemala, Honduras, México, Paraguai, Peru,
República Dominicana, Uruguai e Venezuela, sob a coordenação do Escritório Regional de
Educação da Unesco para a América Latina e o Caribe (OREALC/ Unesco Santiago).
Esse laboratório tem três objetivos principais:
promover uma política educativa baseada em evidências, por meio da geração de dados
sobre a qualidade da educação, e os seus determinantes sociais e econômicos;
desenvolver capacidades de avaliação da educação e
servir como um fórum para gerar e compartilhar ideias, e discutir melhores práticas em
educação básica.
O LLECE já realizou três estudos comparativos que fornecem dados sobre o aprendizado de
Leitura, Matemática e Ciências dos estudantes de ensino básico dos países-membros. As informações
viabilizam a comparação da situação do Brasil em relação aos outros países latino-americanos.
A seguir, apresentamos uma descrição sintética dos dois primeiros estudos e, com mais
detalhes, os resultados do terceiro.

Primeiro estudo comparativo e explicativo regional (Perce)


Em 1997, o Laboratório aplicou os testes do Primeiro Estudo Comparativo e Explicativo
Regional (Perce) para medir o aproveitamento escolar de uma amostra dos alunos de 3ª e 4ª séries
do ensino fundamental em Leitura e Matemática. Os resultados do Perce foram publicados em
novembro de 1998 e evidenciaram, com grande destaque, a posição obtida pelos estudantes
cubanos, cujo desempenho está muito acima de qualquer outro pais da região. Vejamos os
resultados referentes à Linguagem nos gráficos a seguir:

Figura 12 – Resultados em Linguagem (3ª série)

Fonte: CASASSUS et al. (1998).

88
Figura 13 – Resultados em Linguagem (4ª série)

Fonte: CASASSUS et al. (1998).

Como podemos observar, em Linguagem, os resultados do Brasil, apesar de pouco acima da


média na 3ª série e um pouco mais altos na 4ª série, são menores que os da Argentina, Chile e Cuba.
Vejamos, agora, os resultados referentes à Matemática:

Figura 14 – Resultados em Matemática (3ª série)

Fonte: CASASSUS et al. (1998).

89
Figura 15 – Resultados em Matemática (4ª série)

Fonte: CASASSUS et al. (1998).

Como podemos notar, em Matemática, os resultados do Brasil na 3ª série estão um pouco


abaixo da média, superados pela Argentina e Cuba. Na 4ª série, a média dos resultados brasileiros
apresenta uma melhora, ficando atrás somente de Cuba.
No geral, os resultados do Perce tanto em Linguagem quanto em Matemática colocam o
Brasil em uma posição discreta, sem nenhum destaque no conjunto dos países participantes e
muito abaixo de Cuba, que apresenta resultados excepcionais em todas as séries e disciplinas.

Segundo estudo comparativo e explicativo regional (Serce)


Em 2006, o Serce foi implementado em 16 países e, pela primeira vez, em uma entidade
subnacional: Argentina, Brasil, Chile, Colômbia, Costa Rica, Cuba, Equador, El Salvador,
Guatemala, México, Nicarágua, Paraguai, Peru, República Dominicana, Uruguai e o estado
mexicano de Nuevo León. Entre as suas inovações, o Serce trouxe a avaliação das habilidades de
escrita bem como uma terceira disciplina, a Ciência.
Em todos os países foram medidos os aprendizados dos estudantes da 3ª e 6ª séries da
educação básica em leitura e matemática. O teste de Ciências da Natureza foi aplicado apenas nos
estudantes a 6ª série de nove países mais o estado de Nuevo León.
No total, foram estudadas 3.065 escolas, 4.627 turmas de 3ª série e 4.227 turmas de 6ª
série. Nessas escolas e turmas, foram avaliados 100.752 estudantes da 3ª série e 95.288 da 6ª série
da Educação Primária.
A amostra usada é representativa dos cerca de onze milhões de estudantes da 3ª série e dos dez
milhões de estudantes da 6ª série da educação básica da região. Cada um dos estudantes avaliados
respondeu a provas de Matemática, Leitura, Escrita e Ciências em dias diferentes e em tempo que

90
dependia da prova aplicada. Apesar da existência de informações a respeito dos estudantes da 3ª série e
da 6ª série, apresentaremos somente os resultados da 6ª série em Leitura e Matemática.

Para obter mais informações sobre os estudantes da 3ª série, acesse:

LLECE. Disponível em: <http://www.unesco.org/new/es/santiago/education/


education-assessment/>. Acesso em: fev. 2018.

As informações de contexto, sociodemográficas, familiares e pessoais, além dos processos e


da dinâmica escolar foram levantadas por meio de questionários aplicados aos próprios estudantes,
docentes, diretores e pais de família das escolas da amostra.
Os resultados do Serce foram apresentados por meio dos percentuais em níveis de desempenho,
com o objetivo de introduzir uma perspectiva pedagógica que indique o que os estudantes cujo
desempenho está em um dado nível são capazes para fazer. Isso facilita a comunicação com diferentes
públicos e a tomada de decisões para melhorar os processos educativos.
Os níveis de desempenho dos alunos agregam estudantes com perfis semelhantes nos
conhecimentos e habilidades que adquiriram.

Para ter acesso a uma descrição completa das habilidades de cada nível, leia:

VALDÉS, Héctor et al. Los aprendizajes de los estudiantes de América Latina y el Caribe:
Resumen ejecutivo del primer reporte de resultados del segundo estudio regional
comparativo y explicativo. 2008.

91
Vejamos, na tabela a seguir, a pontuação de corte por nível de desempenho dos estudantes
da 6ª série em Matemática:

Tabela 30 – Indicação da pontuação de corte por nível de desempenho dos estudantes da 6ª


série em Matemática

nível de desempenho pontuação de corte

abaixo de I

I 309,64

II 413,58

III 514,41

IV 624,60

Fonte: VALDÉS, 2008, p. 31.

Um processo semelhante à definição de desempenho de Matemática foi feito para a


definição dos níveis de Leitura. Cada habilidade incluída em cada nível leva em consideração o
grau de complexidade cognitiva e o conteúdo que o item avalia. Dessa maneira, os itens de maior
dificuldade e, portanto, típicos dos níveis mais altos, são mais complexos cognitivamente ou
referem-se a conteúdos mais avançados para os estudantes avaliados. Vejamos:

Tabela 31 – Indicação da pontuação de corte por nível de desempenho dos estudantes da 6ª


série em Leitura

nível de desempenho pontuação de corte

abaixo de I

I 299,59

II 424,54

III 513,66

IV 593,59

Fonte: VALDÉS, 2008, p. 36

92
Vejamos, agora, uma tabela que sintetiza os resultados obtidos pelos alunos da 6ª série para
Matemática:

Tabela 32 – Percentual de estudantes da 6ª série por nível de desempenho em Matemática,


por país

País Abaixo de I I II III IV

Argentina 1,53 11,89 37,99 36,26 12,34

Brasil 1,46 14,00 44,09 31,65 8,80

Chile 1,40 9,84 37,85 37,39 13,52

Colômbia 1,02 13,29 47,64 32,60 5,46

Costa Rica 0,09 4,55 32,71 43,70 18,95

Cuba 0,19 4,43 17,93 26,33 51,13

Equador 4,24 24,86 45,15 21,41 4,34

El Salvador 1,95 19,18 51,61 23,81 3,45

Guatemala 2,78 24,94 50,80 19,52 1,96

México 0,51 8,38 32,41 39,10 19,60

Nicarágua 2,25 23,88 52,69 19,41 1,76

Panamá 3,32 27,16 49,55 17,64 2,33

Paraguai 3,85 21,00 46,50 23,91 4,74

Peru 2,41 19,58 39,82 28,90 9,29

R. Dominicana 5,69 41,79 45,43 6,85 0,24

Uruguai 0,67 4,26 22,36 40,41 32,31

Nuevo León 0,34 6,29 29,35 40,66 23,36

Total AL e C 1,48 13,91 40,82 32,35 11,44

Fonte: VALDÉS, 2008, p. 32.

93
Como podemos observar na tabela apresentada, apesar de possuir uma maior média de
resultado (pontuação) do que Argentina, Chile, Costa Rica, México e Uruguai, o Brasil apresenta
pouco mais do que 58% dos seus alunos nos níveis 1 e 2, enquanto que esses países possuem
maior percentual de estudantes nos níveis 3 e 4. Cuba aparece como grande destaque, com maior
percentual de alunos nos níveis mais altos e menor percentual de alunos nos níveis mais baixos.
Em sequência, vejamos uma tabela que sintetiza os resultados obtidos pelos alunos da 6ª
série para Leitura:

Tabela 33 – Percentual de estudantes da 6ª série por nível de desempenho em Leitura, por país

país abaixo de I I II III IV

Argentina 1,78 17,93 35,59 25,48 19,22

Brasil 0,57 14,85 34,65 27,47 22,46

Chile 0,30 8,02 30,06 32,37 29,26

Colômbia 0,39 13,17 38,25 30,40 17,80

Costa Rica 0,22 5,00 23,45 36,73 34,59

Cuba 0,30 5,26 19,57 24,20 50,68

Equador 4,47 33,69 39,48 16,63 5,73

El Salvador 0,95 21,49 44,02 23,99 9,54

Guatemala 2,86 33,06 43,36 15,73 4,99

México 0,23 12,23 33,40 29,75 24,39

Nicarágua 1,02 22,08 50,58 21,10 5,22

Panamá 1,95 28,97 38,76 20,77 9,55

Paraguai 3,90 33,46 36,81 18,60 7,23

Peru 2,24 24,08 41,65 22,57 9,46

R. Dominicana 4,08 47,84 37,50 9,19 1,39

Uruguai 0,47 9,60 30,80 29,68 29,45

94
país abaixo de I I II III IV

Nuevo León 0,21 9,12 29,99 32,37 28,31

Total AL e C 0,93 16,51 35,46 26,79 20,30

Fonte: VALDÉS, 2008, p. 32.

Essa tabela nos mostra que, apesar de os resultados do Brasil em Leitura indicarem um
panorama educacional um pouco melhor, o cenário do País é semelhante ao apresentado em
Matemática: grande concentração do percentual dos alunos nos níveis 1 e 2 (49,5%), apesar do
aumento do percentual de alunos no nível 4. Chile, Costa Rica, México e Uruguai ainda se
destacam, com maiores percentuais de alunos nos níveis 3 e 4, quando comparados ao Brasil.

Terceiro estudo comparativo e explicativo regional (Terce)


Participaram do Terce 15 países: Argentina, Brasil, Chile, Colômbia, Costa Rica, Equador,
Guatemala, Honduras, México, Nicarágua, Panamá, Paraguai, Peru, República Dominicana e
Uruguai, além do estado mexicano de Nuevo León. Mais de 67.000 alunos das 3ª e 6ª séries
fizeram parte da amostra e foram avaliados nas seguintes áreas disciplinares: Leitura, Escrita,
Matemática e Ciência (sendo este último avaliado somente na 6ª série). Além dos testes, uma série
de questionários contextuais (estudantes, famílias, professores e diretores) foram utilizados para
coletar informações sobre os fatores associados à aprendizagem e, desse modo, contribuir para a
dimensão explicativa do estudo.
O Terce buscou investigar o nível de desempenho escolar geral dos alunos de escolas
fundamentais nas disciplinas de Linguagem (leitura e escrita), Matemática e Ciências Naturais dos
países participantes. Além disso, também teve como finalidade investigar a relação entre o
desempenho escolar e os fatores associados aos alunos e às suas famílias, aos professores e às salas
de aula e escolas e sua gestão.
Para a elaboração do teste de avaliação do aprendizado, o Instituto Colombiano de
Avaliação da Educação (ICFES) buscou, por meio de uma revisão dos currículos dos países
participantes, identificar os elementos comuns no currículo e, dessa maneira, constituir uma
estrutura adequada para medir a qualidade da educação no nível regional. Já os questionários
contextuais foram elaborados com base em uma revisão da literatura sobre os fatores que podem
influenciar a ocorrência do aprendizado no nível primário. Os dados coletados possibilitaram a
análise dos fatores associados às principais características dos sistemas educacionais participantes.

95
O enfoque da avaliação em Leitura buscou medir os seguintes domínios:
compreensão de textos – leitura de vários textos contínuos e descontínuos, a partir dos
quais é realizado um trabalho intratextual ou intertextual, e
domínio metalinguístico e teórico – domínio dos conceitos de linguagem e literatura,
foco no idioma para reconhecer e designar propriedades ou características de textos e
suas unidades.

Além desses domínios, buscou-se avaliar também os processos cognitivos, constituídos pela:
compreensão literal – composta das habilidades ligadas ao reconhecimento, ou seja, à
capacidade de identificação de elementos explícitos do texto e localização de informações
em segmentos específicos do texto;
compreensão inferencial – composta das habilidades relacionadas, por um lado, ao
entendimento, isto é, à capacidade de relacionar a informação presente nas diferentes
sequências do texto, e, por outro lado, às relacionadas à análise, isto é, à capacidade de
dividir a informação nas suas partes constituintes e estabelecer como elas se relacionam
de acordo com o propósito e a estrutura do texto, e
compreensão crítica – composta das habilidades relacionadas à avaliação, ou seja, à
capacidade de avaliar ou julgar o ponto de vista do emissor do texto e distingui-lo ou
contrastá-lo com os outros e com o próprio.

Os resultados do Terce foram apresentados de duas maneiras. Primeiramente, por meio de


um escore em uma escala cuja média foi fixada em 700 pontos, com desvio-padrão de 100
pontos. Em seguida, os escoares foram alocados em níveis de desempenho, definidos por pontos
de corte escolhidos pelo método do Bookmark (CIZEK; BUNCH, 2007; MITZEL et al., 2001).

96
De maneira a possibilitar uma interpretação pedagógica e empírica dos resultados dos
alunos, foram estabelecidos três pontos de corte em cada teste, dando origem a quatro níveis de
desempenho (I, II, III e IV), ordenados em um contínuo de crescente complexidade. Os pontos
de corte que definiram os níveis são apresentados na tabela a seguir, para os níveis da 3ª série:

Tabela 34 – Descrição dos pontos de corte por nível de desempenho – 3ª série

pontos de corte nível de desempenho

até 675 pontos I

entre 676 e 728 pontos II

entre 729 e 812 pontos III

a partir de 813 pontos IV

Fonte: Flotts, 2015, p. 33-34.

Os resultados de leitura da 3ª série nos mostram que 61% dos estudantes encontram-se nos
níveis I e II de desempenho. Isso indica que há maior aprendizagem relacionada à compreensão
de textos familiares e próximos dos estudantes, em que a tarefa típica é reconhecer informações
explícitas e evidentes. Dessa forma, o principal desafio é expandir o entendimento dos alunos para
textos menos familiares, em que é necessário estabelecer relações, interpretar e inferir significados.

97
No gráfico a seguir, podemos analisar a distribuição dos estudantes da 3ª série por nível de
desempenho em Leitura:

Figura 16 – Distribuição de estudantes da 3ª série do ensino fundamental por nível de


desempenho em Leitura

Fonte: Flotts et al., 2015, p. 34.

Ao analisarmos a distribuição dos estudantes da 3ª série, verificamos que o Brasil possui maior
percentual de alunos nos níveis I e III. O País tem, portanto, uma posição comparável às posições de
Argentina, Colômbia, Equador, México e Peru. Sendo que, entre esses países, somente a Argentina e o
Equador têm menor percentual de alunos no nível IV. Todo o restante apresenta maior percentual de
alunos nesse nível, o que é um indicativo da necessidade de trabalho pedagógico em busca de ofertar
aos estudantes reforço necessário para consolidar a base da aprendizagem, mas também incentivos para
que possa avançar no domínio de habilidades mais complexas.

98
Vejamos, agora, os pontos de corte para os níveis de desempenho da 6ª série:

Tabela 35 – Descrição dos pontos de corte por nível de desempenho – 6ª série

pontos de corte nível de desempenho

até 611 pontos I

entre 612 e 753 pontos II

entre 754 e 809 pontos III

a partir de 810 pontos IV

Fonte: Flotts, 2015, p. 44-45.

Quando trata dos resultados de leitura da 6ª série, Flotts (2015) identifica que 70% dos alunos
encontram-se em níveis de desempenho I e II. O autor identifica maior aprendizagem na área
relacionada à compreensão de textos baseados em códigos explícitos e implícitos, o que permite
inferências sobre o significado dos textos e os seus propósitos comunicativos, além de identificar como
desafio o favorecimento da capacidade de as crianças interpretarem expressões de linguagem figurativa
e fortalecer o conhecimento dos componentes da linguagem e as suas funções.

99
No gráfico a seguir, podemos analisar a distribuição dos estudantes da 6ª série por nível de
desempenho em Leitura:

Figura 17 – Distribuição de estudantes da 6ª série do ensino fundamental por nível de


desempenho em Leitura

Fonte: Flotts et al., 2015, p. 45.

Analisando os resultados do Brasil referentes à 6ª série, identificamos um comportamento


diferente daquele apresentado na 3ª série: há um maior percentual de estudantes nos níveis II e
III. Os resultados brasileiros são, portanto, parecidos com os resultados obtidos por Argentina,
Colômbia, México, Peru e Uruguai, sendo a Colômbia, o México e o Uruguai os países com
maior percentual de alunos no nível IV.
A maioria dos estudantes brasileiros encontra-se no nível II (mais de 52%), o que indica um
cenário parecido com aquele apresentado na 3ª série, em que se observa a necessidade de
desenvolver estratégias pedagógicas que possibilitem ao estudante consolidar o que aprendeu, mas
também ampliar as suas habilidades para tarefas mais complexas.

Análise critica
Embora amplamente divulgados no Brasil, o Perce, o Serce e o Terce não recebem a
atenção devida. Muito similares ao Saeb, as informações desses estudos permitem-nos situar o
Brasil no contexto regional e constatar que a sua posição, mesmo na América Latina, é modesta.

100
Como lições para o Brasil, dois sistemas educacionais podem ser destacados:
o de Cuba (no Perce e Serce), com resultados estelares comparáveis aos melhores do
mundo, e
o do Chile (no Terce), que é o país da América Latina que apresenta melhoras
consistentes tanto no nível regional quando no nível global.

Carnoy (2009) faz uma comparação detalhada dos processos sociais e pedagógicos que
garantem a vantagem acadêmica de Cuba em relação ao Brasil e mesmo em relação ao Chile.
Os informes do Terce têm solidez técnica e merecem servir de base para estudos acadêmicos
na área educacional. Isso, infelizmente ainda não ocorreu, pois as bases de dados não estão
disponíveis para estudos.

Comparação internacional
Pisa
O Projeto Internacional de Avaliação da Educação (Pisa, na sua sigla em inglês), é um
exame que, organizado pela Organização para a Cooperação e Desenvolvimento Econômico
(OCDE), é aplicado a uma amostra de estudantes de 15 anos dos países-membros da organização,
e de países e economias convidados. O objetivo é verificar se os estudantes que estão terminando a
educação básica obrigatória nos países participantes adquiriram conhecimentos e habilidades em
Leitura, Matemática e Ciências que os habilitem a uma participação plena na sua sociedade. São
avaliados estudantes de países da OCDE e de alguns outros países convidados.

Organização para Cooperação e Desenvolvimento, a OCDE é


uma entidade internacional formada por 35 países. Fazem
parte da OCDE países com alto Índice de Desenvolvimento
Econômico (IDE), exceto Chile, México e Turquia. Apesar de
não ser membro do OCDE, o Brasil é considerado um país
cooperador da organização. Por conta disso, algumas
pesquisas realizadas pela OCDE incluem dados relacionados
ao nosso país.

O primeiro ciclo do Pisa foi realizado em 2000 e, desde então, tem-se repetido a cada três
anos. No ano 2000, participaram 32 países: 28 países da OCDE e alguns países convidados, entre
os quais estava o Brasil. Já em 2015, participaram 70 países, sendo 35 países-membros da OCDE
e 35 países/economias parceiras.

101
No Pisa, além dos testes, os alunos respondem a questionários contextuais que permitem
analisar a sua motivação para aprender, a concepção que têm sobre si mesmos e as suas estratégias
de aprendizado.

Composição da amostra
Em cada país/economia participante, a população de referência para definição da amostra
do Pisa é composta de “estudantes entre 15 anos e 3 meses (completos) e 16 anos e 2 meses
(completos) no início do período de aplicação da avaliação, matriculados em instituições
educacionais localizadas no país participante, a partir da 7ª série/7º ano” (Inep, 2016, p. 26).
A tabela a seguir mostra-nos os percentuais de alunos em cada ano escolar, no ano de 2015,
no Brasil.

Tabela 36 ‫ج‬Percentual dos alunos brasileiros que fizeram o Pisa em 2015 segundo o ano escolar
em questão

7° ano (EF) 8° ano (EF) 9° ano (EF) 10° ano (EM) 11° ano (EM) 12° ano (EM)

3,5 6,4 12,5 35,9 39,2 2,5

Fonte: Relatório Inep 2016, p.27.

Como podemos observar, a grande maioria dos alunos brasileiros testados pelo Pisa está no
ensino médio, e o 2º ano do ensino médio concentra a maior quantidade de alunos. Assim sendo,
os alunos brasileiros estão na parte superior da curva de idade quando se consideram todos os
estudantes participantes.
No Pisa, um número mínimo de 150 escolas é requerido para cada país participante. O
Brasil participa, desde 2006, com uma amostra maior, a fim de obter resultados mais descritivos
por unidade da Federação, com níveis de precisão aceitáveis. Determinou-se um quantitativo de
964 escolas para a amostra brasileira no Pisa 2015, com especial destaque para Minas Gerais e São
Paulo, devido à sua maior concentração populacional de estudantes de 15 anos.

Para saber mais sobre a forma de escolha das escolas para compor a amostra brasileira,
acesse:

Relatório do Inep 2016. Disponível em: < http://download.inep.gov.br/


acoes_internacionais/pisa/resultados/2015/pisa2015_completo_final_baixa.pdf >.
Acesso em: fev. 2018.

102
Questionários contextuais
O objetivo dos questionários contextuais do Pisa é coletar dados que possam ajudar os
formuladores de políticas e os educadores a compreenderem o motivo e de os estudantes
atingirem determinados níveis de desempenho e a forma como isso acorre. Esses questionários
incluem itens de caracterização sociocultural dos estudantes e dos processos mais importantes da
aprendizagem dos alunos, tanto no nível individual quanto escolar, e também dados relativos ao
sistema de ensino. De forma específica, os questionários de contexto incluem itens sobre
características do aluno, antecedentes familiares de estudantes, percepções dos alunos,
características escolares e percepções dos diretores da escola.

Indicadores de características dos estudantes


Alguns dos itens do questionário contextual produzem informações que podem ser usadas
diretamente nas análises. No entanto, a maioria dos itens desse questionário foram desenhados
para ser combinados em uma medida de um construto latente, obtida com as metodologias de
construção de índices. Entre esses índices, há um particularmente importante: o índice Pisa de
status econômico, social e cultural (ESCS).
Para a sua construção, são sintetizadas as informações de bens de conforto doméstico existentes
na residência do estudante. A coleta de informações sobre os itens de conforto existentes na residência
dos estudantes como informação indireta de riqueza familiar tem uma longa tradição na pesquisa
sociológica e educacional. Assume-se que os bens presentes na residência captam melhor a riqueza da
família do que a declaração de renda, pois refletem uma fonte de riqueza mais estável. No Pisa 2012,
os questionários incluíram questões sobre a presença de 14 itens na residência dos estudantes. Além
disso, os países participantes puderam adicionar três itens específicos que captam evidência da riqueza
familiar de forma mais adequada a cada país participante.
Essas informações foram agregadas no indicador Homepos, um indicador síntese de todos
os itens existentes na casa, mais uma informação sobre o número de livros em casa.
Além dessa medida, o ESCS é inclui dois outros indicadores:
a ocupação do pai e da mãe – essas informações coletadas e colocadas em uma escola
internacional ICSEI. A maior ocupação dos pais dos alunos é escolhida como segunda
variável e
a escolaridade dos pais – essa informação é coletada e colocada na escala ISCEB. A maior
escolaridade dos pais é escolhida como a terceira variável.

Essas três variáveis são sintetizadas em um indicador, por meio de uma análise de
componentes principais.

103
Indicadores de características das escolas
De forma análoga ao que foi feito com o questionário respondido pelos alunos, vários
indicadores são construídos com as informações obtidas pelo questionário da escola, preenchido pelo
diretor. Em particular, são criados indicadores de liderança escolar, autonomia e de recursos escolares.
Os documentos técnicos do Pisa explicam como cada um desses indicadores é feito e
constituem, por isso, uma excelente fonte de informação de como construir indicadores.

O que é testado?
O Pisa foi desenhado com a finalidade de conhecer a capacidade de os estudantes
analisarem e resolverem problemas em uma grande variedade de situações, manusearem
informação e enfrentarem situações que lhes serão apresentadas durante a vida adulta e que lhes
exigirão o domínio de habilidades que deveriam ter sido desenvolvidas durante a sua permanência
na escola de educação básica (OCDE, 2012).
O teste do Pisa em Ciências, por exemplo, usa questões que contemplam situações da vida
do aluno, como consumo de energia, biodiversidade e saúde humana, mais do que conhecimentos
específicos, como nome de plantas, fórmulas químicas, etc. Cada ciclo concentra-se em uma das
três capacidades, ainda que o teste inclua, em todas as edições, questões das três áreas.
As definições dos três domínios avaliados no Pisa enfatizam a aquisição de conhecimento
funcional e de habilidades que permitam a participação ativa na sociedade. Tal participação requer
mais do que apenas a capacidade de realizar tarefas impostas externamente, por exemplo, por um
empregador. Significa também estar equipado para participar dos processos de tomada de decisão.
Nas tarefas mais complexas do Pisa, os alunos são solicitados a refletir e avaliar o material.
As definições abordam a capacidade de os alunos extrapolarem o que aprenderam e aplicarem os
seus conhecimentos em contextos novos, e também se concentram na capacidade de os alunos
analisarem, raciocinarem e comunicarem-se efetivamente ao apresentar, resolver e interpretar
problemas em uma variedade de situações.
Vejamos a definição de cada um dos domínios avaliados pelo Pisa (OCDE, 2016a):

a) Leitura:
Capacidade de um indivíduo compreender, usar, refletir e se envolver com textos escritos, a fim
de atingir os seus objetivos, desenvolver o seu conhecimento e potencial, e participar da sociedade.

b) Matemática:
Capacidade de um indivíduo de formular, empregar e interpretar a Matemática em uma
variedade de contextos. Inclui o raciocínio matemático e o uso de conceitos matemáticos,
procedimentos, fatos e ferramentas para descrever, explicar e prever fenômenos. Ajuda os
indivíduos a reconhecerem o papel que a Matemática desempenha no mundo e a desenvolverem
julgamentos e decisões bem fundamentados, necessários à formação de cidadãos construtivos,
envolvidos e reflexivos.

104
c) Ciências:
Conhecimento científico de uma pessoa e o seu uso para identificar questões, adquirir
novos conhecimentos, explicar fenômenos científicos e tirar conclusões baseadas em evidências
sobre questões relacionadas à ciência. Compreensão dos traços característicos da ciência como
forma de conhecimento humano. Consciência de como a ciência e a tecnologia moldam os nossos
ambientes materiais, intelectuais e culturais. Ajuda a desenvolver a vontade de se envolver em
questões relacionadas com a ciência e com as ideias da ciência, como um cidadão reflexivo.

Descrição dos testes


Aproximadamente dois terços dos itens do Pisa são composto de questões de múltipla
escolha de diversos formatos. O um terço restante é composto de questões de resposta aberta. Isso
exige a construção de padrões de resposta e a atribuição de escores por corretores que são
treinados para a tarefa.
Atualmente, os itens que compõem os testes do Pisa são desenvolvidos em centros de
pesquisa educacional de diferentes partes do mundo, de forma a garantir a presença de situações
que representem a diversidade de vivências que os estudantes dos diferentes países enfrentam no
seu dia a dia. Ao mesmo tempo, exigem, para a sua solução, os conhecimentos e habilidades que,
na concepção do Pisa, devem ser dominados por jovens de quinze anos.
Os documentos que descrevem as matrizes de avaliação explicam o que é avaliado, por que
e como. Além disso, fornecem exemplos detalhados de itens incluídos nos testes. Esse material é
particularmente rico em reflexões e informações pedagógicas.
O processo de desenvolvimento dos itens incluídos nos testes se estende por vários anos,
desdobrando-se em várias etapas desenvolvidas concomitantemente. Trata-se de um processo
muito sofisticado.

Para saber mais sobre as matrizes do PISA, acesse:

Relatório do Inep 2016. Disponível em: < Relatório do PISA 2015. Disponível em:
<http://www.oecd.org/pisa/data/2015-technical-report/>. Acesso em: fev. 2018.

105
Escala de proficiência
As respostas dos estudantes aos itens do Pisa são transformadas, por meio de modelos da
Teoria de Resposta ao Item, em escores. A interpretação pedagógica dessa escala e feita por meio
de um mapa de itens, como apresentado na figura a seguir.

Figura 18 – Escala de proficiência Pisa

Fonte: OCDE (2016), PISA 2015 Results (Volume I): Excellence and Equity in Education.

Como podemos verificar, cada item usado no teste nos dá a informação sobre um ponto da
escala. A partir do escore de cada estudante, é possível sabermos em quais itens ele tem proficiência e
em quais não tem. Claro que essa é uma afirmativa probabilista, pois o ocorre com um estudante
individual reflete muitas características pessoais não captadas em testes padronizados.

Níveis
Os resultados do Pisa são apresentados em seis níveis. No entanto, em 2009, para facilitar a
comunicação, o Pisa utilizou apenas quatro níveis:
alto desempenho que agrega os níveis 6 e 5;
desempenho sólido que representa o nível 4;
desempenho moderado agregando os níveis 2 e 3, e
baixo desempenho, composto pelo nível 1 ou abaixo.

106
Em anos posteriores o nível 1 foi dividido em 1a e 1b. O nível 3 é tomado como o nível de
aprendizado adequado. Desse modo, para acompanharmos o desenvolvimento dos alunos,
podemos verificar o percentual de alunos abaixo desse nível.
Os níveis são interpretados da mesma maneira da escala, isto é, por meio dos itens que estão
nele situados.
Os relatórios do Pisa mostram um mapa de itens, como exemplificado na tabela a seguir:

Tabela 37 – Mapa de perguntas científicas selecionadas que ilustram níveis de proficiência

pontuação
dificuldade do
nível mais baixa item
item
do nível

6 708 fazenda sustentável de peixes – (S601Q01) 740

5 633

migração de aves – (S656Q02) 630

4 investigação de encosta de declive – (S637Q05) 589


559
fazenda sustentável de peixes – (S601Q04) 585

migração de aves – (S656Q04) 574

investigação de encosta de declive – (S637Q01) 517


3 484
migração de aves – (S656Q01) 501

meteoroides e crateras – (S641Q01) 483

fazenda sustentável de peixes – (S601Q02) 456


2 410
meteoroides e crateras – (S641Q02) 450

meteoroides e crateras – (S641Q04) 438

1a 335

1b 261 meteoroides e crateras – (S641Q03) 299

Fonte: OCDE, 2016, p. 59.

107
Podemos observar que, na tabela apresentada, cada item é situado em um nível. Desse
modo, um estudante que está em um nível não é capaz de resolver os itens dos níveis mais altos,
sendo capaz apenas de resolver os itens do seu nível e dos níveis mais baixos. Essas são, no
entanto, afirmativas probabilísticas, que não valem para estudantes específicos.
A seguir, podemos ver um exemplo do item S601Q01, extraído do Relatório do Inep de
2016 (INEP, 2016, p. 65-66):

Figura 19 – fac-símile da prova de ciências, extraída do sistema eletrônico do Pisa 2015.

Nota: esse item serve apenas como referência visual. A versão em inglês pode ser visualizada no relatório internacional
(OCDE, 2016).

108
Como podemos observar, nesse caso, o formato da resposta foi o de múltipla escolha
complexa. Já a competência solicitada foi a de explicar fenômenos cientificamente.
A tarefa do item apresentou um diagrama do projeto experimental de uma fazenda de
criação de linguado e descreveu os hábitos alimentares dos organismos componentes dos tanques
do sistema. Para responder a essa questão, os estudantes deveriam mover os organismos para os
tanques apropriados, considerando as informações sobre os seus hábitos alimentares e as
respectivas contribuições na manutenção da sustentabilidade do sistema. Para receber o crédito
completo, os componentes teriam de estar dispostos nos tanques conforme consta na figura.
A competência avaliada na questão não se restringiu ao conhecimento do conteúdo (cadeia
alimentar), envolvendo também a capacidade de associar esse conhecimento a uma situação
hipotética. É possível que a forma de apresentação da tarefa tenha agregado dificuldade, pois mais
de 30% dos estudantes brasileiros omitiram a resposta e, dos que responderam, menos de 2%
receberam crédito (delta igual a 21,56). De fato, a estrutura textual do item era complexa –
composta de linguagem verbal e não verbal –, com muitas informações que deveriam ser
integradas para a produção da resposta. Embora essas informações fossem necessárias à resolução
da questão, a forma como estavam dispostas pode ter dificultado o entendimento. O texto verbal
descrevia, adequadamente, o funcionamento do viveiro e a função trófica dos organismos
componentes dos tanques. Entretanto, a sua associação com o diagrama exigia a decodificação de
setas com funções distintas (indicações do fluxo da água nos tanques e localização de elementos
do diagrama) e o entendimento de informações textuais complementares situadas no próprio
diagrama (legenda e textos explicativos dos componentes).

109
Resultados do Brasil
As mazelas estruturais do sistema brasileiro de educação básica fazem com que o nosso país
se apresente em posição desfavorável quando comparado a outros países. Franco (2002), ao
analisar os primeiros resultados brasileiros no Pisa, mostra-nos que, no Brasil, mesmo as escolas
consideradas boas não o seriam se o padrão de comparação incluísse escolas de outros países. O
autor ressalta ainda que o ensino brasileiro não enfatizava, à época, as habilidades demandadas no
mundo de hoje. Além disso, observa que, mesmo considerando somente os alunos brasileiros de
alto nível socioeconômico, os resultados ainda são menores do que os de alunos equivalentes de
outros países. Esse diagnóstico continua atual e pertinente.
Essa é uma situação que precisa mudar. Se quiser ocupar um lugar de destaque no concerto
das nações, o Brasil não pode ter um padrão educacional, em áreas tão básicas como Leitura,
Matemática e Ciências, aquém dos resultados de outros países com o mesmo nível de
desenvolvimento econômico.
A tabela a seguir nos mostra o percentual de alunos do Brasil em cada um dos quatro níveis
de competência leitora, conforme o Pisa realizado em 2009, bem como o resultado de alguns
outros países para comparação. Esses países incluem a Coreia, usada frequentemente como
exemplo, os Estados Unidos, que são um país grande, com uma população tão diversa quanta a
brasileira, e alguns países latino-americanos. Vejamos:

Tabela 38 – Percentual de alunos por nível e país – Leitura (Pisa 2009)

baixo desempenho desempenho alto


país
desempenho moderado sólido desempenho

Brasil 49,6 43,0 6,1 1,3

Chile 30,6 58,8 9,3 1,3

México 40,1 54,2 5,3 0,4

Uruguai 41,9 48,3 8,1 1,8

Coréia do Sul 5,8 48,4 32,9 12,9

Espanha 19,5 59,4 17,7 3,4

Estados Unidos 17,6 52,0 20,6 9,8

Portugal 17,6 58,0 19,6 4,8

Fonte: Baseado nos dados divulgados pelo Relatório Pisa 2009 (INEE, 2010).

110
Como podemos notar, os resultados do Brasil são muito ruins. O percentual de alunos
brasileiros com baixo desempenho em Leitura chega a quase 50%. Além disso, o Brasil possui um
percentual baixo de alunos com desempenhos sólido ou alto: 7,4%.
À época de divulgação dos últimos resultados, foi muito veiculada a informação de que o
Brasil foi um dos países que tiveram a maior evolução de desempenho desde 2000. Essa
informação, no entanto, recebeu uma análise crítica recentemente. Klein (2011) observa que a
mudança na data da aplicação do Pisa modifica o percentual de alunos nas séries em que os alunos
selecionados estão matriculados. Isso tornou os universos dos alunos avaliados, referentes aos anos
de 2000 e 2009, não comparáveis. Desse modo, são frágeis algumas das conclusões amplamente
veiculadas de que houve melhoria de desempenho dos alunos brasileiros entre esses dois anos.
A tabela a seguir nos fornece o percentual de alunos com desempenho em Leitura no Pisa
2015. Nela podemos observar um comportamento similar entre os países da Argentina, Chile,
Espanha e Portugal, onde o percentual de alunos em leitura com baixo desempenho diminuiu e o
percentual de alunos em leitura com alto desempenho aumentou. Por outro lado, países como o
Brasil, o México e os EUA apresentaram resultados mais estáveis em todos os níveis de
desempenho, apesar de observamos um aumento do percentual de alunos no nível baixo
desempenho. Vejamos:

Tabela 39 – Percentual de alunos por nível e país – Leitura (Pisa 2015)

baixo desempenho desempenho alto


país
desempenho moderado sólido desempenho

Brasil 51,0 41,2 6,4 1,4

Chile 28,4 56,9 12,4 2,3

México 41,7 53,7 4,2 0,3

Uruguai 39,0 49,1 9,3 2,5

Coréia do Sul 13,7 48,2 25,5 12,7

Espanha 16,2 56,7 21,6 5,5

Estados Unidos 19,0 50,9 20,5 9,6

Portugal 17,2 53,3 21,9 7,5

Fonte: Elaborada com base nos dados disponíveis em: <http://dx.doi.org/10.1787/888933432569>. Acesso em fev. 2018.

111
Impactos no Brasil
A participação do Brasil no Pisa possibilitou a circulação dos documentos técnicos usados
para a tomada das decisões técnicas desse exame. Esses documentos foram construídos usando-se a
melhor literatura da área e, assim sendo, são uma fonte segura sobre como organizar uma
avaliação externa de forma adequada.
O desempenho dos alunos brasileiros no Pisa foi utilizado para a escolha das metas criadas
no âmbito do Índice de Desenvolvimento da Educação Básica (Ideb) e do movimento Todos pela
Educação. A nota técnica do Instituto Nacional de Estudos e Pesquisas Educacionais Anísio
Teixeira (Inep) explica os procedimentos. 5
É importante notarmos, entretanto, que não se mudou a especificação dos testes brasileiros
a partir da experiência do Pisa. Por conta disso, para atingir metas como a do aumento da
proporção de alunos brasileiros nos níveis de alto desempenho do Pisa, serão necessárias ainda
muitas mudanças nos currículos, e não simplesmente uma melhoria no desempenho dos alunos
nos testes brasileiros.
Pouco se faz no Brasil com os resultados do Pisa, exceto nos momentos de divulgação dos
resultados, quando a imprensa apresenta matérias críticas sobre a posição do Brasil entre os países
participantes. Essa atitude contrasta com a decisão de outros países como o México, que criou
materiais de orientação para professores explicando a abordagem pedagógica latente nesse exame
(INEE, 2010). Outra demonstração desse pouco impacto é o fato de que, no Brasil, não existe
nenhum grupo de pesquisa em educação que tenha o Pisa como uma de suas áreas de interesse.

5
Para mais informações, acesse: <http://download.inep.gov.br/educacao_basica/portal_ideb/o_que_sao_as_metas/
Nota_Tecnica_n3_compatibilizacao_PISA_SAEB.pdf >. Acesso em: fev. 2018.

112
ANEXO I

Gráficos comparativos do percentual de alunos em cada nível de desempenho em Leitura


A primeira coluna dos gráficos a seguir é referente aos percentuais de alunos com
desempenho em Leitura no Pisa de 2009. Já a segunda coluna é referente aos percentuais de
alunos com desempenho em Leitura no Pisa 2015.

Gráfico 1 – Percentual de alunos em Leitura por nível de desempenho – baixo desempenho


(Pisa 2009 e 2015)
Gráfico 2 – Percentual de alunos em Leitura por nível de desempenho – desempenho moderado
(Pisa 2009 e 2015)

Fonte: OECD, Pisa 2015 Database, Table I.4.1a.

Gráfico 3 – Percentual de alunos em Leitura por nível de desempenho – desempenho sólido


(Pisa 2009 e 2015)

Fonte: OECD, Pisa 2015 Database, Table I.4.1a.

114
Gráfico 4 – Percentual de alunos em Leitura por nível de desempenho – alto desempenho
(Pisa 2009 e 2015)

Fonte: OECD, Pisa 2015 Database, Table I.4.1a.

Gráfico 5 – Percentual de alunos em Leitura por nível de desempenho – desempenho sólido


(Pisa 2009 e 2015)

Fonte: OECD, Pisa 2015 Database, Table I.4.1a.

115
BIBLIOGRAFIA
ALVES, Maria Teresa Gonzaga; SOARES, José Francisco; XAVIER, Flavia Pereira. Desigualdades
educacionais no Ensino Fundamental de 2005 a 2013: hiato entre grupos sociais. Revista Brasileira
de Sociologia-RBS, v. 4, n. 7, p. 49-82, 2016.

ANGOFF, W. H. Scales, norms, and equivalent scores. In: THORNDIKE, R. L. (Ed.).


Educational measurement. Washington, DC: American Council on Education, 1971.

BEATON, A. E.; ALLEN, N. L. Interpreting scales through scale anchoring. Journal of Educational
Statistics, v. 17, n. 2, p. 191-204, 1992.

BOURDIEU, P.; PASSERON, J.-C. A reprodução: elementos para uma teoria do sistema de
ensino. Petrópolis: Editora Vozes. 2008.

BRASIL. Lei de diretrizes e bases da educação (Lei n° 9.394/96). Brasília, DF: 1996.BRASIL. Lei nº.
13.005, de 25 de junho de 2014. Aprova o Plano Nacional de Educação–PNE e dá outras
providências. Brasília, DF: 2014.

BRASIL. Congresso Nacional. Lei nº 9.394 de 20 de dezembro de 1996. Estabelece as diretrizes e


bases da educação nacional. Brasília, DF: 1996.

BRASIL. Constituição Federal. Constituição da República Federativa do Brasil. Brasília, DF: Senado
Federal, 1988.

BROOKE, N.; SOARES, J. F. Pesquisa em eficácia escolar: origem e trajetórias. Belo Horizonte:
Editora UFMG, 2008.

CARNOY, M.; GOVE, A. K.; MARSHALL, J. H. A vantagem acadêmica de Cuba: por que seus
alunos vão melhor na escola. São Paulo: Ediouro, 2009.

CASASSUS, J. et al. Primer estudio internacional comparativo sobre lenguaje, matemática y factores
asociados en tercero y cuarto grado. Santiago de Chile: LLECE Unesco-Santiago, 1998.

CIZEK, G. J. More unintended consequences of high‐stakes testing. Educational Measurement:


Issues and Practice, v. 20, n. 4, p. 19-27, 2001.

116
CIZEK, G.; BUNCH, M. Standard setting: a guide to establishing and evaluating performance
standards on tests. California: Sage Publications, 2007.

COLEMAN, J. S. et al. Equality of educational opportunity. Washington DC: US Government


Printing Office. 1966.

DELORS, Jacques et al. Educação: um tesouro a descobrir: relatório para a Unesco da Comissão
Internacional sobre Educação para o século XXI. 1998.

DÍAZ, G. M.; FLORES, G. México en PISA 2009. México: INEE, 2010.

EUROPEIA, Comissão (CE). Recomendação do Parlamento Europeu e do Conselho de 18 de


Dezembro de 2006 sobre as competências essenciais para a aprendizagem ao longo da vida. Jornal
Oficial da União Europeia, p. 10-18, 2006.

EURYDICE. Diferenças de género nos resultados escolares: estudo sobre as medidas tomadas e a
situação actual na Europa. (Relatório), EACEA, Comunidade Europeia: Gabinete de Estatística e
Planeamento da Educação, Ministério da Educação. doi:10.2797/51375. 2010.

FLOTTS, M. P. et al. Informe de resultados Terce. Tercer estudio regional comparativo y explicativo.
2015.

FONTANIVE, N. S.; ELLIOT, L. G.; KLEIN, R. Os desafios da apresentação dos resultados da


avaliação de sistemas escolares a diferentes públicos. Revista Electrónica Iberoamericana sobre
Calidad, Eficacia y Cambio en Educación, 2007.

FRANCO, Creso. et al. O referencial teórico na construção dos questionários contextuais do SAEB
2001. Estudos em avaliação educacional, n. 28, p. 39-74, 2003.

HAMBLETON, R. K.; SWAMINATHAN, H.; ROGERS, H. J. Fundamentals of item response


theory. Newburry Park, Califórnia: Sage Publications Inc., 1991.

INEP. Relatório Nacional Saeb 2003. Brasília, DF: Inep, 2006. 266 p.

INEP. Brasil no Pisa 2015: análises e reflexões sobre o desempenho dos estudantes brasileiros/
OCDE-Organização para a Cooperação e Desenvolvimento Econômico. São Paulo: Fundação
Santillana, 2016. Disponível em: <http://download.inep.gov.br/acoes_internacionais/pisa/
resultados/2015/pisa2015_completo_final_baixa.pdf >. Acesso em: fev. 2018.

117
KLEIN, R. Alguns aspectos da teoria de resposta ao item relativos à estimação das proficiências.
Avaliação e Políticas Públicas em Educação, v. 21, n. 78, p. 35-56, 2013.

KLEIN, R. Uma re-análise dos resultados do Pisa: problemas de comparabilidade. Avaliação e


Políticas Públicas em Educação, v. 19, n. 73, p. 717-741, 2011.

MEC/INEP. Dicionário de indicadores educacionais: fórmulas de cálculo. Brasília. 29 p. 2004.


Disponível em: <http://inep.gov.br/informacao-da-publicacao/-/asset_publisher/6JYIsGMAMk
W1/document/id/486420>. Acesso em: fev. 2018.

MEC/Inep. Diretoria de Estatísticas Educacionais. Nota técnica n° 03/2013: cálculo das taxas de
rendimento escolar – Censo da Educação Básica. Brasília, DF: 2013.

MITZEL, H. C.; LEWIS, D. M.; PATZ, R. J.; GREEN, D. R. The bookmark procedure:
psychological perspectives. Setting performance standards: concepts, methods, and perspectives, 249-
281. 2001.

PERRENOUD, P. Práticas pedagógicas, profissão docente e formação. Lisboa: Dom Quixote, 1993.
OCDE. Pisa 2015 assessment and analytical framework: science, reading, mathematic and financial
literacy. 2016a. Disponível em: < http://www.oecd.org/publications/pisa-2015-assessment-and-
analytical-framework-9789264281820-en.htm>. Acesso em: fev. 2018.

OCDE. Pisa 2015 results: excellence and equity in education. v. I. Paris: OECD Publishing. 2016.
OECD. Pisa 2009 technical report. Pisa/OECD Publishing, 2012. Disponível em:
<http://dx.doi.org/10.1787/9789264167872-en>. Acesso em: fev. 2018.

PESTANA, M. I. O sistema de avaliação brasileiro. Revista Brasileira de Estudos Pedagógicos, v. 79,


n. 191, 2007.

RIOS-NETO, E. L. G. Educação e população – ação 2.2. Módulo produtividade educacional


com base nas pesquisas domiciliares e no censo demográfico. 1.6 Sumário executivo: análise dos
indicadores educacionais calculados durante o convênio Inep/Cedeplar nº29/2002, Belo
Horizonte, 2005.

SIMIELLI, L. E. R. Equidade educacional no Brasil: análise das oportunidades educacionais em


2001 e 2011. 133 f. Tese (Doutorado em Administração Pública e Governo) – Escola de
Administração de Empresas de São Paulo: São Paulo, 2015.

118
SOARES, J. F. Índice de desenvolvimento da educação de São Paulo – Idesp: bases metodológicas.
São Paulo Perspectivas, São Paulo, v. 23, n. 1, p. 29-41, jan./jun. 2009.

SOARES, J. F. A qualidade da educação, a qualidade das escolas. IN: OLIVEIRA, Marcus (Org.).
A qualidade da escola pública no Brasil. Belo Horizonte: Mazza Edições, 2012.

SOARES, José Francisco; DELGADO, Victor Maia Senna. Medida das desigualdades de
aprendizado entre estudantes de Ensino Fundamental. Estudos em Avaliação Educacional, v. 27, n.
66, p. 754-780, 2016.

OECD. Are the new millennium learners making the grade? Technology use and educational
performance in Pisa, 2010. Disponível em: < https://www.oecd-ilibrary.org/education/are-the-new-
millennium-learners-making-the-grade_9789264076044-en >. Acesso em: fev. 2018.

TODOS PELA EDUCAÇÃO. Anuário da Educação Básica 2016. Disponível em:


https://www.todospelaeducacao.org.br/biblioteca/1545/anuario-brasileiro-da-educacao-basica-
2016/. Acesso em: fev. 2018.

TRAYNOR, A.; RAYKOV, T. Household possessions indices as wealth measures: a validity


evaluation. Comparative Education Review, v. 57, n. 4, p. 662-688, 2013.

VALDÉS, Héctor et al. Los aprendizajes de los estudiantes de América Latina y el Caribe: Resumen
ejecutivo del primer reporte de resultados del segundo estudio regional comparativo y explicativo.
Santiago do Chile: Unesco/ LLECE, 2008.

119
PROFESSOR-AUTOR
José Francisco Soares possui pós-doutorado em Educação pela University of Michigan
(Ann Arbor), é doutor em Estatística pela University of Wisconsin (Madison), mestre em
Estatística pelo Instituto Nacional de Matemática Pura e Aplicada (IMPA) e bacharel em
Matemática pela Universidade Federal de Minas Gerais (UFMG). É professor titular aposentado
da Universidade Federal de Minas Gerais (UFMG), onde continua as suas atividades de pesquisa
no Grupo de Avaliação e Medidas Educacionais (Game). Na área de avaliação educacional, foi
membro do comitê consultivo do Inep, membro do Conselho de Governança do movimento
Todos pela Educação e membro do Conselho Nacional de Educação de 2012 a 2014.
Atualmente, é membro do Conselho Técnico do Instituto Nacional para la Evaluatión de la
Educatión (INEE) do México. Foi o primeiro presidente eleito da Associação Brasileira de
Avaliação Educacional (Abave) e continua a integrar o seu comitê cientifico. De fevereiro de 2014
a fevereiro de 2016, foi presidente do Instituto Nacional de Estudos e Pesquisas Educacionais
Anísio Teixeira (Inep/MEC). Em 2011, foi o escolhido pela Abave para a homenagem especial e,
em 2012, recebeu o prêmio Bünge pelas suas contribuições na área de avaliação educacional.

120

Você também pode gostar