Escolar Documentos
Profissional Documentos
Cultura Documentos
INTRODUÇÃO ..................................................................................................................................... 9
Sistema educacional ....................................................................................................................... 11
TRAJETÓRIAS ESCOLARES ................................................................................................................ 13
Categorização das trajetórias........................................................................................................ 14
Etapas e modalidades do ensino ................................................................................................... 14
Faixa etária .......................................................................................................................................... 15
Território .............................................................................................................................................. 15
INDICADORES DE ACESSO E PERMANÊNCIA ................................................................................ 16
Taxa de analfabetismo (TA) ........................................................................................................... 16
Acesso ............................................................................................................................................... 17
Taxa de atendimento escolar (TAE) ............................................................................................... 17
Taxa de escolarização líquida (TEL)................................................................................................ 18
Taxa de escolarização bruta (TEB) ................................................................................................. 20
Permanência .................................................................................................................................... 20
RENDIMENTO ESCOLAR .................................................................................................................. 21
Movimento escolar ......................................................................................................................... 22
Aprovação e reprovação ................................................................................................................ 22
Taxas de rendimento escolar ........................................................................................................ 22
Exemplo de cálculo, aplicação e interpretação dos indicadores ............................................ 24
INTRODUÇÃO ................................................................................................................................... 31
MATRIZES DE REFERÊNCIA DO SAEB ............................................................................................. 33
Matriz de Língua Portuguesa ........................................................................................................ 34
Matriz de Matemática..................................................................................................................... 35
Composição dos testes .................................................................................................................. 36
Escolas e alunos avaliados............................................................................................................. 37
Prova Brasil....................................................................................................................................... 37
Motivação ............................................................................................................................................ 38
Características .................................................................................................................................... 39
Resultados ........................................................................................................................................... 40
Relevância pedagógica ..................................................................................................................... 41
Análise crítica ...................................................................................................................................... 41
ESCALA DE PROFICIÊNCIA ............................................................................................................... 43
Interpretação pedagógica da medida ......................................................................................... 46
Interpretação normativa ................................................................................................................ 47
Distribuição de referência ............................................................................................................. 48
INDICADORES DE QUALIDADE ....................................................................................................... 51
INDICADORES DE DESIGUALDADE ................................................................................................ 52
Diferenças segundo o sexo do aluno .......................................................................................... 53
Diferenças segundo a raça/cor do aluno .................................................................................... 55
Diferenças segundo as faixas de nível socioeconômico do aluno ......................................... 57
Diferenças segundo grupos definidos por múltiplas variáveis ............................................... 59
INTRODUÇÃO ................................................................................................................................... 63
ÍNDICE DE DESENVOLVIMENTO DA EDUCAÇÃO BÁSICA (IDEB) ................................................ 65
Componentes do Ideb .................................................................................................................... 65
Indicador de desempenho .............................................................................................................. 66
Indicador de rendimento ................................................................................................................. 69
Cálculo do Ideb ................................................................................................................................ 71
INTERPRETAÇÃO NORMATIVA ........................................................................................................ 72
Faixas do Ideb .................................................................................................................................. 73
ANÁLISE CRÍTICA DO IDEB .............................................................................................................. 76
Discussão .......................................................................................................................................... 80
EVOLUÇÃO DO IDEB E SEU USO PARA MONITORAMENTO DAS ESCOLAS .............................. 81
Plataforma de resultados e metas ............................................................................................... 81
Plataforma de consulta pública .................................................................................................... 83
Plataforma QEdu ............................................................................................................................. 85
Introdução
A palavra “educação” está associada tanto aos aprendizados adquiridos ao longo da vida
quanto ao ensino, necessário para a aquisição desses aprendizados, e à escola, instituição onde
ocorrem muitos dos aprendizados essenciais. O aprendizado é, portanto, o núcleo central de
sentido da palavra “educação”, como estabelecido no artigo 205 da Constituição Brasileira:
A leitura desse artigo, que estabelece a educação como direito, permite-nos afirmar que a
educação tem como objetivo dotar as pessoas de capacidades que as possibilitem desenvolver o seu
pleno potencial, exercitar a cidadania e inserir-se no mundo do trabalho. Outra síntese
particularmente influente dos objetivos da educação é aquela usada no Relatório Delors da Unesco
(1998), em que se estabelece que a educação visa dotar as pessoas das capacidades de aprender a
aprender, a conviver, a ser e a fazer.
Embora completamente adequadas a um artigo constitucional ou a um relatório como o da
Unesco, essas categorias usadas para descrever os aprendizados devem ser desdobradas de forma
que se possam concretizar nas propostas pedagógicas das escolas. O primeiro passo a ser dado para
alcançar essa meta consiste em estabelecer as chamadas aprendizagens essenciais. O Brasil ainda
não fez isso, mas há vários exemplos internacionais. A Comissão Europeia (2006), por exemplo,
apresenta como essenciais as seguintes aprendizagens:
Como podemos notar, os aprendizados necessários à vida têm pelo menos quatro
dimensões: a dimensão cognitiva, a das atitudes, a dos valores e a da cultura. Tais aprendizados
são, portanto, adquiridos em vários ambientes. Esta obra, no entanto, toma como referência a Lei
de Diretrizes e Bases da Educação (Lei 9.394/96) e concentra-se na educação escolar, mais
especificamente na educação básica, que oportuniza os aprendizados por meio do ensino. Vejamos
como a educação escolar é definida na LDB:
10
Sistema educacional
Para garantirem o direito à educação, as sociedades criam os seus sistemas educacionais,
constituídos de muitas instituições e atores. Naturalmente, esse sistema tem como resultado geral
os aprendizados dos alunos. No entanto, para assegurar que um estudante tenha adquirido os
aprendizados de que precisa para a sua vida, é necessário verificar se este teve acesso à escola e se lá
permaneceu tempo suficiente para aprender. Além disso é necessário caracterizar os diferentes
atores e instituições que compõem o sistema. De forma particular, é preciso estudar o sistema
educacional reconhecendo os seus diferentes níveis:
os alunos;
a sala de aula;
a escola;
as redes de escolas e
a sociedade.
Cada um desses níveis tem características próprias, que não estão presentes no nível
anterior. Dessa forma, uma escola deve ser analisada como uma estrutura complexa, cujas
características vão muito além daquelas típicas de um mero conjunto de salas de aula e de alunos
individuais. Uma rede de escolas, que é mais do que um conjunto de escolas, e toda a
complexidade das Secretarias de Educação e de órgãos centrais da administração das redes
públicas precisam ser consideradas no estudo do sistema educacional.
11
O modelo conceitual apresentado a seguir sintetiza a estrutura desse sistema, permitindo-nos
definir, monitorar e planejar ações de melhoria na educação escolar.
12
Neste conteúdo, apresentaremos e discutiremos os indicadores que caracterizam cada uma
das partes do sistema educacional, como descrito no modelo apresentado.
Unesco. Repensar a educação: rumo a um bem comum mundial? Brasília, DF: Unesco,
2016. Disponível em: <http://unesdoc.unesco.org/images/0024/002446/
244670POR.pdf>. Acesso em: fev. 2018.
Trajetórias escolares
Como vimos, para adquirir os aprendizados que caracterizam o atendimento do direito à
educação, é necessário que o cidadão acesse e frequente uma escola de educação básica. Para
monitorar esse direito de todos os cidadãos de forma completa, seria necessário construir um
arquivo em que cada linha representasse um cidadão e cujas colunas registrassem a sua situação
escolar ano a ano. Tal arquivo permitiria a construção da trajetória escolar de todas as pessoas e
produziria, com muita facilidade, as informações necessárias às diferentes políticas públicas
educacionais. O atual Plano Nacional de Educação (Lei nº. 13.005, de 25 de junho de 2014)
estabelece, por exemplo, que o Brasil deveria universalizar, até 2016, a educação infantil para as
crianças de quatro a cinco anos de idade. Para verificar se isso foi ou não atendido, bastaria, por
meio do nosso arquivo hipotético de trajetórias, separar as crianças de quatro a cinco anos de
idade e verificar se estão matriculadas em uma escola de educação infantil. Essa seria uma
operação muito simples de seleção e contagem de dados.
No entanto, esse tipo de arquivo não existe e, para produzirmos as informações necessárias à
proposição e ao monitoramento das políticas públicas educacionais, precisamos utilizar várias
fontes de informação alternativas, como:
o Censo Demográfico, realizado pelo Instituto Brasileiro de Geografia e Estatística
(IBGE) de 10 em 10 anos;
a Pesquisa Nacional por Amostra de Domicílios (Pnad), realizada anualmente também
pelo IBGE e
o Censo Escolar, realizado pelo Instituto Nacional de Estudos e Pesquisas Anísio
Teixeira (Inep) anualmente.
Os indicadores dessas pesquisas são amplamente difundidos e usados, pois nos permitem
conhecer aspectos específicos da trajetória escolar dos estudantes. Entre esses aspectos incluem-se
o acesso à escola, a permanência e a conclusão das diferentes etapas em que o ensino é organizado.
Nas próximas seções, utilizaremos as sínteses divulgadas no Anuário da Educação Básica
brasileira (2016), uma publicação conjunta do movimento Todos pela Educação e da Editora
13
Moderna que, além de apresentar os números do Censo Demográfico e da Pesquisa Nacional por
Amostra de Domicílios (Pnad), apurados e divulgados pelo Instituto Brasileiro de Geografia e
Estatística (IBGE), traz também os dados do Censo Escolar e do Sistema de Avaliação da
Educação Básica (Saeb), disponibilizados pelo Ministério da Educação.
14
Essas diferentes etapas são oferecidas em diferentes modalidades. A mais importante delas é
a regular, mas existem ainda a Educação de Jovens e Adultos, a Educação Profissional ou Técnica,
a Educação Especial e a Educação Indígena.
Faixa etária
Atualmente, as leis brasileiras estabelecem que a frequência à escola é obrigatória dos 4 aos
17 anos. No entanto, como nem sempre foi assim, há na população brasileira pessoas que, por
motivos diversos, não completaram diferentes etapas da educação básica. A idade dos alunos é
utilizada para caracterizar as trajetórias educacionais e, por isso, os indicadores educacionais são
usualmente relativos a faixas etárias específicas. A LDB fixa essas faixas etárias e os respectivos
segmentos que o estudante deveria cumprir caso tivesse uma trajetória escolar regular. Vejamos:
creche – para as crianças de 0 a 3 anos;
educação infantil – para as crianças de 4 e 5 anos;
ensino fundamental I – para as de 6 a 10 anos;
ensino fundamental II – para as de 10 a 14 anos e
ensino médio – para os jovens de 14 a 17 anos.
Como os nascimentos ocorrem durante todo o ano, mas o ano escolar só se inicia em
fevereiro, há uma convenção para a alocação dos indivíduos nessas diferentes faixas etárias. Fixada
pelo Conselho Nacional de Educação (CNE), a data base para as decisões educacionais é 31 de
março, ou seja, em todas as questões escolares, considera-se a idade da pessoa no dia 31 de março,
data escolhida por ser dois meses depois do início usual do ano letivo, quando, portanto, as
matrículas já devem estar estabilizadas. Naturalmente, a fixação de outra data de referência
mudaria a faixa etária usada para efeitos do planejamento educacional, com sérias consequências
para o planejamento do seu atendimento. Por conta disso, a data escolhida é uma opção
polêmica, cuja legalidade foi contestada e hoje aguarda decisão de recursos no Superior Tribunal
Federal (STF).
Território
As leis educacionais estabelecem que a União é responsável pelas instituições de ensino
superior e, em relação à educação básica, tem função supletiva e redistributiva. Já os estados são
responsáveis pelo ensino médio e, em parceira com os municípios, pelo ensino fundamental. Os
municípios, por sua vez, são responsáveis pelas creches, pela educação infantil e pelo ensino
fundamental, em parceria com os estados.
15
Indicadores de acesso e permanência
Como já vimos, os dados que fornecem informações sobre o acesso à educação básica são
obtidos por meio do Censo Demográfico e da Pnad. O Censo Demográfico usa um questionário
muito sintético para a grande maioria das residências e um formulário mais extenso para uma
amostra de 10% delas. Isso quer dizer que os indicadores educacionais produzidos com dados do
Censo Demográfico são estimativas feitas a partir de uma amostra. Assim sendo, só se conhece a
situação escolar para conjuntos de indivíduos, por exemplo, os residentes em um dado município.
O questionário usado no Censo Demográfico e na Pnad inclui as seguintes perguntas para
cada membro da família incluída na amostra:
100
Onde:
= taxa de analfabetismo
= população analfabeta de determinado grupo etário
16
= população total nesse mesmo grupo etário
Para verificar o avanço das políticas públicas referentes ao ensino básico e contribuir para a
formulação de políticas de alfabetização de adultos, é oportuno que a análise dessa taxa seja
realizada por faixa etária, retirando assim o efeito composicional da estrutura etária que está
embutida na taxa (RIOS-NETO, 2005).
Acesso
O acesso é, usualmente, sintetizado em três indicadores: taxa de atendimento escolar, taxa
de escolarização líquida e taxa de escolarização bruta. Veremos cada um deles, com mais detalhes,
a seguir.
100
Onde:
= número de pessoas matriculadas na escola na idade ou faixa etária
= população na idade ou faixa etária
= até 3, 4 e 5, 6 a 14, 15 a 17 e 20 a 24 anos
No Anuário da Educação Básica (2016), taxa de atendimento escolar está disponível para
diferentes faixas etárias. Por exemplo, a tabela a seguir, cujos resultados foram calculados com
dados da Pnad, apresenta as informações referentes às crianças de quatro e cinco anos.
17
Tabela 1 – Crianças de quatro e cinco anos que frequentam escola no Brasil (2001-2014)
2001 66,4
2002 67,6
2003 69,7
2004 71,8
2005 72,5
2006 76,7
2007 78,9
2008 81,1
2009 83,0
2010 0,0
2011 85,6
2012 85,9
2013 87,9
2014 89,1
ú é !
100
" " çã % á !
18
Por exemplo, se um estudante tem uma trajetória regular, deve cursar o ensino médio
quando tiver entre 15 a 17 anos. Nesse caso, a taxa líquida de escolarização é a razão entre o
número de jovens de 15 a 17 anos matriculados no ensino médio em um território (k) e o
número total de pessoas na mesma faixa etária no mesmo território. Em outras palavras, o
denominador dessa taxa é igual ao número de jovens residentes no município, na faixa etária de
15 a 17 anos, e o numerador é obtido identificando-se, entre os jovens com idade nessa faixa, os
que estão matriculados no ensino médio.
Baixos valores da TEL indicam a existência de jovens de 15 e 17 anos que não estão
frequentando o ensino médio. Esse problema pode ter como causa:
a evasão do aluno ainda no ensino fundamental;
o fato de o aluno ainda estar cursando o ensino fundamental ou
o fato de ter terminando o ensino fundamental, mas não ter efetuado matrícula no
ensino médio por algum motivo.
Como um estudante chega ao ensino médio com a idade esperada somente se teve uma
trajetória escolar regular, a TEL descreve, de forma bastante útil, uma das dimensões da qualidade
da educação no território em que é calculada, ou seja, o nível de atraso escolar nessa população.
Tabela 2 – Taxa de escolarização líquida – ensino médio – Brasil e Regiões (2000 a 2015)
localidade 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2011 2012 2013 2014 2015
Brasil 34,4 36,9 40,0 43,1 44,4 45,3 47,1 48,0 50,4 50,9 51,6 54,0 55,1 56,3 56,9
Norte 19,2 26,4 29,1 31,7 27,5 30,7 34,7 36,0 39,7 39,1 41,2 42,4 44,9 46,7 47,9
Nordeste 18,9 20,5 22,7 25,5 27,9 30,1 33,1 34,5 36,4 39,2 42,6 44,8 46,2 47,5 48,3
Sudeste 46,3 48,0 52,4 55,5 58,0 57,4 57,9 58,8 61,9 60,5 59,6 62,5 62,9 63,8 65,2
Sul 44,0 47,8 50,7 52,7 53,4 53,6 54,9 55,0 56,4 57,4 55,1 57,1 59,3 61,0 58,6
Centro-
34,4 36,7 40,0 44,2 44,9 45,9 48,3 49,6 51,8 54,7 56,8 58,5 57,2 58,5 58,5
Oeste
19
Taxa de escolarização bruta (TEB)
Outro indicador de acesso muito usado é a taxa de escolarização bruta. Esse indicador
mede o esforço que está sendo feito para dar acesso à educação aos que não a tiveram na idade
correta. Vejamos:
ú !
' 100
" " çã % á !
Tabela 3 – Taxa de escolarização bruta – ensino médio – Brasil e Regiões (2000 a 2015)
Localidade 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2011 2012 2013 2014 2015
Brasil 73,0 73,9 75,9 81,1 81,4 80,7 82,2 82,6 85,5 83,0 82,2 83,2 83,5 83,7 83,3
Norte 59,6 80,1 80,7 85,6 72,1 76,8 78,0 75,2 83,3 80,3 79,8 81,5 82,3 84,2 82,3
Nordeste 53,8 56,7 58,2 67,0 71,3 72,0 76,8 79,4 78,7 77,4 77,9 78,2 79,6 78,6 77,5
Sudeste 87,9 84,7 87,4 90,6 91,1 88,2 88,0 87,5 91,6 88,5 85,3 87,9 86,8 87,1 89,5
Sul 81,4 78,1 80,5 82,8 81,7 80,5 79,4 79,9 83,4 81,1 80,4 79,9 82,3 83,1 78,6
Centro-Oeste 77,2 77,5 80,4 83,9 82,9 82,1 84,0 84,4 88,0 86,1 91,5 88,2 86,0 86,7 84,2
Permanência
Na ausência de informações sobre a trajetória escolar individual, a permanência do
estudante na escola é acompanhada de forma indireta. Nesse caso, as taxas de conclusão das etapas
da educação básica são indicadores especialmente importantes.
Por exemplo, um estudante cuja trajetória é regular deve terminar o ensino fundamental
com 14 anos. Dessa forma, interessa-nos saber quantos jovens de 16 anos terminaram o ensino
fundamental. A tabela a seguir, obtida também do Anuário da Educação Básica brasileira, fornece-
nos essa informação.
20
Tabela 4 – Percentual de jovens de 16 anos que concluíram o ensino fundamental – Brasil e
Regiões (2001-2014)
Região 2001 2002 2003 2004 2005 2006 2007 2008 2009 2011 2012 2013 2014
Brasil 49,1 52,1 56,6 58,0 58,9 60,8 62,9 64,8 66,3 67,5 69,5 71,7 73,7
Norte 35,0 41,8 45,7 40,2 41,2 46,7 50,5 52,7 52,0 53,8 55,3 57,6 59,9
Nordeste 28,2 30,5 33,9 36,8 39,3 44,1 44,8 48,2 51,7 56,7 59,1 60,5 62,6
Sudeste 62,9 66,4 72,6 73,8 74,1 73,7 76,2 77,3 76,3 76,6 78,7 81,2 83,5
Sul 64,5 67,8 67,6 74,2 69,9 70,0 72,2 72,6 74,6 72,2 75,3 78,5 79,7
Centro- 48,6 51,0 55,6 58,9 62,4 62,7 67,8 66,2 75,0 77,6 72,9 75,0 76,3
Oeste
Rendimento escolar
Todos os anos, o Inep atribui a cada aluno matriculado em uma escola de educação básica um
código único de identificação. Aluno é o indivíduo, enquanto matrícula é o vínculo estabelecidos
entre um aluno e uma turma. Um mesmo aluno pode ter matrículas em mais de uma turma de
distintas etapas ou modalidades de ensino, na mesma escola ou em escolas diferentes.
A cada ano, considerando a data de referência do Censo Escolar da Educação Básica, ou
seja, a última quarta-feira do mês de maio do ano vigente, as escolas registram os alunos
matriculados nas suas turmas. No ano seguinte, as escolas informam o movimento e o
rendimento escolar das matrículas informadas na primeira etapa. Os dados coletados permitem a
construção de vários indicadores, conforme explicado na nota técnica do Inep Cálculo dos
indicadores de rendimento escolar – censo da Educação Básica.
21
Movimento escolar
Por movimento escolar entende-se a mudança de vínculo escolar de cada uma das
matrículas no período entre a data de referência do Censo Escolar e o encerramento do ano letivo.
Existem três situações possíveis quanto ao movimento escolar da matrícula:
transferido – quando a matrícula do aluno foi, formalmente, desvinculada de uma escola;
abandono – quando o aluno deixou de frequentar a escola antes da conclusão do ano
letivo, não tendo sido formalmente desvinculado por transferência. Nesse caso, a sua
matrícula não possui registro de rendimento e
falecido – quando o aluno faleceu antes do término do ano letivo.
Aprovação e reprovação
O rendimento escolar registra o sucesso ou o fracasso da matrícula de cada aluno ao final do
ano letivo. São duas as situações possíveis quanto ao rendimento escolar de cada matrícula:
aprovado – quando o aluno conclui o ano escolar com sucesso e está apto a matricular-se
na etapa seguinte, no ano seguinte, e
reprovado – quando o aluno não obtém êxito na conclusão do ano letivo e, portanto,
não está apto a matricular-se na etapa seguinte, no ano seguinte.
22
Tabela 5 – Notações utilizadas na taxa de rendimento escolar
abreviação notação
FAL falecido
APR aprovado
REP reprovado
ABA abandono
As matrículas consideradas no cálculo das taxas de rendimento escolar são dadas por:
( )* ) +,(
Onde:
= total de matrículas iniciais
* = quantidade de matrículas de alunos falecidos
+,( = matrículas que não tiveram a situação de rendimento escolar, o falecimento ou o
abandono informado
Como, para cada uma dessas matriculas, há uma condição de rendimento escolar –
aprovado (APR), reprovado (REP) – ou de abandono (ABA), vale a seguinte igualdade:
Dessa forma, as taxas de rendimento escolar são calculadas pelas seguintes expressões:
a) Taxa de aprovação:
(
" 100
.APR - REP - ABA4
23
b) Taxa de reprovação:
(
( " 100
.APR - REP - ABA4
c) Taxa de abandono:
'
5 100
.APR - REP - ABA4
+,(
6( 100
.n ) FAL4
Após o levantamento e o cálculo dessas taxas, será preciso responder às seguintes questões:
Como se encontra o cenário da pré-escola no município?
Qual(is) seria(m) a(s) iniciativas da Secretaria?
Qual(is) seria(m) a(s) requisições da Secretaria ao governo do Estado?
1
Informações disponíveis em: <https://www.ibge.gov.br/estatisticas-novoportal/sociais/educacao.html>.
24
Inicialmente, vamos realizar o cálculo de cada uma das informações necessárias:
; < =>á?
100
; < =>á?
Onde:
= matrícula em todos os níveis de ensino na faixa etária selecionada
= população na mesma faixa etária.
No entanto, como precisamos saber os dados específicos da faixa etária de quatro a cinco anos,
devemos buscar essa informação, que pode ser encontrada no site do Sidra, o sistema IBGE de
recuperação automática de dados.2 Após a montagem da tabela, os dados recuperados são os seguintes:
Tabela 1973 – pessoas que frequentavam creche ou escola por nível de ensino, sexo e
grupos de idade
município = Curvelo – MG
sexo = total
ano = 2010
grupos de idade
4 anos 712
5 anos 1.022
soma 1.734
2
Disponível em: <https://sidra.ibge.gov.br/Tabela/1973>.
25
Agora, devemos buscar as informações referentes à população do munícipio de Curvelo.
Ainda por meio da montagem da tabela disponível do site do Sidra, temos:
Tabela 1378 – população residente, por situação do domicílio, sexo e idade, segundo a
condição no domicílio e compartilhamento da responsabilidade pelo domicílio
município = Curvelo – MG
sexo = total
ano = 2010
grupos de idade
4 anos 1.024
5 anos 1.106
soma 2.130
@ABC
J@BKD E F EGHI 100 81,40%
D E F EGHI
P?éQ=RSTU
' 100
C V TR
Onde:
= matrícula total em um determinado nível de ensino
= população na faixa etária adequada a esse nível de ensino
26
Quanto aos dados referentes à população, por meio da construção da tabela no site do
Sidra, temos:
Tabela 1378 – população residente, por situação do domicílio, sexo e idade, segundo a
condição no domicílio e compartilhamento da responsabilidade pelo domicílio
município = Curvelo – MG
sexo = total
ano = 2010
grupos de idade
4 anos 1.024
5 anos 1.106
soma 2.130
Tabela 1973 – pessoas que frequentavam creche ou escola por nível de ensino, sexo e
grupos de idade
município = Curvelo – MG
sexo = total
ano = 2010
2.253
27
Aplicando os dados encontrados à fórmula da TEB, temos:
2253
' 100 105,77%
2130
A última taxa a ser encontrada, a TEL, deve ser calculada da seguinte forma:
C V TR
100
C V TR
Onde:
= matrícula na faixa etária adequada a determinado nível de ensino
= população na mesma faixa etária
Tabela 1378 – população residente, por situação do domicílio, sexo e idade, segundo a
condição no domicílio e compartilhamento da responsabilidade pelo domicílio
município = Curvelo – MG
sexo = total
ano = 2010
grupos de idade
4 anos 1.024
5 anos 1.106
soma 2.130
28
Agora, precisamos das informações referentes ao número de matrículas na pré-escola:
Tabela 1973 – pessoas que frequentavam creche ou escola por nível de ensino, sexo e
grupos de idade
município = Curvelo – MG
sexo = total
ano = 2010
grupos de idade
4 anos 508
5 anos 716
soma 1.224
1224 C V TR
100 57,46%
2130 C V TR
Agora, por meio dos resultados obtidos (TAE = 81,40%; TEB = 105,77%; TEL =
57,46%), podemos retomar as questões previamente apresentadas, buscando respondê-las:
29
Finalmente, a taxa de escolarização líquida (TEL = 57,46%) reitera o acesso como um
problema no município, além de revelar outra fragilidade: o sistema educacional do município
tem problemas relativos à eficácia, uma vez que pouco mais de 50% da população possui acesso e
progressão na vida escolar adequados (regular).
30
MÓDULO II – INDICADORES DE APRENDIZADO
Introdução
Como vimos, o direito constitucional à educação no Brasil se concretiza quando:
o estudante tem uma trajetória regular, isto é, tem acesso a uma escola de educação
básica na idade correta;
permanece na escola e
conclui as diferentes etapas em que o ensino é organizado, também nas idades esperadas.
No entanto, não podemos levar em conta somente a passagem do estudante pela escola.
Durante essa experiência escolar, o estudante deve adquirir os aprendizados de que necessita para
uma vida plena e, por isso, os indicadores de aprendizado são tão necessários ao monitoramento
do direito à educação.
Neste conteúdo, vamo-nos restringir à análise dos indicadores de aprendizado do ensino
fundamental, pois há dados, produzidos principalmente pelo Sistema de Avaliação da Educação
Básica (Saeb) e a Prova Brasil, que nos permitem realizar um monitoramento abrangente do
direito de aprender ao longo de muitos anos.
O Sistema de Avaliação da Educação Básica (Saeb) foi criado no início da década de 1990,
tendo como objetivo medir o desempenho acadêmico dos alunos da educação básica, e os fatores
associados a esse desempenho e que nele interferem (fatores intra e extraescolares). O sistema é
composto de duas avaliações:
Avaliação Nacional da Educação Básica (Aneb) – divulgada com o nome de Saeb, essa
avaliação é aplicada a uma amostra de estudantes das redes públicas e privadas do País,
localizados na área rural e urbana e matriculados nos 5º e 9º anos do ensino
fundamental, e também no 3º ano do ensino médio, e
Avaliação Nacional do Rendimento Escolar (Anresc) – divulgada e conhecida com o
nome de Prova Brasil, essa avaliação é aplicada censitariamente a alunos dos 5º e 9º anos
do ensino fundamental público, nas redes estaduais, municipais e federais de área rural e
urbana, em escolas que tenham, no mínimo, 20 alunos matriculados na série avaliada.
A Prova Brasil faz parte do Sistema de Avaliação da Educação Básica (Saeb). Participam
dessa avaliação as escolas públicas com, no mínimo, 20 alunos matriculados nas séries avaliadas.
32
linguagem curricular comum, fundamental tanto para a produção e organização de materiais didáticos
quanto para a formação inicial e continuada dos professores.
Apesar dessa ausência, a importância de se conhecer o nível de aprendizado dos estudantes é
tão premente que o Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira
(Inep) definiu uma matriz responsável por orientar as suas avaliações externas desde 1995.
A construção dessa matriz, realizada em 1995, foi precedida de uma consulta nacional aos
currículos usados pelas Secretarias Estaduais de Educação e praticados nas escolas brasileiras de
ensino fundamental e médio. O objetivo dessa consulta era buscar o havia de comum entre esses
currículos. Todavia, como se sabe, há uma grande distância entre o currículo proposto e aquilo
que é, de fato, ensinado. Por esse motivo, o Inep consultou, adicionalmente, professores das
capitais brasileiras regentes nas redes municipal, estadual e privada da 4ª e 8ª séries do ensino
fundamental e da 3ª série do ensino médio, nas disciplinas de Língua Portuguesa e Matemática.
Além disso, examinou os livros didáticos mais utilizados nas mesmas redes e séries, para validar a
3
O conteúdo desta seção tem como base os documentos do Inep que descrevem a metodologia do Saeb (2001).
33
listagem inicial. Em seguida, incorporou as análises de especialistas nas áreas de conhecimento a
serem avaliadas.
Tanto a competência leitora quanto a matemática envolvem muitas habilidades. Por conta
disso, as habilidades a serem desenvolvidas em cada série e disciplina foram agregadas em grupos
denominados descritores. Cada descritor deu origem a diferentes itens e, a partir das respostas
dadas a esses itens, verificou-se o que alunos sabiam e conseguiam realizar a partir dos
conhecimentos adquiridos.
Em sequência, veremos o conteúdo das matrizes de Língua Portuguesa e Matemática,
Por tudo isso, o texto deve ser o ponto de partida e de chegada das atividades de ensino-
aprendizagem e de verificação do aprendizado da língua. Por restrições operacionais de várias
ordens, em Língua Portuguesa, optou-se por avaliar somente habilidades de leitura. Essa
centralidade dada à leitura não significa, no entanto, que o Saeb minimiza a importância de
avaliar a competência dos alunos quanto à produção de textos escritos.
A matriz do Saeb está organizada em subconjuntos de habilidades denominados descritores. Os
descritores da matriz de Língua Portuguesa não contemplam todos os objetivos de ensino de leitura,
mas apenas aqueles considerados mais relevantes e possíveis de serem avaliados em um teste de
múltipla escolha. Os resultados de tais testes devem possibilitar uma visão real do ensino brasileiro,
sem que sejam privilegiados enfoques curriculares ou características regionais de abordagem.
Há, entretanto, diferenças no que diz respeito ao grau de complexidade com que esses
descritores são tratados nos itens colocados nos testes. Esse grau de complexidade resulta, por
exemplo, da temática desenvolvida, das estratégias textuais usadas na sua composição, da escolha
de um vocabulário mais ou menos incomum, dos recursos sintático-semânticos utilizados, bem
como das determinações específicas do gênero e da época em que foi produzido.
O grau de complexidade da tarefa resulta de aspectos relativos aos diversos saberes que o
sujeito terá de mobilizar para resolver o problema proposto. Ao se considerarem as articulações
entre a complexidade da tarefa e do objeto, outros graus de dificuldade também podem ser
introduzidos, de modo que não existem padrões fixos de complexidade.
34
O mesmo descritor, dependendo do texto escolhido e do tipo de tarefa solicitada, pode
trazer graus de dificuldade diferentes. Por exemplo, quando se solicita que o leitor localize uma
informação no texto, a tarefa poderá ser mais ou menos difícil, dependendo da complexidade
desse texto e do tipo de questão proposta.
Matriz de Matemática
Existe um razoável consenso entre os professores que ensinam Matemática de que a
resolução de problemas deve ser tomada como eixo norteador das atividades dessa área de
conhecimento. Tal consenso se deve ao fato de que a resolução de problemas possibilita o
desenvolvimento das capacidades de observação, estabelecimento de relações, comunicação
(diferentes linguagens), argumentação e validação de processos. Além disso, estimula formas de
raciocínio como intuição, indução, dedução e estimativa. Essa opção traz implícita a convicção de
que o conhecimento matemático ganha significado quando os alunos têm situações desafiadoras
para resolver e trabalham para desenvolver estratégias de resolução. Tudo isso se contrapõe a um
ensino de Matemática limitado a processos que têm como finalidade a simples memorização de
regras e técnicas.
Dessa forma, os instrumentos de avaliação devem também contemplar a opção pedagógica
pela solução de problemas, exigindo explicações, justificativas e argumentações orais, uma vez que
estas revelam aspectos do raciocínio que, muitas vezes, não ficam explícitos nas avaliações escritas.
Sob esse aspecto, é evidente que o desempenho dos alunos em uma prova com questões de
múltipla escolha não fornece ao professor indicações de todas as competências desenvolvidas nas
aulas de Matemática. Por esse motivo, a Matriz de Referência de Matemática do Saeb é um
documento que visa identificar as competências em conteúdos matemáticos desenvolvidas nos
Ensinos Fundamental e Médio, passíveis de serem verificadas por meio de avaliações escritas. Essa
Matriz não pode, no entanto, ser interpretada como um conjunto de indicações que norteará as
estratégias de ensino nas escolas, papel reservado a parâmetros, currículos e diretrizes curriculares.
No processo de elaboração dos itens do Saeb, é levado em conta que, em última análise,
podemos dizer que um aluno aprendeu uma noção quando ele é capaz de utilizá-la para resolver
um problema diferente daquele que deu origem à construção da noção, quando questiona as
resoluções efetuadas e as respostas encontradas. Dessa forma, a prova busca constituir-se,
prioritariamente, de situações em que a resolução de problemas seja significativa para o aluno.
Por problemas significativos para o aluno entendem-se situações que permitam a esse aluno
“recontextualizar” os conhecimentos que foram “descontextualizados” por ocasião do seu processo
de aprendizagem. Ao contrário da situação-problema, cuja utilização está estreitamente ligada a
situações de aprendizagem, os problemas significativos têm por objetivo verificar em que medida
essa aprendizagem foi efetivamente realizada. Essa opção pela resolução de problemas
35
significativos não exclui totalmente a possibilidade da proposição de alguns itens com o objetivo
de avaliar se o aluno tem domínio de determinadas técnicas.
Para saber mais sobre os descritores de Matemática, que são em maior número, acesse:
1 1 2 5 14 1 3 8
2 2 3 6 15 2 4 9
3 3 4 7 16 3 5 10
4 4 5 8 17 4 6 11
5 5 6 9 18 5 7 12
6 6 7 10 19 6 8 13
7 7 8 11 20 7 9 1
36
primeiro segundo terceiro primeiro segundo terceiro
caderno caderno
bloco bloco bloco bloco bloco bloco
8 8 9 12 21 8 10 2
9 9 10 13 22 9 11 3
10 10 11 1 23 10 12 4
11 11 12 2 24 11 13 5
12 12 13 3 25 12 1 6
13 13 1 4 26 13 2 7
Fonte: Inep(2006).
Prova Brasil
A partir de 2005, o Inep passou a aplicar os testes do Saeb a alunos de 5º e 9º anos do
ensino fundamental público de todas as escolas das redes estaduais, municipais e federais, das
áreas rural e urbana, com mais de 20 alunos matriculados na série avaliada. Isso implicou a quase
universalização do Saeb.
37
Para evidenciar esse novo escopo, o Inep passou a utilizar a denominação Avaliação
Nacional de Rendimento Escolar (Anresc), com nome fantasia de Prova Brasil, para os testes
aplicados. Também mudou a denominação do Saeb para Aneb (Avaliação Nacional da Educação
Básica). Nesse novo formato, o nome Saeb passou a denominar uma estrutura geral que abrange
os vários tipos de avaliações relativas à educação básica.
Motivação
A criação da Prova Brasil resultou de uma crítica recorrente feita ao Saeb. Segundo a visão
de alguns críticos, o Saeb não atendia às necessidades de escolas específicas e, portanto, não teria
utilidade pedagógica. Em outras palavras, como a maioria das escolas não era avaliada, os
resultados obtidos não eram vistos como representativos da realidade de uma escola específica.
Isso ensejava a desconsideração das suas conclusões. Com a produção de resultados para cada
escola, tornou-se necessário buscar então explicações para os resultados dos alunos de cada escola.
A Prova Brasil atendeu também àqueles que defendem a ideia de que as organizações
públicas devem prestar contas das suas ações à sociedade rotineiramente. De posse dos resultados
da Prova Brasil, cada escola pode mostrar e explicar aos grupos sociais a que atende como está o
aprendizado dos seus alunos.
Com o uso das medidas de aprendizado obtidas por meio da Prova Brasil na construção do
Índice de Desenvolvimento da Educação Básica (Ideb), a ideia de que os resultados podem ser
entendidos como registros do aprendizado dos alunos entrou, definitivamente, no debate
educacional brasileiro.
38
Características
O desenho da Prova Brasil é semelhante ao do Saeb. A partir da edição de 2007, os alunos
avaliados respondem a testes de duas disciplinas: Língua Portuguesa e Matemática. A Prova Brasil
é estruturada da seguinte maneira:
A cada novo ciclo da Prova Brasil, novas escolas têm sido incluídas, expandindo-se assim,
progressivamente, o número de alunos que potencialmente podem fazer a prova. Hoje a Prova
Brasil é um levantamento quase censitário das escolas públicas. No entanto, como não inclui as
escolas privadas, fornece um quadro mais parcial do que aquele produzido pelo Saeb acerca do
ensino fundamental brasileiro.
39
Resultados
As tabelas a seguir nos mostram o número de escolas estaduais ou municipais com mais de
15 alunos que atingiram os níveis “adequado” e “avançado” entre as que fizeram cada ciclo da
Prova Brasil.
Tabela 9 – Número de escolas estaduais, municipais ou federais com mais de 70% de seus alunos
acima do ponto de corte nos diferentes ciclos da Prova Brasil
40
Como podemos notar, ainda é diminuto o número de escolas que atingiram o patamar
estabelecido. No entanto, devemos observar que houve melhora a partir de 2005, quando a Prova
Brasil teve a sua primeira edição. Além disso, a situação da oitava série é sistematicamente pior do
que a da quarta série.
Relevância pedagógica
A instituição da Prova Brasil criou necessidades novas, ainda não completamente atendidas.
Como o seu o resultado é enviado a cada escola, tornou-se necessário produzir material que
permita a essas escolas dar sentido pedagógico e instrucional aos resultados obtidos. Essa
necessidade não estava presente quando apenas o Saeb era realizado e destinado apenas às redes de
ensino que, por isso, nos seus relatórios podiam usar linguagem mais acadêmica e sofisticada.
Muitas iniciativas têm sido realizadas para suprir essas novas necessidades. O Inep envia
um cartaz com uma síntese dos resultados da escola e alguma informação para a sua
contextualização. Recentemente, o movimento Todos pela Educação, em parceira com o Inep e a
Secretaria de Educação Básica do MEC, produziu documentos com orientações para o estudo da
Prova Brasil (INEP, 2009a; 2009b). O objetivo de tais documentos é explicar o que são as
matrizes de referência, como são construídos os itens avaliados nas provas, como deve ser feita a
interpretação pedagógica das escalas de proficiência, alguns exemplos de questões, etc. O estudo
desses documentos permitiria aos professores saber quais habilidades devem ser desenvolvidas no
ensino fundamental até o 5º e o 9º anos.
Apesar desses esforços, ainda há muito a ser feito nessa área. Uma dificuldade estrutural
reside no fato de a análise dos dados da Prova Brasil exige conhecimentos e práticas que não estão
disseminados na maioria das escolas. Desse modo, dar relevância pedagógica à Prova Brasil
constitui ainda objetivo a ser alcançado.
Análise crítica
Com a implementação da Prova Brasil, o Saeb perdeu a proeminência. Nesse novo
quadro, apenas a qualidade do ensino das escolas públicas é avaliada. As escolas privadas de
ensino fundamental não são avaliadas de nenhuma forma, apesar do que estabelece o artigo
209 da Constituição:
41
A Prova Brasil avalia apenas o ensino fundamental. Embora o ensino médio ainda seja avaliado
por meio do Enem, como esse exame é voluntário, os seus resultados não podem ser usados como
descritivos de toda a realidade desse estágio de ensino. Assim sendo, com a perda de importância do
Saeb, o País deixou de conhecer a evolução da educação básica como um todo, ou seja, ganhou em
profundidade no estrato, onde estão a maioria dos alunos, mas perdeu em representatividade.
Para a realização da Prova Brasil, com base na informação fornecida pelas escolas no Censo
Escolar, os responsáveis pela organização enviam um teste nominalmente identificado a todos os
alunos matriculados nas escolas selecionadas. No entanto, ainda não há um controle das ausências
dos alunos no dia de aplicação da Prova Brasil. Não se sabe se essas ausências são intencionais,
ocasionais ou se devem-se, simplesmente, ao fato de as escolas não terem preenchido corretamente
o Censo Escolar.
A tabela a seguir nos apresenta o número e o percentual de alunos que estiveram presentes e
ausentes no teste realizado no ano de 2009. Como podemos observar, os percentuais de ausência
são grandes o suficiente para que os resultados obtidos possam ser questionados, principalmente
na oitava série. Não há estudos de caracterização dos ausentes que permitam identificar o perfil
dos alunos ausentes e, consequentemente, validar os resultados obtidos.
SITUAÇÃO
série total
ausente presente
458,888 2,568,638
4a 3,027,526
15.2% 84.8%
723,443 2,020,975
8a 2,744,418
26.4% 73.6%
42
pouco enfatizado no debate educacional que o Pisa exige habilidades mais complexas nos seus
testes de Leitura e Matemática do que a Prova Brasil. Em outras palavras, mesmo se o Brasil viesse
a atingir as metas de desempenho colocadas para a Prova Brasil, os seus alunos não estariam com
o mesmo nível de conhecimento de alunos de outros países medidos pelo Pisa.
Escala de proficiência
As notas dos alunos que fazem os testes do Saeb recebem o nome técnico de proficiências e
são obtidas por meio do uso de um modelo da Teoria de Resposta ao Item – TRI (KLEIN,
2013). Essa técnica estatística considera os acertos nas questões, bem como usa a informação
presente nos itens comuns aos diferentes testes e ciclos para atribuir aos alunos proficiências que
são comparáveis entre as séries e os anos.
Os valores dessas proficiências foram calculados, em 1997, fixando-se a média teórica das
proficiências de todos os alunos da oitava série em 250 e o respectivo desvio-padrão em 50.
Considerando que a escala das proficiências é única para as três séries (anos escolares) incluídas no
Saeb, os alunos da quarta série do ensino fundamental têm, tipicamente, proficiências menores, e
os do terceiro ano do ensino médio têm proficiências maiores do que as dos alunos da oitava série.
No entanto, a variação das proficiências em cada série é significativa, o que resulta em grande
interseção entre as distribuições das proficiências dos alunos das diferentes séries.
Além disso, é importante ressaltarmos que, fruto de uma idiossincrasia técnica, as
proficiências de Leitura em uma dada série são tipicamente maiores que as de Matemática. No
entanto, um valor maior de proficiências em Leitura do que em Matemática não significa,
necessariamente, que o aluno tem maior domínio da primeira.
Construído e aplicado o teste, como vimos, a medida da competência, que recebe o nome
técnico de “proficiência”, é obtida por meio do uso de modelos da TRI. Uma função matemática,
denominada “curva de característica do item”, mostra como a probabilidade de acerto do item se
associa à proficiência do examinando e à dificuldade do item. Desse modo, a probabilidade de
acerto de um item aumenta com a proficiência do examinando e cai de acordo com a dificuldade
do item.
No Brasil, o modelo logístico usualmente preferido é o de três parâmetros da TRI, que é
assim dividido:
parâmetro a – capta o poder de discriminação;
parâmetro b – representa a dificuldade e
parâmetro c – representa a taxa de acerto casual do item.
43
O modelo de dois parâmetros é, geralmente, usado com itens de respostas curtas, corrigidas
apenas como acerto e erro, situação em que não há acerto casual. Já os modelos de crédito parcial
são usados para questões abertas e redações.
O gráfico a seguir nos mostra a curva do modelo de três parâmetros para um item que tem
nível de dificuldade de 0,114, discriminação de 0,796 e acerto casual baixo, de 0,088. Essa função
matemática representa a relação entre os dados empíricos, isto é, as respostas ao item e as
qualidades não observadas, as proficiências latentes. O parâmetro de dificuldade b, representado
pela linha vertical do gráfico, caminha para a direita ou para a esquerda, na curva de característica,
conforme o nível de dificuldade cresce ou diminui. Já o parâmetro de discriminação do item a,
representado pela linha tangente à curva, altera a inclinação da curva característica, captando o
poder de discriminação do item. Por fim, o parâmetro de acerto casual do item c, representado
pela linha horizontal na base do gráfico, apresenta a probabilidade de um acerto por pessoas sem
nenhuma proficiência na matéria medida pela prova. Vejamos:
No gráfico, os dados empíricos pelos círculos, cujo tamanho retrata a frequência relativa
observada em cada ponto.
O uso da TRI exige que o teste meça apenas um construto, a chamada hipótese de
unidimensionalidade, que precisa ser verificada. Quando isso ocorre, pode-se estudar esse construto
por meio de uma única medida síntese, não havendo necessidade de considerar qual foi a resposta
dada a cada um dos itens do teste. Um ajuste dos dados ao modelo, adequado a situações reais, requer
que o princípio da unidimensionalidade se aplique pelo menos aproximadamente.
O pressuposto adicional da independência local implica a possibilidade de cada item ser
tratado como um evento independente, o que requer que as respostas aos itens do teste sejam
independentes do ponto de vista estatístico, depois de considerada a proficiência de cada
44
examinando. Em outras palavras, o modelo da TRI pressupõe que a resposta a um item do teste
não deve determinar ou influenciar a resposta a qualquer outro item. Nessas condições, a
probabilidade de obter qualquer conjunto de respostas de item, denominada independência local,
é obtida pelo produto das probabilidades individuais dos itens. Isso permite a utilização do
princípio da máxima verossimilhança para estimar a proficiência dos examinandos.
Quando pode ser demonstrado que as respostas dos examinandos se ajustam ao modelo de
resposta, entende-se que os parâmetros de cada item não dependem dos examinandos avaliados em
determinada ocasião e também que as estimativas das proficiências não dependem dos itens aplicados
em determinada ocasião. Da mesma forma, os procedimentos da verossimilhança acomodam bem a
substituição, a eliminação e o acréscimo dos itens, assim como toleram bem respostas ausentes de itens
que não foram resolvidos pelos alunos ou que não lhes foram apresentados.
Finalmente, a TRI permite que testes diferentes aplicados a grupos distintos de alunos
sejam organizados de forma que possam produzir proficiências comparáveis. Isso permite que os
resultados de testes de anos diferentes possam ser comparados.
Todos esses fatos justificam o amplo uso da TRI em processos de avaliação educacional,
apesar das fortes hipóteses exigidas.
4
O processo de equalização supõe a inclusão de itens comuns nas edições dos testes e em etapas do ensino contíguas.
Isso garante que uma escala única de medida das proficiências seja usada para acompanhar tanto os aprendizados dos
alunos ao longo das edições bianuais do Saeb/Prova Brasil quanto os ganhos ocorridos ao longo da trajetória escolar dos
estudantes. Para saber mais, acesse: Portal do Inep. Disponível em: <http://portal.inep.gov.br/web/saeb/aneb-e-anresc>.
Acesso em: fev. 2018.
45
Interpretação pedagógica da medida
Consideremos a seguinte situação hipotética: um teste foi construído com tantos itens
quantos necessários para captar toda a diversidade de tarefas que caracteriza, completamente, a
competência considerada e foi aplicado a um grande número de alunos que tenham todos os
níveis na respectiva competência. Nesse caso, dizemos que as proficiências desses alunos definem
uma escala de medida da competência. Usualmente, essa escala é um continuum, mas, por opções
metodológicas, varia usualmente entre menos três e três (-3 e 3), limites que podem ser
transformados em quaisquer outros valores julgados mais convenientes.
Uma escala só é útil para finalidade de diagnóstico ou de ação pedagógica se os seus
diferentes pontos tiverem uma interpretação pedagógica. A interpretação começa com a
construção de um mapa de itens, que consiste em associar cada item do teste a um ponto da escala
utilizada para medir as proficiências dos alunos. Como mostrado pela curva de característica, a
relação entre um item e uma escala é probabilística e, portanto, muitos pontos da escala podem
ser escolhidos como localização de um item. É bastante frequente tomar como ponto de locação
de um item a proficiência em que a probabilidade de acertar o item seja de 65%. A figura a seguir
nos traz a expressão gráfica de um mapa de itens, mostrando que tanto os alunos quanto os itens
estão referenciados a pontos da escala.
46
Para saber mais sobre o Saresp, acesse:
Interpretação normativa
A interpretação que acabamos de apresentar, embora fundamental para orientar
intervenções pedagógicas, não explicita se as proficiências obtidas pelo grupo de alunos analisados
são ou não adequadas, considerando a trajetória escolar dos alunos testados. Isso exige a produção
de outra interpretação, usualmente apresentada por meio da escolha de níveis, ou seja, pela divisão
da escala de medida em intervalos a que são atribuídos significados pedagógicos e normativos.
Há muita diversidade de opinião sobre o número e a denominação dos níveis a serem
usados. Para este conteúdo, escolhemos quatro níveis, cujas denominações e seus respectivos
significados normativos são os seguintes:
abaixo do básico – o aluno demonstra um domínio rudimentar da competência medida;
básico – o aluno demonstra um domínio apenas parcial da competência;
proficiente – o aluno demonstra dominar os conteúdos e habilidades esperados para o
seu estágio escolar e
avançado – o aluno domina a competência de forma especialmente completa,
ultrapassando o esperado para o seu estágio escolar.
47
Há uma expressiva literatura, criada a partir da proposta de Angoff (1971), para a escolha
de níveis de aprendizado em avaliações educacionais de larga escala. Todos os métodos
recomendam que a escolha dos pontos de corte deve ser feita utilizando-se, concomitantemente, o
mapa de itens e as considerações substantivas sobre o significado pedagógico de cada item, além
da organização do ensino. Embora os dados para esse tipo de pesquisa estejam disponíveis, ainda
não se organizou, no Brasil, um esforço de interpretação da escala do Saeb como recomendado
por essa literatura, sintetizada por Cizek (2001).
Diante disso, Soares (2009) escolheu pontos de corte para o Saresp de forma empírica e
comparativa. O autor escolheu uma distribuição de referência para as proficiências dos alunos e, a
partir dessa distribuição, fixou os pontos de corte que definiram os níveis. A adoção de uma
distribuição de referência traz, implicitamente, o reconhecimento prático de que as proficiências
dos alunos de um sistema educacional assumirão valores diversos. No entanto, os limites da
variação das proficiências devem estar em valores compatíveis com as necessidades de participação
social dos alunos. Em outras palavras, quando se monitora a competência cognitiva dos alunos,
não se pretende produzir igualdade, mas dar a todos a possibilidade de inserção em diferentes
formatos. Diferentes pessoas terão diferentes competências em níveis mais ou menos altos; todos
terão, entretanto, domínio das competências que os permitam desenvolver-se como cidadãos.
Distribuição de referência
Para a definição dos níveis de proficiência, escolhemos a distribuição de referência que
considera a comparação entre o desempenho dos alunos brasileiros e o desempenho dos alunos de
um grupo de países participantes do Programme for International Student Assessment (Pisa) –
Programa Internacional de Avaliação de Estudantes.
48
Vejamos, a seguir, um exemplo de comparação entre o desempenho ideal e o desempenho
dos alunos da 8ª série do ensino fundamental que fizeram o teste de Matemática:
SOARES, José Francisco; DELGADO, Victor Maia Senna. Medida das desigualdades de
aprendizado entre estudantes de Ensino Fundamental. Estudos em Avaliação
Educacional, v. 27, n. 66, p. 754-780, 2016.
49
Para saber mais sobre o valor escolhido pelo Movimento Todos pela Educação como ponto de
corte que define o nível proficiente, acesse:
A definição de apenas um ponto de corte pode ensejar atitudes pouco razoáveis. Por
exemplo, os alunos que estão muito abaixo desse ponto não receberão atenção devida nas suas
escolas, já que será quase impossível levá-los até o nível desejado em curto prazo. Por outro lado,
todas as escolas devem ter excelência acadêmica, o que implica que alguns dos seus alunos tenham
um desempenho que ultrapasse o esperado.
Diante dessas considerações, usuais em muitos outros sistemas de avaliação no mundo,
optou-se por criar para o Saresp mais dois pontos de corte. Os dois outros pontos de corte foram
escolhidos de forma ad-hoc, de modo a colocar 25% dos alunos no nível avançado e 25% no nível
básico. Desse modo, os pontos de corte são aqueles que definem, na distribuição de referência,
intervalos com frequência de alunos de 5%, 25%, 45% e 25%. Depois de todas essas
considerações, os pontos de corte adotados em São Paulo ficaram definidos como mostram as
tabelas a seguir:
abaixo do básico menor que 150 menor que 200 menor que 250
básico entre 150 e 200 entre 200 e 275 entre 250 e 300
adequado entre 200 e 250 entre 275 e 325 entre 300 e 375
50
Tabela 12 – Níveis Saresp de desempenho para Matemática
abaixo do básico menor que 175 menor que 225 menor que 275
básico entre 175 e 225 entre 225 e 300 entre 275 e 350
adequado entre 225 e 275 entre 300 e 350 entre 350 e 400
Indicadores de qualidade
A seguir, apresentamos os dados obtidos pelos testes do Saeb (1995 -2005) e pela Prova
Brasil (2005-2009) quanto aos indicadores de qualidade.
51
Tabela 14 – Número de Escolas estaduais ou municipais com mais de 70% de seus alunos acima
do ponto de corte nos diferentes ciclos da Prova Brasil
Indicadores de desigualdade
As desigualdades são estudadas por meio da relação entre grupos sociais. Ao se medir o
aprendizado de um conjunto de estudantes, não se espera observar igualdade. Ao contrário,
espera-se observar variações aleatórias. Assim sendo, quando se comparam dois alunos, não é
possível saber se a eventual diferença de aprendizado é uma simples variação ou é fruto de uma
desigualdade sistemática.
Para esclarecer isso, precisamos comparar o aprendizado dos alunos segundo grupos
definidos por diversas variáveis, tais como: sexo, raça/cor, região do País, local de moradia, nível
socioeconômico ou outras características de interesse. Em uma situação de igualdade de
oportunidades, tratamento e resultados educacionais, as variações entre esses grupos seriam iguais.
52
Para analisar os indicadores de desigualdade, tomamos como referência as medidas do
aprendizado em Leitura e Matemática para os grupos sociais de interesse. A forma de medir a
diferença de resultado entre esses grupos obedeceu ao nível de mensuração das variáveis
escolhidas, que foram as seguintes:
sexo;
raça/cor e
faixas de nível socioeconômico.
Como essas variáveis são categóricas, foi possível determinarmos a distância entre as
distribuições da medida de qualidade entre os grupos. A desigualdade educacional foi então
observada pelo hiato de desempenho entre os grupos sociais, como veremos a seguir.
Tabela 15 – Média das proficiências em Leitura dos estudantes por ano de realização da Prova
Brasil e sexo
edição da
ano escolar masculino (M) feminino (F) diferença (F - M)
Prova Brasil
53
Tabela 16 – Média das proficiências em Matemática por ano de realização da Prova Brasil e sexo
edição da diferença
ano escolar masculino (M) feminino (F)
Prova Brasil (F - M)
Como podemos observar, em Leitura, houve melhora nas médias tanto do 5º quanto do 9º
ano, de 2005 a 2013. No entanto, as meninas estão claramente em patamar superior de
aprendizado e as diferenças cresceram. Em Matemática, também houve melhora das médias, mas
o comportamento é diferente: os meninos estão em vantagem, sendo que as diferenças são
maiores no 9º ano. Vale registrarmos, entretanto, que o hiato das meninas no 5º ano, em
Matemática, é relativamente pequeno, inferior a 10 pontos. Na escala da Prova Brasil, esse não é
um valor substancial, que não possa ser equalizado.
O hiato de desempenho entre meninas e meninos é um resultado consistente com a
literatura educacional sobre diferenças de gênero. Vários estudos internacionais de avaliação
concordam com o fato de que as alunas têm um desempenho em Leitura melhor que os alunos,
enquanto que, em Matemática, a diferença entre os gêneros é menos clara e mais instável
(EURYDICE, 2010).
54
Diferenças segundo a raça/cor do aluno
No questionário contextual da Prova Brasil, cada aluno deve escolher entre cinco categorias
de raça/cor: branco, pardo, preto, amarelo e indígena. Como são poucos os alunos que se
autodeclaram amarelos ou indígenas (cerca de 5%), optou-se por destacar somente as diferenças
entre brancos, pardos e pretos.
Nas tabelas a seguir, há duas diferenças que precisam ser analisadas: entre brancos e pretos;
e entre pardos e pretos. Vejamos:
Tabela 17 – Média das proficiências em Leitura por ano de realização da Prova Brasil e raça/cor
edição da
ano escolar Prova branco (B) pardo (Pd) preto (Pt) diferença (Pt - B)
Brasil
55
Tabela 18 – Média das proficiências em Matemática por ano de realização da Prova Brasil
e raça/cor
edição da
ano escolar Prova branco (B) pardo (Pd) preto (Pt) diferença (Pt - B)
Brasil
Como podemos observar, os alunos que se autodeclaram pretos, mesmo apresentando melhora
da proficiência, sobretudo no 5º ano, têm desempenho pior do que os que se autodeclaram brancos
ou pardos. A distância entre pardos e pretos, embora substancial, é menor do que a distância entre
brancos e pretos, cuja diferença está destacada na última coluna da tabela (Pt-B).
Socialmente, o mais preocupante é o fato de as diferenças não terem diminuído ao longo
dos anos. Vale destacarmos que a distância entre pretos e brancos é mais expressiva do que a
observada entre meninas e meninos. O aluno preto está em desvantagem equivalente a quase um
ano de aprendizado, embora esteja cursando a mesma série que o aluno branco.
56
Diferenças segundo as faixas de nível socioeconômico do aluno
A relação entre nível socioeconômico (NSE) e sucesso escolar é a mais explorada desde os
estudos precursores de Coleman (1966) e também de Bourdieu e Passeron (2008). A medida do
NSE do aluno sintetiza vários itens do questionário contextual relacionados à escolaridade e ao
setor ocupacional dos pais do aluno, à posse de itens de conforto e à contratação de empregados
domésticos no domicílio. Para a estimação do NSE foram utilizados os itens dos questionários de
avaliações realizadas pelo Inep: o Saeb (inclui a Prova Brasil) de 2005 a 2013, e o Exame Nacional
do Ensino Médio (Enem) de 2007 a 2013. A estimação do NSE com os dados em conjunto
resultou em uma escala representativa do espectro de escolas brasileiras (públicas e privadas) e
comparável entre edições.
As tabelas a seguir mostram as médias dos estudantes agregados pelo seu respectivo nível
socioeconômico em quintis.
Tabela 19 – Média das proficiências em Leitura na Prova Brasil por ano de realização da Prova
Brasil e Nível Socioeconômico do aluno (NSE)
edição da
ano 1 2 3 4 5 diferença
Prova
escolar (5-1)
Brasil mais
mais baixo
alto
57
Tabela 20 – Média das proficiências em Matemática na Prova Brasil por ano de realização da
Prova Brasil e Nível Socioeconômico do aluno (NSE)
edição da
ano 1 2 3 4 5 diferença
Prova
escolar (5-1)
Brasil mais
mais baixo
alto
Na coluna “diferença (5-1)”, podemos observar o hiato entre os alunos com os maiores e
menores valores de NSE. As diferenças são enormes, e todo o avanço no aprendizado médio dos
estudantes brasileiros não mudou em nada as desigualdades. Os alunos com menor NSE (1º
quintil) apresentam médias muito semelhantes em todas as edições da Prova Brasil.
O hiato entre os alunos discriminados por grupos de NSE é o mais elevado observado até
agora. Esse é um constrangimento real, extraescolar, que afeta diretamente as escolas e as salas de
aula (BROOKE; SOARES, 2008). No entanto, o tamanho da diferença deve ser destacado. Em
2013, no 5º ano, tanto em Leitura quanto em Matemática, a desvantagem de um aluno com NSE
58
mais baixo é equivale a mais de dois anos de aprendizado, quando comparado a um aluno com
NSE mais alto. Alunos com essa defasagem serão fortes candidatos a não concluírem o ensino
médio ou não conseguirem avançar para o ensino superior.
É importante relembrarmos que essas diferenças se referem a alunos matriculados em
escolas públicas estaduais e municipais.
59
Vejamos a tabela que apresenta os resultados referentes à Leitura:
Tabela 21 – Média das proficiências em Leitura por ano de realização da Prova Brasil grupos
definidos por sexo, cor e NSE
edição
ano da diferença
A B C D E F G H
escolar Prova (E-D)
Brasil
2005 174,20 163,24 165,29 156,91 202,11 168,54 190,47 162,93 45,20
2007 168,37 161,94 159,47 155,04 200,36 174,00 188,20 165,42 45,32
5° ano 2009 170,40 165,47 160,81 158,46 211,33 186,26 199,42 176,86 52,87
2011 176,92 171,17 163,67 160,63 218,94 195,23 204,79 181,45 58,31
2013 175,21 169,72 161,28 159,51 226,53 201,07 212,53 188,01 67,02
2005 223,14 217,69 215,30 210,91 251,98 232,77 236,59 220,41 41,07
2007 223,51 218,03 212,80 208,39 257,67 239,53 239,46 220,47 49,29
9° ano 2009 229,37 224,99 216,67 213,81 266,95 248,48 248,23 228,32 53,14
2011 229,21 225,71 214,25 213,04 268,38 251,12 249,65 229,21 55,33
2013 229,55 226,63 215,90 214,42 267,07 247,99 247,49 226,74 52,65
Grupos
A = meninas brancas com NSE mais baixo E = meninas brancas com NSE mais alto
B = meninas pretas com NSE mais baixo F = meninas pretas com NSE mais alto
C = meninos brancos com NSE mais baixo G = meninos brancos com NSE mais alto
D = meninos pretos com NSE mais baixo H = meninos pretos com NSE mais alto
Nessa tabela, a coluna “diferença (E-D)” destaca as distâncias entre as meninas brancas com
NSE mais alto (5º quintil) e os meninos pretos com NSE mais baixo (1º quintil). No 5º ano, a
distância entre esses dois grupos é enorme e crescente. O mesmo padrão é observado no 9º ano,
exceto em 2013, em que é observada uma pequena queda da diferença entre os grupos.
60
Vejamos, agora, a tabela referente às proficiências em Matemática:
Tabela 22 – Média das proficiências em Matemática por ano de realização da Prova Brasil grupos
definidos por sexo, cor e NSE
edição
ano da diferença
A B C D E F G H
escolar Prova (G-B)
Brasil
2005 177,73 167,26 177,33 168,99 202,60 171,78 202,52 173,41 35,26
2007 180,51 173,58 181,02 175,81 212,62 184,50 213,53 187,62 39,95
5° ano 2009 183,76 177,96 183,40 180,25 227,39 200,15 228,73 202,21 50,76
2011 186,83 179,72 186,55 182,65 232,15 206,04 235,21 208,33 55,49
2013 183,80 177,95 177,76 176,58 236,96 209,88 238,08 210,87 60,14
2005 231,57 224,48 238,24 231,16 262,15 239,90 264,64 242,53 40,16
2007 226,96 219,50 235,57 228,41 260,02 239,34 264,50 241,76 45,00
9° ano 2009 223,72 217,83 233,30 228,45 260,91 239,31 266,07 243,61 48,24
2011 226,58 221,37 233,03 229,96 265,45 244,63 267,89 244,99 46,52
2013 225,90 222,04 231,37 229,08 262,46 241,95 263,80 241,54 41,76
Grupos
A = meninas brancas com NSE mais baixo E = meninas brancas com NSE mais alto
B = meninas pretas com NSE mais baixo F = meninas pretas com NSE mais alto
C = meninos brancos com NSE mais baixo G = meninos brancos com NSE mais alto
D = meninos pretos com NSE mais baixo H = meninos pretos com NSE mais alto
Nessa tabela, a coluna “diferença (G-B)” destaca a distância entre meninos brancos com
NSE mais alto e meninas pretas com NSE mais baixo, que têm, sistematicamente, desempenho
pior em Matemática. As diferenças entre os grupos do 5º ano são crescentes ao longo do período
analisado. No 9º ano, a tendência é de crescimento até 2009 e, depois, de queda.
61
Quase todas as distâncias entre os grupos são superiores a 40 pontos (dois anos de
aprendizado) e algumas ultrapassam os 60 pontos. Isso significa que dois alunos matriculados na
mesma série, mas diferentes em relação a sexo, cor e NSE, podem estar distantes ao equivalente a
mais de três anos de aprendizado um do outro. No entanto, vale destacarmos que as diferenças
entre NSE são aquelas que mais pesam para as distâncias verificadas nas tabelas apresentadas.
62
MÓDULO III – DESCRIÇÃO EDUCACIONAL E
ESTATÍSTICA DO IDEB
Neste módulo, analisaremos, por meio de uma descrição educacional e estatística, o Índice
de Desenvolvimento da Educação Básica (Ideb). Além disso, apresentaremos as sínteses dos
resultados das avaliações realizadas por meio de duas plataformas: o portal Ideb Escola e o portal
QEdu, que auxiliam na contextualização do cenário educacional brasileiro.
Introdução
A União, os estados e os municípios brasileiros estão usando, de modo cada vez mais
frequente, o desempenho dos seus alunos em avaliações externas de aprendizagem para orientar as
suas políticas educacionais. Esses resultados, por sua vez, têm sido sintetizados em indicadores
globais de qualidade da educação, entre os quais o mais importante e influente é o Índice de
Desenvolvimento da Educação Básica (Ideb), introduzido pelo Inep em 2006.
O Ideb se tornou a forma privilegiada e, frequentemente, a única utilizada para analisar a
qualidade da educação básica brasileira. Por esse motivo, tem tido grande e profunda influência
no debate educacional brasileiro. A sua introdução colocou no centro desse debate a ideia de que,
atualmente, os sistemas educacionais brasileiros devem ser avaliados não apenas pelos seus
processos de ensino e gestão, mas sim, e principalmente, pelo aprendizado e pela trajetória escolar
dos alunos.
A valorização dos resultados estava ausente nas análises até então dominantes da educação básica
brasileira, que eram centradas na questão da expansão dos sistemas. Nessas abordagens, a solução para
os problemas educacionais era sempre a expansão de algum aspecto dos sistemas educacionais: mais
horas-aula, mais etapas obrigatórias, mais recursos, mais escolas e mais professores.
Para saber mais sobre como são abordadas as questões referentes à educação nos diversos
censos, leia:
Fletcher e Ribeiro (1989) nos mostraram, também por meio da análise de dados censitários,
que a repetência era a grande característica do sistema brasileiro de educação básica, e não a
evasão. Esses autores cunharam o termo “pedagogia da repetência”, conceito que teve profundo
impacto nas políticas de educação fundamental. Uma dessas influências foi a reformulação do
Censo Escolar, hoje um refinado sistema de coleta de dados sobre cada aluno matriculado. A
partir dos dados obtidos nos censos demográfico e escolar calculam-se indicadores de
analfabetismo, acesso e cobertura, resultados fundamentais para a análise de um sistema de
educação básica.
64
Com a introdução do Sistema de Avaliação da Educação Básica (Saeb), a ideia de que, além
dos indicadores de rendimento, uma medida de aprendizado dos alunos deveria ser usada para o
monitoramento do sistema foi ganhando espaço e concretizou-se, em 2005, com a criação da
Prova Brasil e, em 2006, com a introdução do Ideb. Uma justificativa nunca explicitada para o
uso de resultados de rendimento e aprendizado no monitoramento de sistemas de educação básica
é a de que apenas dessa forma o Estado fica sabendo se o direito à educação dos seus cidadãos está
sendo atendido. Na ausência de um sistema como esse, o direito público subjetivo estabelecido no
texto constitucional não pode ser monitorado e, eventualmente, exigido.
Nesse sentido, nosso objetivo é explicitar as opções metodológicas feitas na construção do
Ideb, bem como os efeitos diretos e indiretos que induz quando a escola decide buscar, por meio
de políticas e práticas internas, a sua maximização. Como qualquer indicador, o Ideb faz um
recorte e uma redução do foco de análise. Dessa forma, é importante identificar e discutir como
esse indicador define a qualidade e a equidade dos sistemas educacionais brasileiros. Como
veremos, se o Ideb, como definido atualmente, for o único indicador usado para guiar as políticas
educacionais de educação básica – mesmo no caso otimista de que as suas metas sejam atingidas –,
podemos não ter um sistema educacional que garanta o direito constitucional de educação.
Componentes do Ideb
O Ideb de uma escola ou de uma rede de ensino é definido a partir do produto entre:
um indicador de desempenho, tomado como o nível médio da proficiência dos alunos
da escola ou rede obtido na Prova Brasil e
um indicador de rendimento, definido como o valor médio das taxas de aprovação da
escola ou sistema obtido no Censo Escolar do ano em que o Ideb é divulgado.
O valor do Ideb cresce à medida que os resultados do aprendizado dos alunos melhoram e cai à
medida que as taxas de aprovação diminuem. Um dos motivos da grande aceitação obtida pelo Ideb é
o fato de o índice agregar, em um único indicador, uma medida de desempenho e outra de
rendimento, dimensões fundamentais para uma análise relevante de sistemas de educação básica.
A seguir, veremos os indicadores de desempenho e rendimento com mais detalhes.
65
Indicador de desempenho
O desempenho de uma escola é definido, para o cálculo do Ideb, como a média das
proficiências em Leitura e Matemática obtida pelos alunos da escola na Prova Brasil. Como as
escalas de medida das duas competências são diferentes, é necessário fazer uma padronização
dessas medidas antes de calcular a sua média. A metodologia do Ideb assume que, para tornar
comparáveis as proficiências de Leitura e Matemática, basta fazer com que variem no mesmo
intervalo. Para isso, utiliza o seguinte algoritmo:
Tabela 23 – Limites superiores e inferiores usados para a padronização das notas de Leitura e
Matemática no Ideb
Matemática Leitura
série
inferior superior inferior superior
66
Vamos analisar um exemplo para melhor entendermos esse algoritmo. Consideremos uma
escola que ofereça apenas as primeiras séries do ensino fundamental e cujos alunos da 4ª série (5º
ano), tenham tido, na Prova Brasil de 2011, proficiência média de 206,92 em Matemática e
184,52 em Leitura. A proficiência padronizada dessa escola deve ser obtida da seguinte forma:
.206,92 ) 604
" % ê " ] á 0,561
.322 ) 604
.184,52 ) 494
" % ê " ] 0,493
.324 ) 494
0,561 - 0,493
" % ê " ] 10 5,27
2
67
Usando os dados da Prova Brasil de 2011, as proficiências padronizadas das escolas de 5º
ano variam de acordo com o histograma do gráfico a seguir. Como previsto, essas proficiências
cobrem apenas uma parte do intervalo [0, 10].
68
algoritmo de padronização, principalmente na 8ª série (9º ano), não leva esse fato em
consideração, pois prescreve valores iguais, como podemos observar na Tabela 23. Dessa forma,
as proficiências padronizadas de Matemática são, em geral, maiores que as de Leitura. Como
consequência, a proficiência média usada na construção do Ideb é mais influenciada pela
proficiência em Matemática. Em outras palavras, o indicador de aprendizado do Ideb assume,
equivocadamente, que os alunos brasileiros de ensino fundamental sabem mais Matemática do
que Leitura. Esse diagnóstico, no entanto, não é um retrato fiel da realidade educacional quando
esta é considerada sob o prisma da interpretação pedagógica dos testes da Prova Brasil ou dos
resultados de outras avaliações.
Mesmo se colocarmos as duas proficiências variando no mesmo intervalo, as escalas de
Leitura e Matemática não serão completamente comparáveis.
Existem muitos algoritmos que, na situação do Ideb, poderiam ser usados para tornar as
duas proficiências, de fato, comparáveis e, desse modo, dar sentido ao cálculo de um valor médio.
Há, por exemplo, o método denominado “Equipercentil”, que cria uma tabela de equivalência
dos escores entre as duas escalas, equalizando os valores dos percentis de cada uma.
PETERSEN, N. S.; KOLEN, M. J.; HOOVER, H. D. Scaling, norming, and equating. In: LINN,
R. L. (Ed.). Educational measurement. 3. ed. New York: American Council on Education
and Macmillan, 1989. p. 221-262.
Indicador de rendimento
O conceito de rendimento é usado no âmbito das estatísticas educacionais para sintetizar a
experiência de aprovação ou reprovação dos alunos de uma escola ou sistema de ensino. Ao fim de
um ano letivo, cada aluno matriculado, que não foi formalmente transferido nem faleceu, é
colocado em uma das três categorias. Na categoria de aprovados são classificados os alunos que, ao
final do ano letivo, preencheram os requisitos mínimos de desempenho e frequência previstos em
legislação. Na dos reprovados, são colocados os alunos que, ao final do ano letivo, não
preencheram os requisitos mínimos de desempenho ou frequência previstos em legislação. Já na
categoria de abandono, são colocados os alunos que deixaram de frequentar a escola, tendo a sua
matrícula cancelada.
A taxa de aprovação é definida como a razão entre o número de aprovados e a soma dos alunos
nas três categorias. Detalhes podem ser encontrados na nota técnica do Inep (Inep, 2009a). A soma
das taxas de aprovação, reprovação e abandono é 100%. Portanto, se a taxa de abandono é alta, tanto
a taxa de aprovação quanto a de reprovação podem ser baixas, ao mesmo tempo.
69
Para saber mais detalhes sobre as taxas de aprovação, reprovação e abandono, acesse:
O indicador de rendimento usado no Ideb pode ser interpretado como a razão entre o
número de anos da etapa e o número de anos letivos que um aluno típico da escola gasta para
completar uma série. Em uma situação ideal, em que não haja nem reprovação nem abandono,
esse valor seria, naturalmente, igual a 1, ou seja, apenas um ano letivo seria gasto para que os
alunos completassem cada série ou ano escolar. No entanto, na maioria das situações reais, há
reprovações e abandonos. Diante disso, o número de anos letivos para que o aluno típico de uma
escola complete uma série é sempre maior que 1. Isso ocorre porque os reprovados e os que
abandonaram a escola deverão repetir a série, o que aumenta a média de anos letivos de estudo
necessários para que todos os alunos da escola completem cada série ou ano escolar.
Matematicamente, o número de anos letivos necessários para que um aluno típico de uma
escola complete cada série ou ano é dado pelo inverso da taxa de aprovação da respectiva série.
Diante disso, usa-se o inverso da média aritmética dos inversos das taxas de aprovação, chamada
de média harmônica, para sintetizar o rendimento da escola. No jargão da Estatística, o
rendimento de uma escola no Ideb é a média harmônica das taxas de aprovação dos quatro ou
cinco anos que compõem cada uma das etapas do ensino fundamental. Embora essa escolha seja
completamente adequada, o uso da média harmônica, opção raramente usada em análises
estatísticas, torna o entendimento do processo de cálculo do rendimento mais difícil.
Vamos analisar um novo exemplo para que possamos melhor entender as opções feitas. Na
tabela a seguir, apresentamos o cálculo de rendimento de uma escola com cinco séries. Vejamos:
ano escolar
1 2 3 4 5
70
Ao considerarmos a taxa de aprovação do primeiro ano (0,824), podemos observar que são
necessários 1/0,824 = 1,21 anos para que um aluno típico dessa escola complete o 1º ano. A
aplicação desse algoritmo aos outros anos escolares produz os valores da última linha da tabela. O
número de anos letivos de estudo necessários para que os alunos dessa escola completem as cinco
séries é, portanto, o seguinte:
O indicador de rendimento é obtido pela divisão do número de séries ou anos letivos que
seria necessário caso a aprovação fosse total pelo número de anos realmente necessários para
completar a etapa (taxa de aprovação). No caso do nosso exemplo, temos:
5/5,91 = 0,8453
Cálculo do Ideb
O Ideb sintetiza os indicadores de rendimento e desempenho em um único número, por
meio do produto dos dois indicadores. Dessa forma, temos:
, 5 " _ ` (
Como o indicador de rendimento é um número menor que 1, o Ideb é sempre menor que
o indicador de desempenho. Em outras palavras, o Ideb penaliza a escola que usa a reprovação
como estratégia pedagógica, atribuindo-lhe valores mais baixos.
Como consequência da agregação dos dois indicadores em um único número, cria-se,
implicitamente, uma equivalência entre diferentes combinações dos indicadores de desempenho e
rendimento. A tabela a seguir nos mostra possíveis combinações dos dois indicadores para se obter um
Ideb de valor 6. A coluna 5, por exemplo, mostra que uma taxa média de reprovação de 14%, com
um desempenho de 6,98, é equivalente a um desempenho de 6 se a taxa de reprovação é zero.
71
Tabela 25 – Diferentes combinações dos indicadores de rendimento e proficiência padronizada
que produzem o mesmo Ideb de 6
indicador combinação
rendimento 0,7 0,76 0,78 0,8 0,86 0,88 0,9 0,92 0,96
desempenho 8,57 7,89 7,69 7,5 6,98 6,82 6,67 6,52 6,25
O raciocínio de que um resultado pode compensar o outro está presente em vários pontos
da metodologia do Ideb. Isso quer dizer que, no Ideb, o melhor aprendizado de um aluno
compensa o pior aprendizado de outro aluno da mesma escola; um melhor desempenho em
Leitura compensa um aprendizado insuficiente em Matemática; o melhor aprendizado de alguns
compensa a reprovação de outros. Essas substituições são criticáveis do ponto de vista do direito à
educação, que considera o aprendizado como um direito de todos e de cada um dos alunos, não
de alunos típicos ou médios.
Interpretação normativa
Em muitos textos sobre o Ideb, principalmente os publicados na grande mídia, é recorrente
a ideia de que se trata de um indicador de fácil compreensão, já que usa valores entre 0 e 10.
Partindo dessa compreensão, entende-se que, para o Ideb, vale o bom senso acumulado nas
avaliações escolares, cujas notas acima de 9 são excelentes e as abaixo de 5 são muito ruins. No
entanto, não é isso que ocorre com o Ideb. Como vimos, o valor do Ideb está concentrado em
uma parte menor do intervalo entre 0 e 10.
Na realidade, a escala do Ideb tem características surpreendentes e difíceis de serem
apreciadas em um primeiro momento por um não especialista. Por exemplo, um Ideb de 4,5 é
um valor médio, não baixo, e está longe, e não perto, do valor 6. Isso ocorre porque os valores
extremos da escala (acima de 6 e abaixo de 3) são raros, e os valores acima de 8 e abaixo de 2 são
quase impossíveis.
O valor 6 foi escolhido como valor de referência para o Ideb. Sucintamente, com algumas
hipóteses, esse seria o valor que o Ideb deveria ter se os alunos brasileiros estivessem todos no nível
3 do Pisa e o indicador de rendimento fosse fixado em 0,96. Esse fato tem sido descrito como se
um Ideb igual a 6 significasse uma escola de “primeiro mundo”. Todavia, isso só seria correto se o
currículo brasileiro, cujo aprendizado é verificado pela Prova Brasil, fosse equivalente ao currículo
dos países da OCDE, o que não ocorre atualmente.
72
Para saber mais sobre a escolha do valor 6 como valor de referência para o Idep, acesse:
Faixas do Ideb
Para interpretarmos, pedagogicamente, um valor específico do Ideb, precisamos mostrar
como os seus valores estão associados com os níveis de proficiência dos alunos para os quais
existem interpretações pedagógicas. Essas interpretações expressam o que conhecem e sabem fazer
os alunos alocados nos diferentes níveis. Soares (2009), partindo dos valores definidos pelo
movimento Todos pela Educação, estabeleceu quatro níveis de desempenho, apresentados na
tabela a seguir:
Leitura Matemática
nível
4ª série EF 8ª série EF 4ª série EF 8ª série EF
abaixo do básico menor que 150 menor que 200 menor que 175 menor que 225
básico entre 150 e 200 entre 200 e 275 entre 175 e 225 entre 225 e 300
adequado entre 200 e 250 entre 275 e 325 entre 225 e 275 entre 300 e 350
73
Para transformar esses níveis de desempenho em valores do Ideb, primeiramente, é preciso
observar que a maior nota de um aluno que está no nível abaixo do básico é 150 em Leitura e 175
em Matemática. Assumindo-se que todos os alunos de uma escola tenham essas notas e que o seu
indicador de rendimento seja 0,96 – o mesmo valor usado por Fernandes (2007) para fixar as
metas do Ideb –, podemos obter o valor do Ideb para essa escola.
Com hipóteses similares, criaram-se cinco faixas para o Ideb da seguinte maneira: o nível
baixo foi escolhido para retratar a situação em que o desempenho dos alunos da escola é inferior
ao limite escolhido para o nível básico tanto em Leitura quanto em Matemática. As outras faixas
foram escolhidas fixando-se a média das proficiências dos alunos nos seguintes valores:
médio baixo – valores iguais aos limites inferiores do nível básico;
médio – valores situados no meio do nível básico;
médio alto – valores correspondentes ao limite inferior do nível adequado e
alto – valores que estão no meio do nível adequado.
NOTAS:
* A padronização é feita pelo cálculo apresentado anteriormente.
** A primeira faixa foi definida a partir do intervalo inferior calculado para a segunda faixa.
74
A próxima tabela nos mostra a grande evolução do valor do Ideb nas escolas públicas ao fim
da primeira etapa do ensino fundamental (5º ano). Podemos notar que, ao longo dos anos, há um
forte decréscimo de escolas na faixa mais baixa do Ideb e um crescimento na faixa média.
Tabela 28 – Evolução do Ideb para escolas que oferecem quarta série (quinto ano), por
percentual em cada uma de cinco faixas de valores
Tabela 29 – Proporção de alunos nos níveis de desempenho e Ideb das escolas de 5º ano
(Prova Brasil, 2011)
DESEMPENHO
Ideb
insuficiente básico adequado avançado TOTAL
75
O valor do Ideb deve estar acima de 6,5 para que não
existam muitos estudantes na escola ou no município com
desempenho no nível Insuficiente.
76
correspondem aos alunos mais fracos, fazem com que os valores do Ideb das escolas com muitas
ausências sejam superestimados.
A portaria do MEC sobre cálculo do Ideb diz que o indicador é calculado desde que mais
de 50% dos alunos da escola tenham comparecido. Isso quer dizer que, mantendo-se dentro da
lei, as escolas podem escolher os seus melhores alunos e assim ter um melhor valor no Ideb.
Essa análise nos leva a concluir que o sistema que produz o Ideb é muito tolerante
com ausências.
77
e) O Ideb naturaliza baixos desempenhos de muitos alunos:
Vamos rever a tabela 25:
indicador combinação
rendimento 0,7 0,76 0,78 0,8 0,86 0,88 0,9 0,92 0,96
desempenho 8,57 7,89 7,69 7,5 6,98 6,82 6,67 6,52 6,25
Essa tabela nos mostra que um Ideb igual a 6, a meta nacional, é compatível com um
grande número de alunos de desempenho medíocre. Dessa forma, com o uso isolado do Ideb, as
dificuldades educacionais desses alunos não terão nenhuma relevância, considerando o fato de que
o indicador de qualidade está em um nível tido como adequado.
ALVES, M. T. G.; SOARES, J. F.; XAVIER, F. P. O nível socioeconômico das escolas de Educação
Básica brasileiras: versão 2. Belo Horizonte: Grupo de Avaliação e Medidas Educacionais
(Game); São Paulo: Instituto Unibanco, 2013. 64p. Relatório técnico.
78
Uma grande e sólida literatura mostra que o desempenho dos alunos está muito associado
ao seu nível socioeconômico. Desse modo, não nos surpreende o fato de que a associação entre o
Ideb e o NSE das escolas seja alta.
O gráfico a seguir, construído com o Ideb das escolas públicas do município de São Paulo
que oferecem a primeira etapa do ensino fundamental, aponta uma associação de 0,694 entre o
Ideb de 2011 e o respectivo NSE das escolas. Isso quer dizer que, isoladamente, o Ideb é também
um indicador das condições socioeconômicas das escolas. Vejamos:
Figura 6 – Correlação entre o Ideb e o NSE das escolas públicas de São Paulo (SP)
As correlações entre o NSE e o Ideb são sempre positivas, mas o valor é mais alto entre
escolas de um mesmo município do que entre municípios.
Diante disso, a identificação de escolas com projetos pedagógicos exemplares não pode ser
feita apenas por meio do Ideb, que, como vimos, identifica também escolas que têm bons
resultados apenas porque atendem a alunos que trazem muito do capital cultural das suas famílias.
g) Outras limitações:
Outras limitações do Ideb já foram apresentadas por diversos autores. Por exemplo, Daniel
Cara, em entrevista à Revista Educação, afirmou que "o Ideb é um termômetro que revela se o
aluno está ou não assimilando informações fornecidas pelo sistema educacional, mas não
considera aspectos que têm impacto sobre a qualidade, como a valorização dos profissionais e a
infraestrutura" (AVANCINI, 2008). Embora muito veiculada, não se trata exatamente de uma
79
crítica ao indicador, mas a seu uso isolado. A sensata advertência do autor indica que a avaliação
de escolas e redes de ensino não se deve restringir ao Ideb, e que o indicador de resultados deve ser
contextualizado por indicadores que descrevam as condições reais de oferta do ensino.
Também entrevistado pela Revista Educação (AVANCINI, 2008), João Batista de Oliveira
afirmou o seguinte: "Ao agregar coisas diferentes, o Ideb dá algumas indicações sobre qualidade,
mas ele não sinaliza claramente o que precisa ser melhorado.” De fato, como qualquer indicador-
síntese, um Ideb baixo apenas diz que há algo ruim acontecendo, mas nada diz sobre o que fazer.
Análoga a essa demanda, aparece a crítica de que faltam esclarecimentos sobre o que significam os
números, ou seja, que tipo de intervenção escolar um dado valor do Ideb sugere. Além disso,
como as políticas públicas para conter o abandono e a repetência não são, necessariamente, as
mesmas a serem usadas para aumentar o indicador de desempenho, não fica claro como se pode
passar do diagnóstico para a proposição de políticas. Essas são reflexões sólidas que devem merecer
mais espaço nos esforços de análise do Ideb.
Discussão
Existem vários outros indicadores usados para monitorar os resultados das escolas em
diferentes estados e municípios. E as limitações do Ideb apresentadas são, em maior ou menor
grau, compartilhadas por esses indicadores. Entre tais indicadores, o Idesp, usado no estado de
São Paulo, merece a nossa atenção especial.
Ao produzir a medida de desempenho da escola por meio da síntese de níveis, o Idesp não é
tão vulnerável à concentração do esforço educacional em poucos alunos e não tem o defeito do
desequilibro entre Leitura e Matemática, presente no Ideb. Apesar disso, outras limitações, como
associação com o nível socioeconômico, taxa de substituição não justificada e ausência de
tratamento específico para os alunos ausentes no teste estão igualmente presentes no Idesp.
80
advoga que as expectativas relativas ao aprendizado dos alunos devem ser diferentes em diferentes
municípios, mas apenas que, para atingir os aprendizados necessários, alguns cenários sociais são
mais adversos que outros.
Além disso, junto com o Ideb, cada escola ou rede deve receber também uma descrição de
quantos alunos estão em níveis de desempenho medíocres. Claro que escolas e redes com Ideb
maiores do que 6,5 estão em uma situação privilegiada, pois esse valor não permite que muitos
estudantes tenham aprendido muito pouco.
Por fim, talvez o mais importante seja transformar o Ideb em um primeiro passo para o
processo de reflexão interna nas escolas. Tal reflexão deve ter como meta a busca de melhores e
mais efetivas práticas pedagógicas, permitindo que os alunos aprendam o necessário para uma
vida digna e feliz.
81
Vejamos, a seguir, um exemplo de consulta à plataforma de resultados e metas:
Fonte: Ideb – resultados e metas. Disponível em: <http://ideb.inep.gov.br/resultado/>. Acesso em: fev. 2018.
Figura 8 – Exemplo consulta resultados e metas por escola – plataforma de resultados e metas
Fonte: Ideb – resultados e metas. Disponível em: <http://ideb.inep.gov.br/resultado/>. Acesso em: fev. 2018.
82
Plataforma de consulta pública
A segunda plataforma desenvolvida pelo Inep permite-nos efetuar uma consulta pública dos
resultados do Ideb por escola. O que diferencia essa plataforma da primeira é a possibilidade de
obtermos uma contextualização mais completa da unidade escolar (com informações
socioeconômicas, administrativas e de infraestrutura), além da conveniência de podermos
comparar a escola consultada a outras escolas semelhantes (com base na localização, dependência
administrativa ou indicadores de complexidade de gestão e nível socioeconômico). Dessa forma,
para além dos dados resultantes do Ideb, informações coletadas pelo Censo Escolar da Educação
Básica e novos indicadores contextuais desenvolvidos pelo Inep, como o Indicador de Nível
Socioeconômico (Inse), a adequação da Formação Docente, o indicador de Esforço Docente e o
indicador da Complexidade da Gestão Escolar podem ser consultados.
83
Vejamos um exemplo de como a consulta pode ser realizada. Primeiramente, devemos
acessar a plataforma meio do seguinte endereço: <http://idebescola.inep.gov.br/ideb/consulta-
publica>. Dessa forma, teremos acesso à seguinte área de consulta:
Na tela inicial de informações sobre a escola que se desejamos consultar, são várias as
possibilidades. Nela podemos:
inserir somente o código da escola;
selecionar as informações de UF e município, e o nome da escola e
selecionar as informações de UF, município, dependência administrativa e localização
(essa opção dá acesso a todas as escoas que preenchem os requisitos da seleção efetuada).
84
Na figura a seguir, podemos observar um exemplo:
Plataforma QEdu
Além das plataformas desenvolvidas pelo Inep, também há outra iniciativa, idealizada pela
Meritt e pela Fundação Lemann, chamada QEdu, que busca colocar à disposição da sociedade
civil informações sobre a educação brasileira. O site disponibiliza informações sobre o Censo
Escolar da Educação Básica, a Prova Brasil, o Enem e o Ideb. Os dados permitem contextualizar:
85
o aprendizado dos alunos em Matemática e Língua Portuguesa, identificar o perfil dos alunos, o
número de matrículas para cada etapa escolar, as taxas de aprovação e distorção idade série, a
infraestrutura escolar, o Ideb e o nível socioeconômico. A busca pode ser realizada por estado,
cidade ou escola.
86
MÓDULO IV – COMPARAÇÃO COM PARES
LATINO-AMERICANOS E INTERNACIONAIS
Comparações latino-americanas
Instituição responsável
O LLECE, Laboratório Latino-Americano de Avaliação da Qualidade de Educação da
Unesco foi criado em 1994, como rede de unidades nacionais de avaliação da qualidade da
educação na América Latina e no Caribe. São 15 os membros fundadores: Argentina, Bolívia,
Brasil, Chile, Colômbia, Costa Rica, El Salvador, Guatemala, Honduras, México, Paraguai, Peru,
República Dominicana, Uruguai e Venezuela, sob a coordenação do Escritório Regional de
Educação da Unesco para a América Latina e o Caribe (OREALC/ Unesco Santiago).
Esse laboratório tem três objetivos principais:
promover uma política educativa baseada em evidências, por meio da geração de dados
sobre a qualidade da educação, e os seus determinantes sociais e econômicos;
desenvolver capacidades de avaliação da educação e
servir como um fórum para gerar e compartilhar ideias, e discutir melhores práticas em
educação básica.
O LLECE já realizou três estudos comparativos que fornecem dados sobre o aprendizado de
Leitura, Matemática e Ciências dos estudantes de ensino básico dos países-membros. As informações
viabilizam a comparação da situação do Brasil em relação aos outros países latino-americanos.
A seguir, apresentamos uma descrição sintética dos dois primeiros estudos e, com mais
detalhes, os resultados do terceiro.
88
Figura 13 – Resultados em Linguagem (4ª série)
89
Figura 15 – Resultados em Matemática (4ª série)
90
dependia da prova aplicada. Apesar da existência de informações a respeito dos estudantes da 3ª série e
da 6ª série, apresentaremos somente os resultados da 6ª série em Leitura e Matemática.
Para ter acesso a uma descrição completa das habilidades de cada nível, leia:
VALDÉS, Héctor et al. Los aprendizajes de los estudiantes de América Latina y el Caribe:
Resumen ejecutivo del primer reporte de resultados del segundo estudio regional
comparativo y explicativo. 2008.
91
Vejamos, na tabela a seguir, a pontuação de corte por nível de desempenho dos estudantes
da 6ª série em Matemática:
abaixo de I
I 309,64
II 413,58
III 514,41
IV 624,60
abaixo de I
I 299,59
II 424,54
III 513,66
IV 593,59
92
Vejamos, agora, uma tabela que sintetiza os resultados obtidos pelos alunos da 6ª série para
Matemática:
93
Como podemos observar na tabela apresentada, apesar de possuir uma maior média de
resultado (pontuação) do que Argentina, Chile, Costa Rica, México e Uruguai, o Brasil apresenta
pouco mais do que 58% dos seus alunos nos níveis 1 e 2, enquanto que esses países possuem
maior percentual de estudantes nos níveis 3 e 4. Cuba aparece como grande destaque, com maior
percentual de alunos nos níveis mais altos e menor percentual de alunos nos níveis mais baixos.
Em sequência, vejamos uma tabela que sintetiza os resultados obtidos pelos alunos da 6ª
série para Leitura:
Tabela 33 – Percentual de estudantes da 6ª série por nível de desempenho em Leitura, por país
94
país abaixo de I I II III IV
Essa tabela nos mostra que, apesar de os resultados do Brasil em Leitura indicarem um
panorama educacional um pouco melhor, o cenário do País é semelhante ao apresentado em
Matemática: grande concentração do percentual dos alunos nos níveis 1 e 2 (49,5%), apesar do
aumento do percentual de alunos no nível 4. Chile, Costa Rica, México e Uruguai ainda se
destacam, com maiores percentuais de alunos nos níveis 3 e 4, quando comparados ao Brasil.
95
O enfoque da avaliação em Leitura buscou medir os seguintes domínios:
compreensão de textos – leitura de vários textos contínuos e descontínuos, a partir dos
quais é realizado um trabalho intratextual ou intertextual, e
domínio metalinguístico e teórico – domínio dos conceitos de linguagem e literatura,
foco no idioma para reconhecer e designar propriedades ou características de textos e
suas unidades.
Além desses domínios, buscou-se avaliar também os processos cognitivos, constituídos pela:
compreensão literal – composta das habilidades ligadas ao reconhecimento, ou seja, à
capacidade de identificação de elementos explícitos do texto e localização de informações
em segmentos específicos do texto;
compreensão inferencial – composta das habilidades relacionadas, por um lado, ao
entendimento, isto é, à capacidade de relacionar a informação presente nas diferentes
sequências do texto, e, por outro lado, às relacionadas à análise, isto é, à capacidade de
dividir a informação nas suas partes constituintes e estabelecer como elas se relacionam
de acordo com o propósito e a estrutura do texto, e
compreensão crítica – composta das habilidades relacionadas à avaliação, ou seja, à
capacidade de avaliar ou julgar o ponto de vista do emissor do texto e distingui-lo ou
contrastá-lo com os outros e com o próprio.
96
De maneira a possibilitar uma interpretação pedagógica e empírica dos resultados dos
alunos, foram estabelecidos três pontos de corte em cada teste, dando origem a quatro níveis de
desempenho (I, II, III e IV), ordenados em um contínuo de crescente complexidade. Os pontos
de corte que definiram os níveis são apresentados na tabela a seguir, para os níveis da 3ª série:
Os resultados de leitura da 3ª série nos mostram que 61% dos estudantes encontram-se nos
níveis I e II de desempenho. Isso indica que há maior aprendizagem relacionada à compreensão
de textos familiares e próximos dos estudantes, em que a tarefa típica é reconhecer informações
explícitas e evidentes. Dessa forma, o principal desafio é expandir o entendimento dos alunos para
textos menos familiares, em que é necessário estabelecer relações, interpretar e inferir significados.
97
No gráfico a seguir, podemos analisar a distribuição dos estudantes da 3ª série por nível de
desempenho em Leitura:
Ao analisarmos a distribuição dos estudantes da 3ª série, verificamos que o Brasil possui maior
percentual de alunos nos níveis I e III. O País tem, portanto, uma posição comparável às posições de
Argentina, Colômbia, Equador, México e Peru. Sendo que, entre esses países, somente a Argentina e o
Equador têm menor percentual de alunos no nível IV. Todo o restante apresenta maior percentual de
alunos nesse nível, o que é um indicativo da necessidade de trabalho pedagógico em busca de ofertar
aos estudantes reforço necessário para consolidar a base da aprendizagem, mas também incentivos para
que possa avançar no domínio de habilidades mais complexas.
98
Vejamos, agora, os pontos de corte para os níveis de desempenho da 6ª série:
Quando trata dos resultados de leitura da 6ª série, Flotts (2015) identifica que 70% dos alunos
encontram-se em níveis de desempenho I e II. O autor identifica maior aprendizagem na área
relacionada à compreensão de textos baseados em códigos explícitos e implícitos, o que permite
inferências sobre o significado dos textos e os seus propósitos comunicativos, além de identificar como
desafio o favorecimento da capacidade de as crianças interpretarem expressões de linguagem figurativa
e fortalecer o conhecimento dos componentes da linguagem e as suas funções.
99
No gráfico a seguir, podemos analisar a distribuição dos estudantes da 6ª série por nível de
desempenho em Leitura:
Análise critica
Embora amplamente divulgados no Brasil, o Perce, o Serce e o Terce não recebem a
atenção devida. Muito similares ao Saeb, as informações desses estudos permitem-nos situar o
Brasil no contexto regional e constatar que a sua posição, mesmo na América Latina, é modesta.
100
Como lições para o Brasil, dois sistemas educacionais podem ser destacados:
o de Cuba (no Perce e Serce), com resultados estelares comparáveis aos melhores do
mundo, e
o do Chile (no Terce), que é o país da América Latina que apresenta melhoras
consistentes tanto no nível regional quando no nível global.
Carnoy (2009) faz uma comparação detalhada dos processos sociais e pedagógicos que
garantem a vantagem acadêmica de Cuba em relação ao Brasil e mesmo em relação ao Chile.
Os informes do Terce têm solidez técnica e merecem servir de base para estudos acadêmicos
na área educacional. Isso, infelizmente ainda não ocorreu, pois as bases de dados não estão
disponíveis para estudos.
Comparação internacional
Pisa
O Projeto Internacional de Avaliação da Educação (Pisa, na sua sigla em inglês), é um
exame que, organizado pela Organização para a Cooperação e Desenvolvimento Econômico
(OCDE), é aplicado a uma amostra de estudantes de 15 anos dos países-membros da organização,
e de países e economias convidados. O objetivo é verificar se os estudantes que estão terminando a
educação básica obrigatória nos países participantes adquiriram conhecimentos e habilidades em
Leitura, Matemática e Ciências que os habilitem a uma participação plena na sua sociedade. São
avaliados estudantes de países da OCDE e de alguns outros países convidados.
O primeiro ciclo do Pisa foi realizado em 2000 e, desde então, tem-se repetido a cada três
anos. No ano 2000, participaram 32 países: 28 países da OCDE e alguns países convidados, entre
os quais estava o Brasil. Já em 2015, participaram 70 países, sendo 35 países-membros da OCDE
e 35 países/economias parceiras.
101
No Pisa, além dos testes, os alunos respondem a questionários contextuais que permitem
analisar a sua motivação para aprender, a concepção que têm sobre si mesmos e as suas estratégias
de aprendizado.
Composição da amostra
Em cada país/economia participante, a população de referência para definição da amostra
do Pisa é composta de “estudantes entre 15 anos e 3 meses (completos) e 16 anos e 2 meses
(completos) no início do período de aplicação da avaliação, matriculados em instituições
educacionais localizadas no país participante, a partir da 7ª série/7º ano” (Inep, 2016, p. 26).
A tabela a seguir mostra-nos os percentuais de alunos em cada ano escolar, no ano de 2015,
no Brasil.
Tabela 36 جPercentual dos alunos brasileiros que fizeram o Pisa em 2015 segundo o ano escolar
em questão
7° ano (EF) 8° ano (EF) 9° ano (EF) 10° ano (EM) 11° ano (EM) 12° ano (EM)
Como podemos observar, a grande maioria dos alunos brasileiros testados pelo Pisa está no
ensino médio, e o 2º ano do ensino médio concentra a maior quantidade de alunos. Assim sendo,
os alunos brasileiros estão na parte superior da curva de idade quando se consideram todos os
estudantes participantes.
No Pisa, um número mínimo de 150 escolas é requerido para cada país participante. O
Brasil participa, desde 2006, com uma amostra maior, a fim de obter resultados mais descritivos
por unidade da Federação, com níveis de precisão aceitáveis. Determinou-se um quantitativo de
964 escolas para a amostra brasileira no Pisa 2015, com especial destaque para Minas Gerais e São
Paulo, devido à sua maior concentração populacional de estudantes de 15 anos.
Para saber mais sobre a forma de escolha das escolas para compor a amostra brasileira,
acesse:
102
Questionários contextuais
O objetivo dos questionários contextuais do Pisa é coletar dados que possam ajudar os
formuladores de políticas e os educadores a compreenderem o motivo e de os estudantes
atingirem determinados níveis de desempenho e a forma como isso acorre. Esses questionários
incluem itens de caracterização sociocultural dos estudantes e dos processos mais importantes da
aprendizagem dos alunos, tanto no nível individual quanto escolar, e também dados relativos ao
sistema de ensino. De forma específica, os questionários de contexto incluem itens sobre
características do aluno, antecedentes familiares de estudantes, percepções dos alunos,
características escolares e percepções dos diretores da escola.
Essas três variáveis são sintetizadas em um indicador, por meio de uma análise de
componentes principais.
103
Indicadores de características das escolas
De forma análoga ao que foi feito com o questionário respondido pelos alunos, vários
indicadores são construídos com as informações obtidas pelo questionário da escola, preenchido pelo
diretor. Em particular, são criados indicadores de liderança escolar, autonomia e de recursos escolares.
Os documentos técnicos do Pisa explicam como cada um desses indicadores é feito e
constituem, por isso, uma excelente fonte de informação de como construir indicadores.
O que é testado?
O Pisa foi desenhado com a finalidade de conhecer a capacidade de os estudantes
analisarem e resolverem problemas em uma grande variedade de situações, manusearem
informação e enfrentarem situações que lhes serão apresentadas durante a vida adulta e que lhes
exigirão o domínio de habilidades que deveriam ter sido desenvolvidas durante a sua permanência
na escola de educação básica (OCDE, 2012).
O teste do Pisa em Ciências, por exemplo, usa questões que contemplam situações da vida
do aluno, como consumo de energia, biodiversidade e saúde humana, mais do que conhecimentos
específicos, como nome de plantas, fórmulas químicas, etc. Cada ciclo concentra-se em uma das
três capacidades, ainda que o teste inclua, em todas as edições, questões das três áreas.
As definições dos três domínios avaliados no Pisa enfatizam a aquisição de conhecimento
funcional e de habilidades que permitam a participação ativa na sociedade. Tal participação requer
mais do que apenas a capacidade de realizar tarefas impostas externamente, por exemplo, por um
empregador. Significa também estar equipado para participar dos processos de tomada de decisão.
Nas tarefas mais complexas do Pisa, os alunos são solicitados a refletir e avaliar o material.
As definições abordam a capacidade de os alunos extrapolarem o que aprenderam e aplicarem os
seus conhecimentos em contextos novos, e também se concentram na capacidade de os alunos
analisarem, raciocinarem e comunicarem-se efetivamente ao apresentar, resolver e interpretar
problemas em uma variedade de situações.
Vejamos a definição de cada um dos domínios avaliados pelo Pisa (OCDE, 2016a):
a) Leitura:
Capacidade de um indivíduo compreender, usar, refletir e se envolver com textos escritos, a fim
de atingir os seus objetivos, desenvolver o seu conhecimento e potencial, e participar da sociedade.
b) Matemática:
Capacidade de um indivíduo de formular, empregar e interpretar a Matemática em uma
variedade de contextos. Inclui o raciocínio matemático e o uso de conceitos matemáticos,
procedimentos, fatos e ferramentas para descrever, explicar e prever fenômenos. Ajuda os
indivíduos a reconhecerem o papel que a Matemática desempenha no mundo e a desenvolverem
julgamentos e decisões bem fundamentados, necessários à formação de cidadãos construtivos,
envolvidos e reflexivos.
104
c) Ciências:
Conhecimento científico de uma pessoa e o seu uso para identificar questões, adquirir
novos conhecimentos, explicar fenômenos científicos e tirar conclusões baseadas em evidências
sobre questões relacionadas à ciência. Compreensão dos traços característicos da ciência como
forma de conhecimento humano. Consciência de como a ciência e a tecnologia moldam os nossos
ambientes materiais, intelectuais e culturais. Ajuda a desenvolver a vontade de se envolver em
questões relacionadas com a ciência e com as ideias da ciência, como um cidadão reflexivo.
Relatório do Inep 2016. Disponível em: < Relatório do PISA 2015. Disponível em:
<http://www.oecd.org/pisa/data/2015-technical-report/>. Acesso em: fev. 2018.
105
Escala de proficiência
As respostas dos estudantes aos itens do Pisa são transformadas, por meio de modelos da
Teoria de Resposta ao Item, em escores. A interpretação pedagógica dessa escala e feita por meio
de um mapa de itens, como apresentado na figura a seguir.
Fonte: OCDE (2016), PISA 2015 Results (Volume I): Excellence and Equity in Education.
Como podemos verificar, cada item usado no teste nos dá a informação sobre um ponto da
escala. A partir do escore de cada estudante, é possível sabermos em quais itens ele tem proficiência e
em quais não tem. Claro que essa é uma afirmativa probabilista, pois o ocorre com um estudante
individual reflete muitas características pessoais não captadas em testes padronizados.
Níveis
Os resultados do Pisa são apresentados em seis níveis. No entanto, em 2009, para facilitar a
comunicação, o Pisa utilizou apenas quatro níveis:
alto desempenho que agrega os níveis 6 e 5;
desempenho sólido que representa o nível 4;
desempenho moderado agregando os níveis 2 e 3, e
baixo desempenho, composto pelo nível 1 ou abaixo.
106
Em anos posteriores o nível 1 foi dividido em 1a e 1b. O nível 3 é tomado como o nível de
aprendizado adequado. Desse modo, para acompanharmos o desenvolvimento dos alunos,
podemos verificar o percentual de alunos abaixo desse nível.
Os níveis são interpretados da mesma maneira da escala, isto é, por meio dos itens que estão
nele situados.
Os relatórios do Pisa mostram um mapa de itens, como exemplificado na tabela a seguir:
pontuação
dificuldade do
nível mais baixa item
item
do nível
5 633
1a 335
107
Podemos observar que, na tabela apresentada, cada item é situado em um nível. Desse
modo, um estudante que está em um nível não é capaz de resolver os itens dos níveis mais altos,
sendo capaz apenas de resolver os itens do seu nível e dos níveis mais baixos. Essas são, no
entanto, afirmativas probabilísticas, que não valem para estudantes específicos.
A seguir, podemos ver um exemplo do item S601Q01, extraído do Relatório do Inep de
2016 (INEP, 2016, p. 65-66):
Nota: esse item serve apenas como referência visual. A versão em inglês pode ser visualizada no relatório internacional
(OCDE, 2016).
108
Como podemos observar, nesse caso, o formato da resposta foi o de múltipla escolha
complexa. Já a competência solicitada foi a de explicar fenômenos cientificamente.
A tarefa do item apresentou um diagrama do projeto experimental de uma fazenda de
criação de linguado e descreveu os hábitos alimentares dos organismos componentes dos tanques
do sistema. Para responder a essa questão, os estudantes deveriam mover os organismos para os
tanques apropriados, considerando as informações sobre os seus hábitos alimentares e as
respectivas contribuições na manutenção da sustentabilidade do sistema. Para receber o crédito
completo, os componentes teriam de estar dispostos nos tanques conforme consta na figura.
A competência avaliada na questão não se restringiu ao conhecimento do conteúdo (cadeia
alimentar), envolvendo também a capacidade de associar esse conhecimento a uma situação
hipotética. É possível que a forma de apresentação da tarefa tenha agregado dificuldade, pois mais
de 30% dos estudantes brasileiros omitiram a resposta e, dos que responderam, menos de 2%
receberam crédito (delta igual a 21,56). De fato, a estrutura textual do item era complexa –
composta de linguagem verbal e não verbal –, com muitas informações que deveriam ser
integradas para a produção da resposta. Embora essas informações fossem necessárias à resolução
da questão, a forma como estavam dispostas pode ter dificultado o entendimento. O texto verbal
descrevia, adequadamente, o funcionamento do viveiro e a função trófica dos organismos
componentes dos tanques. Entretanto, a sua associação com o diagrama exigia a decodificação de
setas com funções distintas (indicações do fluxo da água nos tanques e localização de elementos
do diagrama) e o entendimento de informações textuais complementares situadas no próprio
diagrama (legenda e textos explicativos dos componentes).
109
Resultados do Brasil
As mazelas estruturais do sistema brasileiro de educação básica fazem com que o nosso país
se apresente em posição desfavorável quando comparado a outros países. Franco (2002), ao
analisar os primeiros resultados brasileiros no Pisa, mostra-nos que, no Brasil, mesmo as escolas
consideradas boas não o seriam se o padrão de comparação incluísse escolas de outros países. O
autor ressalta ainda que o ensino brasileiro não enfatizava, à época, as habilidades demandadas no
mundo de hoje. Além disso, observa que, mesmo considerando somente os alunos brasileiros de
alto nível socioeconômico, os resultados ainda são menores do que os de alunos equivalentes de
outros países. Esse diagnóstico continua atual e pertinente.
Essa é uma situação que precisa mudar. Se quiser ocupar um lugar de destaque no concerto
das nações, o Brasil não pode ter um padrão educacional, em áreas tão básicas como Leitura,
Matemática e Ciências, aquém dos resultados de outros países com o mesmo nível de
desenvolvimento econômico.
A tabela a seguir nos mostra o percentual de alunos do Brasil em cada um dos quatro níveis
de competência leitora, conforme o Pisa realizado em 2009, bem como o resultado de alguns
outros países para comparação. Esses países incluem a Coreia, usada frequentemente como
exemplo, os Estados Unidos, que são um país grande, com uma população tão diversa quanta a
brasileira, e alguns países latino-americanos. Vejamos:
Fonte: Baseado nos dados divulgados pelo Relatório Pisa 2009 (INEE, 2010).
110
Como podemos notar, os resultados do Brasil são muito ruins. O percentual de alunos
brasileiros com baixo desempenho em Leitura chega a quase 50%. Além disso, o Brasil possui um
percentual baixo de alunos com desempenhos sólido ou alto: 7,4%.
À época de divulgação dos últimos resultados, foi muito veiculada a informação de que o
Brasil foi um dos países que tiveram a maior evolução de desempenho desde 2000. Essa
informação, no entanto, recebeu uma análise crítica recentemente. Klein (2011) observa que a
mudança na data da aplicação do Pisa modifica o percentual de alunos nas séries em que os alunos
selecionados estão matriculados. Isso tornou os universos dos alunos avaliados, referentes aos anos
de 2000 e 2009, não comparáveis. Desse modo, são frágeis algumas das conclusões amplamente
veiculadas de que houve melhoria de desempenho dos alunos brasileiros entre esses dois anos.
A tabela a seguir nos fornece o percentual de alunos com desempenho em Leitura no Pisa
2015. Nela podemos observar um comportamento similar entre os países da Argentina, Chile,
Espanha e Portugal, onde o percentual de alunos em leitura com baixo desempenho diminuiu e o
percentual de alunos em leitura com alto desempenho aumentou. Por outro lado, países como o
Brasil, o México e os EUA apresentaram resultados mais estáveis em todos os níveis de
desempenho, apesar de observamos um aumento do percentual de alunos no nível baixo
desempenho. Vejamos:
Fonte: Elaborada com base nos dados disponíveis em: <http://dx.doi.org/10.1787/888933432569>. Acesso em fev. 2018.
111
Impactos no Brasil
A participação do Brasil no Pisa possibilitou a circulação dos documentos técnicos usados
para a tomada das decisões técnicas desse exame. Esses documentos foram construídos usando-se a
melhor literatura da área e, assim sendo, são uma fonte segura sobre como organizar uma
avaliação externa de forma adequada.
O desempenho dos alunos brasileiros no Pisa foi utilizado para a escolha das metas criadas
no âmbito do Índice de Desenvolvimento da Educação Básica (Ideb) e do movimento Todos pela
Educação. A nota técnica do Instituto Nacional de Estudos e Pesquisas Educacionais Anísio
Teixeira (Inep) explica os procedimentos. 5
É importante notarmos, entretanto, que não se mudou a especificação dos testes brasileiros
a partir da experiência do Pisa. Por conta disso, para atingir metas como a do aumento da
proporção de alunos brasileiros nos níveis de alto desempenho do Pisa, serão necessárias ainda
muitas mudanças nos currículos, e não simplesmente uma melhoria no desempenho dos alunos
nos testes brasileiros.
Pouco se faz no Brasil com os resultados do Pisa, exceto nos momentos de divulgação dos
resultados, quando a imprensa apresenta matérias críticas sobre a posição do Brasil entre os países
participantes. Essa atitude contrasta com a decisão de outros países como o México, que criou
materiais de orientação para professores explicando a abordagem pedagógica latente nesse exame
(INEE, 2010). Outra demonstração desse pouco impacto é o fato de que, no Brasil, não existe
nenhum grupo de pesquisa em educação que tenha o Pisa como uma de suas áreas de interesse.
5
Para mais informações, acesse: <http://download.inep.gov.br/educacao_basica/portal_ideb/o_que_sao_as_metas/
Nota_Tecnica_n3_compatibilizacao_PISA_SAEB.pdf >. Acesso em: fev. 2018.
112
ANEXO I
114
Gráfico 4 – Percentual de alunos em Leitura por nível de desempenho – alto desempenho
(Pisa 2009 e 2015)
115
BIBLIOGRAFIA
ALVES, Maria Teresa Gonzaga; SOARES, José Francisco; XAVIER, Flavia Pereira. Desigualdades
educacionais no Ensino Fundamental de 2005 a 2013: hiato entre grupos sociais. Revista Brasileira
de Sociologia-RBS, v. 4, n. 7, p. 49-82, 2016.
BEATON, A. E.; ALLEN, N. L. Interpreting scales through scale anchoring. Journal of Educational
Statistics, v. 17, n. 2, p. 191-204, 1992.
BOURDIEU, P.; PASSERON, J.-C. A reprodução: elementos para uma teoria do sistema de
ensino. Petrópolis: Editora Vozes. 2008.
BRASIL. Lei de diretrizes e bases da educação (Lei n° 9.394/96). Brasília, DF: 1996.BRASIL. Lei nº.
13.005, de 25 de junho de 2014. Aprova o Plano Nacional de Educação–PNE e dá outras
providências. Brasília, DF: 2014.
BRASIL. Constituição Federal. Constituição da República Federativa do Brasil. Brasília, DF: Senado
Federal, 1988.
BROOKE, N.; SOARES, J. F. Pesquisa em eficácia escolar: origem e trajetórias. Belo Horizonte:
Editora UFMG, 2008.
CARNOY, M.; GOVE, A. K.; MARSHALL, J. H. A vantagem acadêmica de Cuba: por que seus
alunos vão melhor na escola. São Paulo: Ediouro, 2009.
CASASSUS, J. et al. Primer estudio internacional comparativo sobre lenguaje, matemática y factores
asociados en tercero y cuarto grado. Santiago de Chile: LLECE Unesco-Santiago, 1998.
116
CIZEK, G.; BUNCH, M. Standard setting: a guide to establishing and evaluating performance
standards on tests. California: Sage Publications, 2007.
DELORS, Jacques et al. Educação: um tesouro a descobrir: relatório para a Unesco da Comissão
Internacional sobre Educação para o século XXI. 1998.
EURYDICE. Diferenças de género nos resultados escolares: estudo sobre as medidas tomadas e a
situação actual na Europa. (Relatório), EACEA, Comunidade Europeia: Gabinete de Estatística e
Planeamento da Educação, Ministério da Educação. doi:10.2797/51375. 2010.
FLOTTS, M. P. et al. Informe de resultados Terce. Tercer estudio regional comparativo y explicativo.
2015.
FRANCO, Creso. et al. O referencial teórico na construção dos questionários contextuais do SAEB
2001. Estudos em avaliação educacional, n. 28, p. 39-74, 2003.
INEP. Relatório Nacional Saeb 2003. Brasília, DF: Inep, 2006. 266 p.
INEP. Brasil no Pisa 2015: análises e reflexões sobre o desempenho dos estudantes brasileiros/
OCDE-Organização para a Cooperação e Desenvolvimento Econômico. São Paulo: Fundação
Santillana, 2016. Disponível em: <http://download.inep.gov.br/acoes_internacionais/pisa/
resultados/2015/pisa2015_completo_final_baixa.pdf >. Acesso em: fev. 2018.
117
KLEIN, R. Alguns aspectos da teoria de resposta ao item relativos à estimação das proficiências.
Avaliação e Políticas Públicas em Educação, v. 21, n. 78, p. 35-56, 2013.
MEC/Inep. Diretoria de Estatísticas Educacionais. Nota técnica n° 03/2013: cálculo das taxas de
rendimento escolar – Censo da Educação Básica. Brasília, DF: 2013.
MITZEL, H. C.; LEWIS, D. M.; PATZ, R. J.; GREEN, D. R. The bookmark procedure:
psychological perspectives. Setting performance standards: concepts, methods, and perspectives, 249-
281. 2001.
PERRENOUD, P. Práticas pedagógicas, profissão docente e formação. Lisboa: Dom Quixote, 1993.
OCDE. Pisa 2015 assessment and analytical framework: science, reading, mathematic and financial
literacy. 2016a. Disponível em: < http://www.oecd.org/publications/pisa-2015-assessment-and-
analytical-framework-9789264281820-en.htm>. Acesso em: fev. 2018.
OCDE. Pisa 2015 results: excellence and equity in education. v. I. Paris: OECD Publishing. 2016.
OECD. Pisa 2009 technical report. Pisa/OECD Publishing, 2012. Disponível em:
<http://dx.doi.org/10.1787/9789264167872-en>. Acesso em: fev. 2018.
118
SOARES, J. F. Índice de desenvolvimento da educação de São Paulo – Idesp: bases metodológicas.
São Paulo Perspectivas, São Paulo, v. 23, n. 1, p. 29-41, jan./jun. 2009.
SOARES, J. F. A qualidade da educação, a qualidade das escolas. IN: OLIVEIRA, Marcus (Org.).
A qualidade da escola pública no Brasil. Belo Horizonte: Mazza Edições, 2012.
SOARES, José Francisco; DELGADO, Victor Maia Senna. Medida das desigualdades de
aprendizado entre estudantes de Ensino Fundamental. Estudos em Avaliação Educacional, v. 27, n.
66, p. 754-780, 2016.
OECD. Are the new millennium learners making the grade? Technology use and educational
performance in Pisa, 2010. Disponível em: < https://www.oecd-ilibrary.org/education/are-the-new-
millennium-learners-making-the-grade_9789264076044-en >. Acesso em: fev. 2018.
VALDÉS, Héctor et al. Los aprendizajes de los estudiantes de América Latina y el Caribe: Resumen
ejecutivo del primer reporte de resultados del segundo estudio regional comparativo y explicativo.
Santiago do Chile: Unesco/ LLECE, 2008.
119
PROFESSOR-AUTOR
José Francisco Soares possui pós-doutorado em Educação pela University of Michigan
(Ann Arbor), é doutor em Estatística pela University of Wisconsin (Madison), mestre em
Estatística pelo Instituto Nacional de Matemática Pura e Aplicada (IMPA) e bacharel em
Matemática pela Universidade Federal de Minas Gerais (UFMG). É professor titular aposentado
da Universidade Federal de Minas Gerais (UFMG), onde continua as suas atividades de pesquisa
no Grupo de Avaliação e Medidas Educacionais (Game). Na área de avaliação educacional, foi
membro do comitê consultivo do Inep, membro do Conselho de Governança do movimento
Todos pela Educação e membro do Conselho Nacional de Educação de 2012 a 2014.
Atualmente, é membro do Conselho Técnico do Instituto Nacional para la Evaluatión de la
Educatión (INEE) do México. Foi o primeiro presidente eleito da Associação Brasileira de
Avaliação Educacional (Abave) e continua a integrar o seu comitê cientifico. De fevereiro de 2014
a fevereiro de 2016, foi presidente do Instituto Nacional de Estudos e Pesquisas Educacionais
Anísio Teixeira (Inep/MEC). Em 2011, foi o escolhido pela Abave para a homenagem especial e,
em 2012, recebeu o prêmio Bünge pelas suas contribuições na área de avaliação educacional.
120