Você está na página 1de 6

Síntese da sessão 5

O Modelo de Auto-Avaliação das Bibliotecas Escolares: metodologias de


operacionalização (Parte I)

Foram objectivos desta sessão:

• Compreender como é que a auto-avaliação pode ser concretizada para


demonstrar a contribuição da BE para o ensino e aprendizagem e a missão
e objectivos da escola.

• Ganhar familiaridade com o processo de auto-avaliação adoptado pelo


Modelo de Auto-avaliação RBE e capacitar para a sua aplicação.

• Conhecer as técnicas e instrumentos propostos, o modo como se


organizam e podem ser usados

A actividade solicitada estruturou-se do seguinte modo:

a) Solicitou-se aos formandos que escolhessem, em alternativa, um dos


seguintes Domínios/Subdomínios: A.2. (Promoção da Literacia da
Informação); B. (Leitura e Literacia) ou C.1. (Apoio a Actividades Livres,
Extra-Curriculares e de Enriquecimento Curricular)

b) Escolhessem no Domínio/Subdomínio seleccionado dois Indicadores, um


que considerassem de Processo e outro que considerassem de
Impacto/Outcome, e analisassem detalhadamente esses indicadores.

c) Estabelecessem um Plano de Avaliação em profundidade daqueles dois


Indicadores, recorrendo ao Texto da Sessão, às Orientações para a
aplicação do Modelo incluídas na versão actualizada do mesmo, e ao texto
de leitura complementar Basic Guide To Program Evaluation.
A existência desta sessão e desta actividade encontra a sua maior justificação,
ao constituir-se como uma oportunidade dos formandos abordarem o modelo
numa perspectiva prática de operacionalização, que se pretendeu iniciar com a
planificação do processo de aplicação.

Sobre o cumprimento das tarefas, em 30 formandos, realizaram as actividades


23, sendo que entre os 7 que não as realizaram se encontram alguns colegas
que aparentemente terão desistido desta formação.

Relativamente aos domínios escolhidos, é de referir a grande adesão ao


domínio B. Só 2 formandas se debruçaram sobre o sub-domínio C1 e 9 sobre o
sub-domínio A2.

Os textos foram aparentemente lidos e estudados pela maioria dos formandos


(poucos o não fizeram), embora nem todos tenham reflectido essas leituras nos
seus trabalhos, como solicitado.

A forma como cada um apresentou o seu Plano foi mais ou menos variada,
mas todos, de um modo geral, se fizermos uma leitura cumulativa, dado uns
terem ido mais longe e outros terem apresentado planos mais limitados,
apresentaram uma planificação englobando os diferentes aspectos ou etapas,
de enquadramento, diagnóstico, identificação do problema e objecto da
avaliação, indicação dos factores críticos aplicáveis, selecção dos métodos e
técnicas a utilizar, enumeração dos intervenientes no processo, aplicação dos
instrumentos identificados, recolha e tratamento dos dados, análise e
interpretação da informação obtida, síntese e comunicação dos resultados, etc.

As conclusões retiradas da elaboração dos diferentes trabalhos, oferecem-nos


a realização os seguintes comentários:

O primeiro sintetiza-se na seguinte observação: O Modelo não pode ser visto


ou antecipado como uma abstracção, vazia de conteúdos.
Quer isto dizer, que quando, por exemplo, no Indicador B1 se identifica como
factor de sucesso, a organização de actividades de promoção de leitura e se
remete na recolha de evidências para os registos dessas actividades, o que se
solicita à BE no final do processo global de auto-avaliação do Domínio não é
apenas que diga que organizou as ditas actividades, mas que as identifique,
apontando as evidências (dados) que lhe permitem sustentar o seu valor em
termos de desempenho da BE e/ou dos seus utilizadores. Isto implica uma
indicação das actividades planeadas onde à partida se incorpora desde logo a
respectiva avaliação. O Plano de avaliação articula-se necessariamente com o
Plano de actividades.
Se quisermos dar outro exemplo, desta feita sobre um indicador de impacto,
como o B3, o mesmo se lhe aplica. Não basta referir genericamente que os
alunos desenvolveram as competências a ou b. Devem identificar-se as
actividades concretas que foram realizadas em relação com esse objectivo e
que sustentaram a recolha de dados que atestam que essas competências
foram efectivamente desenvolvidas. Isto significa que para avaliar um
indicador, temos que utilizar como “matéria-prima” actividades concretas
(tangíveis), sejam elas relacionadas com as acções de gestão desencadeadas
pela biblioteca em relação com o domínio da leitura e da literacia, sejam elas
incidentes nos campos da aprendizagem ou da formação global dos alunos no
mesmo domínio.
Daqui resultaram, deste modo, duas abordagens diferentes de pegar nesta
actividade, uma mais macro ou ampla, seguindo uma linha mais teórica e mais
próxima do documento do Modelo e dos textos de apoio; outra mais específica
e facilitada para quem cumpre funções de professor-bibliotecário e dispõe de
um Plano de Actividades com incidência no domínio que se propôs planear.
A maioria optou por seguir de muito perto as tabelas, de que não chega a
distanciar-se, avançando pouco numa planificação que desejavelmente se
pretende o mais possível específica e concretizada.

Uma segunda observação, decorrente da primeira, pode sintetizar-se na frase:


a estrutura do Modelo em tabelas não configura em si mesmo qualquer tipo
Plano de avaliação.
Prende-se esta observação com o facto de alguns dos Planos propostos se
restringirem muito à indicação dos indicadores, factores críticos de sucesso e
instrumentos de recolha/evidências, decalcando, deste modo, em grande
medida as tabelas do Modelo.
Em geral verificou-se que outros aspectos, como, por exemplo, o das acções
de preparação da aplicação do modelo junto da escola, da indicação
discriminada dos intervenientes a implicar em cada uma das acções, do
trabalho a realizar sobre cada tipo de dados, de produção escrita e divulgação
de conclusões ou de indicação detalhada do calendário das diferentes acções
aparece indicada de uma forma muito global numa introdução ou no final, não
se cruzando com as matérias da avaliação inscritas nas tabelas apresentadas.
Uma tabela de planificação do Modelo deve ser certamente distinta das tabelas
do Modelo e, se possível, abarcar e cruzar todos os aspectos inerentes à sua
aplicação.

Uma terceira observação relaciona-se com uma certa confusão na distinção


entre indicadores de processo e de impacto. Processos e impactos remetem
para aspectos de natureza diferente.
Os processos dizem respeito ao que a BE faz nos diferentes domínios da sua
actuação. Os indicadores (ou factores) de processo têm geralmente uma
redacção do tipo: A BE desenvolve, colabora, assegura, realiza, etc. Os
impactos dizem respeito às consequências em termos de novas
aprendizagens, desenvolvimento de capacidades, atitudes, etc., que aquelas
acções têm, fazendo uso de expressões como: os alunos revelam, aplicam,
estabelecem, desenvolvem, usam, participam, etc.
O exercício de selecção de um indicador de processo e outro de impacto,
aparentemente tão simples, não era, contudo, assim tão linear, obrigando a
olhar com atenção para a sua composição, através da análise dos respectivos
factores críticos.
Por exemplo, quem escolheu o A2.1 sobre a formação de utilizadores, e o
designou de processo, sem mais, não reparou que ele, ao contrário dos
restantes indicadores do A2, onde separámos sempre os processos dos
impactos, reúne 2 factores de processo (Ex. O plano de trabalho da BE inclui
actividades de formação de utilizadores ou A BE produz materiais informativos
e/ou lúdicos de apoio à formação dos utilizadores) e 1 factor de impacto
(Alunos e docentes desenvolvem competências para o uso da BE revelando
um maior nível de autonomia na sua utilização após as sessões de formação
de utilizadores).
O mesmo acontece exactamente em relação ao C1.1 e ao C1.3, os únicos com
factores de impacto directos e que podiam ser usados como seu exemplo.
No Domínio B, B1 e B2 são nitidamente indicadores de processo no seu todo e
o B3, um indicador de impacto.

Finalmente, registo uma última observação em que creio, parece nunca ser
demais insistir: Instrumentos de recolha de evidências e evidências são coisas
diferentes.
Algumas formandas estabelecem alguma confusão entre uma coisa e a outra,
não sei se por coincidência. Os PAA, PCT, Guia e Guiões, os trabalhos
escolares, são documentos de onde podemos extrair evidências, mas não são
eles próprios evidências. Por outro lado, sessões de formação, reuniões entre
docentes, etc. são actividades. Os registos associados a estas actividades é
que nos podem fornecer evidências, mas também elas não são evidências em
si mesmas. Este lapso foi cometido, sobretudo, pelos formandos a quem
ocorreu na tabela criar uma coluna para indicar os instrumentos e outra para as
evidências, cuja utilidade não me parece muito pertinente.

Julgo que todos os formandos serão capazes de se reconhecer nas


observações gerais referidas. Sabendo, no entanto, em boa parte devido à
minha experiência enquanto formadora na RBE, da vontade de quase todos os
formandos, de receber um feedback sobre os seus trabalhos mais
individualizado, darei ainda indicação da avaliação qualitativa que realizei.
Lembro que a avaliação deste trabalho incide não apenas no conteúdo mas
também no facto do mesmo estar completo e responder cabalmente ao que se
pediu na actividade da sessão, o que nem sempre aconteceu.

Todos os trabalhos foram classificados com nota positiva. Naturalmente, uns


foram melhor conseguidos do que outros. Os melhores trabalhos foram os da
Maritza, da Lucinda e da Fátima Dias, seguidos pelos trabalhos da Joaquina,
da Isabel Marques, da Fátima Sebastião, da Maria José Palmeira, da Elisa
Almeida, da Fernanda Freitas e da Sandra Bettencourt. A seguir situaram-se os
trabalhos da Isabel Estaço, Teresa Semedo, Carla Valente, Aida e Madalena e
na base, ainda positivos, mas mais fracos, ficaram os trabalhos do Luís, da
Maria José Vilhena, da Maria José Leal, da Lucília, da Almerinda e da Luísa.

Continuamos a contar com a vossa persistência e empenho nesta formação,


cuja utilidade creio ser reconhecida por todos.

Desejamos a todos a continuação de um óptimo trabalho!

Um abraço,

As formadoras