Article publié le mardi 28 janvier 2020.
Évaluations CP/CE1 : l’inspection générale trouve difficilement des arguments positifs
Un
rapport de l’inspection générale (IG) vient de sortir sur les
Ă©valuations CP/CE1 suite Ă des observations faites lors des passations
de septembre 2019. L’inspection propose des prĂ©conisations et peine Ă
être positive alors que les écoles observées ont été choisies par les
Dasen.
On connaît la propension de l’IG à rédiger des rapports dans lesquels
les difficultés sont évoquées avec des mots choisis et euphémisants. À
lire ce rapport, on peut se dire que les Ă©valuations CP/CE1 sont loin
d’avoir fait leurs preuves et de pouvoir être considérées comme des
preuves scientifiques sur lesquelles appuyer une politique ministérielle
ou une action pédagogique.
Un exemple : alors que les 43 écoles n’ont pas été choisies au hasard
puisque retenues par les Dasen eux-mêmes et malgré la présence des IG
dans les classes lors de la passation, les enseignants n’ont pas tous
respecté les consignes de passation, les jugeant inadaptées.
Lors des entretiens avec les enseignants, ce sont les Ă©preuves de
mathématiques qui ont été les plus critiquées. Celles de français
semblent davantage correspondre à ce que des élèves de ces niveaux
devraient savoir faire.
L’IG enjoint les concepteurs à revoir leur copie en mathématiques
dont seule la moitié des exercices est appréciée par les équipes
interrogées. Les améliorations apportées entre la première et la
deuxième session n’ont pas suffi pour que les enseignants envisagent
d’un bon œil ces évaluations.
Selon l’IG, le regard des équipes des écoles retenues dans le panel
est généralement positif mais un tiers reste à convaincre.
Les documents d’aide fournis par Eduscol sont soit inconnus, soit
inutilisés par la majorité des enseignants interrogés. C’est une des
problématiques du protocole, il n’y a pas assez de temps dédiés pour que
les enseignants s’en saisissent.
La transmission des résultats aux familles existe dans la majorité
des cas même si des équipes s’y refusent, jugeant que les résultats ne
reflètent pas le niveau des élèves.
Les conditions de passation sont très disparates suivant les moyens
humains et matériels disponibles. Ce qui entraîne des doutes
supplémentaires quant à la valeur scientifique des résultats en vue d’un
pilotage académique voire national.
Le rapport pointe le flou de ce pilotage mĂŞme sur le plan local :« Les
Ă©valuations ont-elles eu un impact sur les formations qui seront
déployées cette année ? Des accompagnements vont-ils être organisés pour
mieux aider les Ă©coles qui accueillent les Ă©lèves les plus fragiles ? »
Ainsi, alors que ces évaluations sont présentées dans la
communication officielle comme des supports essentiels pour déterminer
des politiques de formation et d’animation pédagogique des
circonscriptions et au sein des Ă©coles, la mission ne constate pas
d’effets de ces évaluations sur le pilotage pédagogique, sur
l’ajustement des plans de formation. Ce qui est un comble, car si ces
évaluations se révèlent peu utiles pour les enseignants dans leur classe
et qu’elles ne sont pas exploitées par l’encadrement pédagogique, on ne
voit pas au final Ă quoi elles peuvent bien servir.
Le SE-Unsa
considère que ces évaluations devraient être au service des équipes pour
l’amélioration du suivi des élèves les plus fragiles. Or, actuellement,
de la conception à la passation, de nombreux paramètres empêchent ces
évaluations d’être un outil pertinent. De nombreux exercices devraient
être revus, des temps d’appropriation devraient être prévus pour les
enseignants, des moyens humains également afin que les élèves puissent
les passer dans de bonnes conditions. Enfin certains exercices sont
encore trop longs et ne prennent pas en compte ce que les élèves sont en
capacité de comprendre et d’exécuter.