Article publié le mercredi 20 novembre 2019.
Attention, évaluations fraîches !
Les
enseignants de CP et de CE1 ont à peine fini de rentrer les réponses de
leurs élèves que le ministre communique déjà sur une progression
positive : « Le niveau remonte ! ». Il y voit les premiers signes de
l’efficacité de sa politique. Or, il suffit de se pencher un peu plus
attentivement sur la note de la DEPP pour se rendre compte qu’il faut
rester prudent sur ces premiers résultats.
Objectif affiché, évaluations détournées
Rappelons-le, l’objectif affiché des évaluations nationales CP/CE1
est de permettre aux enseignants de déceler les élèves susceptibles de
rencontrer des difficultés dans les apprentissages à mener dans ces
classes, afin de pouvoir mettre en œuvre des aides adaptées. Elles sont
donc prĂ©sentĂ©es comme « prĂ©dictives » et non pas « sommatives » : elles
ne sont donc pas censées évaluer les acquis de chaque élève ( C’est
d’ailleurs ainsi que le ministère justifie la présence de certains
exercices très éloignés des pratiques scolaires habituelles). En
conséquence, elles ne peuvent pas servir à mesurer l’évolution du niveau
global d’une année sur l’autre.
Évaluations généralisées, conditions non contrôlées
S’ajoute à ce point fondamental, le fait qu’il est impossible de
contrôler la façon dont les enseignants font passer ces évaluations : il
peut y avoir potentiellement autant de protocoles qu’il y a de
situation de classes. On peut aisément imaginer que dans une classe ne
comptant que 12 élèves, il est plus facile de voir où en est chacun, de
pouvoir réexpliquer à certains une consigne qui serait mal comprise.
Cela pourrait suffire à expliquer le resserrement de l’écart entre
éducation prioritaire et hors éducation prioritaire. En tout cas, c’est
une hypothèse tout aussi vraisemblable que d’affirmer sans recul que le
dédoublement des classes a permis de réduire les inégalités, même si on
peut le souhaiter au vu du coût de cette politique.
Communication précipitée, travail bâclé
Le document de la DEPP de 70 pages,
document de travail non abouti tant sur la forme que sur le fond ne
comporte pas des éléments essentiels qui permettraient de tirer des
conclusions. On ne sait pas par exemple quand les Ă©carts entre les 2
sessions 2018 et 2019, ou entre les résultats hors REP/REP/REP+ sont
significatifs ou non. Sans cette information issue de la méthode
statistique employée, il est impossible de savoir si les écarts observés
sont significatifs.
Exercices déroutants, seuils surprenants
Ce document confirme ce que Roland Goigoux avait révélé il y a
quelques mois à savoir que les seuils de réussite aux exercices ont été
fixés non pas a priori mais avec l’étude de la répartition des premières
réponses saisies sur la plateforme. Ainsi un exercice généralement bien
réussi a un seuil de réussite élevé, les moins réussis un seuil plus
bas. Par exemple un exercice peut être considéré comme réussi avec 12
items corrects sur 15 et un autre avec 3 items corrects sur 8.
Écarts réduits, oui, mais pour qui ?
D’après ce document, les écarts se réduisent, surtout en CE1, entre
les résultats des élèves en REP ou hors REP, ce qui serait, selon la
DEPP, liĂ© aux dĂ©doublements des classes dans les REP+ puis les REP. Or, Ă
y regarder de plus près, en admettant qu’on puisse tirer des
enseignements de résultats dont on ne connait pas la significativité et
non complètement analysés, on peut observer une augmentation de nombreux
écarts entre les résultats des élèves en REP+ et des élèves hors REP
(tableaux pages 65 et 68). Il y a donc une forte nuance Ă apporter au
satisfecit ministériel.
Compréhension ou déchiffrage ? Où est le problème ?
Toujours dans l’hypothèse où ces résultats seraient interprétables,
on peut s’inquiéter de voir la confirmation que la compréhension de mots
et de phrases lues par l’enseignant est très échouée par les élèves en
éducation prioritaire comparés aux élèves hors REP. Cela apparaissait
déjà clairement dans
les dernières évaluations PIRLS
comme un point faible des élèves français. Donc la focalisation
actuelle du ministère sur la phonologie et la fluence comme prĂ©alable Ă
la compréhension est ici totalement désavouée. Pire, on peut penser que
le temps passé à entrainer ces habiletés techniques se fait au détriment
des activités de compréhension et pourrait aggraver la situation.
« L’effet Ă©valuations », un grand classique
L’amélioration des résultats entre 2018 et 2019, dont on ne sait pas
si elle est significative, ne dit pas que les élèves ont réellement
progressĂ© dans leurs apprentissages car il s’agit d’un “effet
Ă©valuation” classique. En effet, consciemment ou non, quand il y a de
nouvelles Ă©valuations les enseignants se focalisent davantage sur ce qui
est évalué, les élèves sont donc mieux préparés aux items sans avoir
forcément progressé sur le fond. Cet effet peut durer plusieurs années*.
Il paraît donc vain de vouloir conclure à une hausse du niveau des
élèves en comparant la deuxième session à la première.
En résumé, il est impossible d’identifier avec certitude à quoi sont
dues les timides évolutions des résultats, que ces dernières soient
positives ou nĂ©gatives. Pour un ministre qui fait de la « preuve
scientifique » le fondement de ses choix, il est pour le moins Ă©tonnant
de le voir formuler des hypothèses explicatives sur des bases aussi
fragiles. Les enseignants en concluront que ces Ă©valuations servent
davantage à la communication politique qu’à l’action pédagogique. Pas
vraiment la bonne stratégie pour les réconcilier avec ces évaluations !
Le SE-Unsa
rappelle une fois de plus que les professionnels, ce sont les
enseignants. Il les invite à tirer ce qu’ils jugent utile de ces
évaluations nationales pour leurs élèves et à ne les considérer bien
entendu que comme un élément d’information parmi d’autres.