Retour à l'article normal

SE-UNSA 56


 Par SE-UNSA 56
 Le  mercredi 6 novembre 2019

Attention, évaluations fraîches !

 
Les enseignants de CP et de CE1 ont à peine fini de rentrer les réponses de leurs élèves que le ministre communique déjà sur une progression positive : « Le niveau remonte ! ». Il y voit les premiers signes de l’efficacité de sa politique. Or, il suffit de se pencher un peu plus attentivement sur la note de la DEPP pour se rendre compte qu’il faut rester prudent sur ces premiers résultats.
 
 
 
Objectif affiché, évaluations détournées
 
Rappelons-le, l’objectif affiché des évaluations nationales CP/CE1 est de permettre aux enseignants de déceler les élèves susceptibles de rencontrer des difficultés dans les apprentissages à mener dans ces classes, afin de pouvoir mettre en œuvre des aides adaptées. Elles sont donc présentées comme « prédictives » et non pas « sommatives » : elles ne sont donc pas censées évaluer les acquis de chaque élève ( C’est d’ailleurs ainsi que le ministère justifie la présence de certains exercices très éloignés des pratiques scolaires habituelles). En conséquence, elles ne peuvent pas servir à mesurer l’évolution du niveau global d’une année sur l’autre.
 
 
 
Évaluations généralisées, conditions non contrôlées
 
S’ajoute à ce point fondamental, le fait qu’il est impossible de contrôler la façon dont les enseignants font passer ces évaluations : il peut y avoir potentiellement autant de protocoles qu’il y a de situation de classes. On peut aisément imaginer que dans une classe ne comptant que 12 élèves, il est plus facile de voir où en est chacun, de pouvoir réexpliquer à certains une consigne qui serait mal comprise. Cela pourrait suffire à expliquer le resserrement de l’écart entre éducation prioritaire et hors éducation prioritaire. En tout cas, c’est une hypothèse tout aussi vraisemblable que d’affirmer sans recul que le dédoublement des classes a permis de réduire les inégalités, même si on peut le souhaiter au vu du coût de cette politique.
 
 
 
Communication précipitée, travail bâclé
 
Le document de la DEPP de 70 pages, document de travail non abouti tant sur la forme que sur le fond ne comporte pas des éléments essentiels qui permettraient de tirer des conclusions. On ne sait pas par exemple quand les écarts entre les 2 sessions 2018 et 2019, ou entre les résultats hors REP/REP/REP+ sont significatifs ou non. Sans cette information issue de la méthode statistique employée, il est impossible de savoir si les écarts observés sont significatifs.
 
 
 
Exercices déroutants, seuils surprenants
 
Ce document confirme ce que Roland Goigoux avait révélé il y a quelques mois à savoir que les seuils de réussite aux exercices ont été fixés non pas a priori mais avec l’étude de la répartition des premières réponses saisies sur la plateforme. Ainsi un exercice généralement bien réussi a un seuil de réussite élevé, les moins réussis un seuil plus bas. Par exemple un exercice peut être considéré comme réussi avec 12 items corrects sur 15 et un autre avec 3 items corrects sur 8.
 
 
 
Écarts réduits, oui, mais pour qui ?
 
D’après ce document, les écarts se réduisent, surtout en CE1, entre les résultats des élèves en REP ou hors REP, ce qui serait, selon la DEPP, lié aux dédoublements des classes dans les REP+ puis les REP. Or, à y regarder de plus près, en admettant qu’on puisse tirer des enseignements de résultats dont on ne connait pas la significativité et non complètement analysés, on peut observer une augmentation de nombreux écarts entre les résultats des élèves en REP+ et des élèves hors REP (tableaux pages 65 et 68). Il y a donc une forte nuance à apporter au satisfecit ministériel.
 
 
 
Compréhension ou déchiffrage ? Où est le problème ?
 
Toujours dans l’hypothèse où ces résultats seraient interprétables, on peut s’inquiéter de voir la confirmation que la compréhension de mots et de phrases lues par l’enseignant est très échouée par les élèves en éducation prioritaire comparés aux élèves hors REP. Cela apparaissait déjà clairement dans les dernières évaluations PIRLS comme un point faible des élèves français. Donc la focalisation actuelle du ministère sur la phonologie et la fluence comme préalable à la compréhension est ici totalement désavouée. Pire, on peut penser que le temps passé à entrainer ces habiletés techniques se fait au détriment des activités de compréhension et pourrait aggraver la situation.
 
 
 
« L’effet évaluations », un grand classique
 
L’amélioration des résultats entre 2018 et 2019, dont on ne sait pas si elle est significative, ne dit pas que les élèves ont réellement progressé dans leurs apprentissages car il s’agit d’un “effet évaluation” classique. En effet, consciemment ou non, quand il y a de nouvelles évaluations les enseignants se focalisent davantage sur ce qui est évalué, les élèves sont donc mieux préparés aux items sans avoir forcément progressé sur le fond. Cet effet peut durer plusieurs années*. Il paraît donc vain de vouloir conclure à une hausse du niveau des élèves en comparant la deuxième session à la première. 
 

En résumé, il est impossible d’identifier avec certitude à quoi sont dues les timides évolutions des résultats, que ces dernières soient positives ou négatives. Pour un ministre qui fait de la « preuve scientifique » le fondement de ses choix, il est pour le moins étonnant de le voir formuler des hypothèses  explicatives sur des bases aussi fragiles. Les enseignants en concluront que ces évaluations servent davantage à la communication politique qu’à l’action pédagogique. Pas vraiment la bonne stratégie pour les réconcilier avec ces évaluations !
 

Le SE-Unsa rappelle une fois de plus que les professionnels, ce sont les enseignants. Il les invite à tirer ce qu’ils jugent utile de ces évaluations nationales pour leurs élèves  et à ne les considérer bien entendu que comme un élément d’information parmi d’autres.
 
 
*"les effets de l’évaluation standardisée doivent être analysés sur le long terme, du fait de probables effets artificiels lors des toutes premières années."
Nathalie Mons, « Effets théoriques et réels des politiques d’évaluation standardisée », Revue française de pédagogie [En ligne], 169 | octobre-décembre 2009, mis en ligne le 01 octobre 2013, consulté le 04 novembre 2019. URL : http://journals.openedition.org/rfp/1531 ; DOI : 10.4000/rfp.1531