SECTION ACADÉMIQUE SE-Unsa de HORS DE FRANCE - 209 BD ST GERMAIN - 75007 PARIS
Tél. 01 44 39 23 17 - hdf@se-unsa.org

 
Attention, Ă©valuations fraĂ®ches !
Article publié le jeudi 7 novembre 2019.
  • Lnk_facebook
  • Lnk_google
  • Lnk_twitter

 

Les enseignants de CP et de CE1 ont Ă  peine fini de rentrer les rĂ©ponses de leurs Ă©lèves que le ministre communique dĂ©jĂ  sur une progression positive : « Le niveau remonte ! Â». Il y voit les premiers signes de l’efficacitĂ© de sa politique. Or, il suffit de se pencher un peu plus attentivement sur la note de la DEPP pour se rendre compte qu’il faut rester prudent sur ces premiers rĂ©sultats.
 
 
Objectif affiché, évaluations détournées
 
Rappelons-le, l’objectif affichĂ© des Ă©valuations nationales CP/CE1 est de permettre aux enseignants de dĂ©celer les Ă©lèves susceptibles de rencontrer des difficultĂ©s dans les apprentissages Ă  mener dans ces classes, afin de pouvoir mettre en Ĺ“uvre des aides adaptĂ©es. Elles sont donc prĂ©sentĂ©es comme « prĂ©dictives Â» et non pas « sommatives Â» : elles ne sont donc pas censĂ©es Ă©valuer les acquis de chaque Ă©lève ( C’est d’ailleurs ainsi que le ministère justifie la prĂ©sence de certains exercices très Ă©loignĂ©s des pratiques scolaires habituelles). En consĂ©quence, elles ne peuvent pas servir Ă  mesurer l’évolution du niveau global d’une annĂ©e sur l’autre.
 
 
Évaluations généralisées, conditions non contrôlées
 
S’ajoute Ă  ce point fondamental, le fait qu’il est impossible de contrĂ´ler la façon dont les enseignants font passer ces Ă©valuations : il peut y avoir potentiellement autant de protocoles qu’il y a de situation de classes. On peut aisĂ©ment imaginer que dans une classe ne comptant que 12 Ă©lèves, il est plus facile de voir oĂą en est chacun, de pouvoir rĂ©expliquer Ă  certains une consigne qui serait mal comprise. Cela pourrait suffire Ă  expliquer le resserrement de l’écart entre Ă©ducation prioritaire et hors Ă©ducation prioritaire. En tout cas, c’est une hypothèse tout aussi vraisemblable que d’affirmer sans recul que le dĂ©doublement des classes a permis de rĂ©duire les inĂ©galitĂ©s, mĂŞme si on peut le souhaiter au vu du coĂ»t de cette politique.
 
 
Communication précipitée, travail bâclé
 
Le document de la DEPP de 70 pages, document de travail non abouti tant sur la forme que sur le fond ne comporte pas des éléments essentiels qui permettraient de tirer des conclusions. On ne sait pas par exemple quand les écarts entre les 2 sessions 2018 et 2019, ou entre les résultats hors REP/REP/REP+ sont significatifs ou non. Sans cette information issue de la méthode statistique employée, il est impossible de savoir si les écarts observés sont significatifs.
 
 
Exercices déroutants, seuils surprenants
 
Ce document confirme ce que Roland Goigoux avait révélé il y a quelques mois à savoir que les seuils de réussite aux exercices ont été fixés non pas a priori mais avec l’étude de la répartition des premières réponses saisies sur la plateforme. Ainsi un exercice généralement bien réussi a un seuil de réussite élevé, les moins réussis un seuil plus bas. Par exemple un exercice peut être considéré comme réussi avec 12 items corrects sur 15 et un autre avec 3 items corrects sur 8.
 
 
Écarts rĂ©duits, oui, mais pour qui ?
 
D’après ce document, les écarts se réduisent, surtout en CE1, entre les résultats des élèves en REP ou hors REP, ce qui serait, selon la DEPP, lié aux dédoublements des classes dans les REP+ puis les REP. Or, à y regarder de plus près, en admettant qu’on puisse tirer des enseignements de résultats dont on ne connait pas la significativité et non complètement analysés, on peut observer une augmentation de nombreux écarts entre les résultats des élèves en REP+ et des élèves hors REP (tableaux pages 65 et 68). Il y a donc une forte nuance à apporter au satisfecit ministériel.
 
 
ComprĂ©hension ou dĂ©chiffrage ? OĂą est le problème ?
 
Toujours dans l’hypothèse où ces résultats seraient interprétables, on peut s’inquiéter de voir la confirmation que la compréhension de mots et de phrases lues par l’enseignant est très échouée par les élèves en éducation prioritaire comparés aux élèves hors REP. Cela apparaissait déjà clairement dans les dernières évaluations PIRLS comme un point faible des élèves français. Donc la focalisation actuelle du ministère sur la phonologie et la fluence comme préalable à la compréhension est ici totalement désavouée. Pire, on peut penser que le temps passé à entrainer ces habiletés techniques se fait au détriment des activités de compréhension et pourrait aggraver la situation.
 
 
« L’effet Ă©valuations Â», un grand classique
 
L’amĂ©lioration des rĂ©sultats entre 2018 et 2019, dont on ne sait pas si elle est significative, ne dit pas que les Ă©lèves ont rĂ©ellement progressĂ© dans leurs apprentissages car il s’agit d’un “effet Ă©valuation” classique. En effet, consciemment ou non, quand il y a de nouvelles Ă©valuations les enseignants se focalisent davantage sur ce qui est Ă©valuĂ©, les Ă©lèves sont donc mieux prĂ©parĂ©s aux items sans avoir forcĂ©ment progressĂ© sur le fond. Cet effet peut durer plusieurs annĂ©es*. Il paraĂ®t donc vain de vouloir conclure Ă  une hausse du niveau des Ă©lèves en comparant la deuxième session Ă  la première. 
 

En rĂ©sumĂ©, il est impossible d’identifier avec certitude Ă  quoi sont dues les timides Ă©volutions des rĂ©sultats, que ces dernières soient positives ou nĂ©gatives. Pour un ministre qui fait de la « preuve scientifique Â» le fondement de ses choix, il est pour le moins Ă©tonnant de le voir formuler des hypothèses  explicatives sur des bases aussi fragiles. Les enseignants en concluront que ces Ă©valuations servent davantage Ă  la communication politique qu’à l’action pĂ©dagogique. Pas vraiment la bonne stratĂ©gie pour les rĂ©concilier avec ces Ă©valuations !
 

Le SE-Unsa rappelle une fois de plus que les professionnels, ce sont les enseignants. Il les invite Ă  tirer ce qu’ils jugent utile de ces Ă©valuations nationales pour leurs Ă©lèves  et Ă  ne les considĂ©rer bien entendu que comme un Ă©lĂ©ment d’information parmi d’autres.
 
 
*"les effets de l’évaluation standardisée doivent être analysés sur le long terme, du fait de probables effets artificiels lors des toutes premières années."
Nathalie Mons, « Effets théoriques et réels des politiques d’évaluation standardisée », Revue française de pédagogie [En ligne], 169 | octobre-décembre 2009, mis en ligne le 01 octobre 2013, consulté le 04 novembre 2019. URL : http://journals.openedition.org/rfp/1531 ; DOI : 10.4000/rfp.1531
 
 
 
PĂ©tition
 
Nos campagnes
 
Santé
 
Aides spécifiques
 
Mouvement
 
Conditions de travail
 
Concours
 
ALC