SECTION SE-Unsa de la LOIRE - BOURSE DU TRAVAIL - SALLE 61 - 2 COURS VICTOR HUGO - 42028 ST ETIENNE CEDEX
Tél. 04 77 33 08 55 - 42@se-unsa.org

 
Evaluations CP/CE1 : Attention, Ă©valuations fraĂźches !
Article publié le mardi 5 novembre 2019.
  • Lnk_facebook
  • Lnk_google
  • Lnk_twitter

 

Les enseignants de CP et de CE1 ont Ă  peine fini de rentrer les rĂ©ponses de leurs Ă©lĂšves que le ministre communique dĂ©jĂ  sur une progression positive : « Le niveau remonte ! Â». Il y voit les premiers signes de l’efficacitĂ© de sa politique. Or, il suffit de se pencher un peu plus attentivement sur la note de la DEPP pour se rendre compte qu’il faut rester prudent sur ces premiers rĂ©sultats.
 
 
 
Objectif affiché, évaluations détournées
 
Rappelons-le, l’objectif affichĂ© des Ă©valuations nationales CP/CE1 est de permettre aux enseignants de dĂ©celer les Ă©lĂšves susceptibles de rencontrer des difficultĂ©s dans les apprentissages Ă  mener dans ces classes, afin de pouvoir mettre en Ɠuvre des aides adaptĂ©es. Elles sont donc prĂ©sentĂ©es comme « prĂ©dictives Â» et non pas « sommatives Â» : elles ne sont donc pas censĂ©es Ă©valuer les acquis de chaque Ă©lĂšve ( C’est d’ailleurs ainsi que le ministĂšre justifie la prĂ©sence de certains exercices trĂšs Ă©loignĂ©s des pratiques scolaires habituelles). En consĂ©quence, elles ne peuvent pas servir Ă  mesurer l’évolution du niveau global d’une annĂ©e sur l’autre.
 
 
 
Évaluations gĂ©nĂ©ralisĂ©es, conditions non contrĂŽlĂ©es
 
S’ajoute Ă  ce point fondamental, le fait qu’il est impossible de contrĂŽler la façon dont les enseignants font passer ces Ă©valuations : il peut y avoir potentiellement autant de protocoles qu’il y a de situation de classes. On peut aisĂ©ment imaginer que dans une classe ne comptant que 12 Ă©lĂšves, il est plus facile de voir oĂč en est chacun, de pouvoir rĂ©expliquer Ă  certains une consigne qui serait mal comprise. Cela pourrait suffire Ă  expliquer le resserrement de l’écart entre Ă©ducation prioritaire et hors Ă©ducation prioritaire. En tout cas, c’est une hypothĂšse tout aussi vraisemblable que d’affirmer sans recul que le dĂ©doublement des classes a permis de rĂ©duire les inĂ©galitĂ©s, mĂȘme si on peut le souhaiter au vu du coĂ»t de cette politique.
 
 
 
Communication précipitée, travail bùclé
 
Le document de la DEPP de 70 pages, document de travail non abouti tant sur la forme que sur le fond ne comporte pas des éléments essentiels qui permettraient de tirer des conclusions. On ne sait pas par exemple quand les écarts entre les 2 sessions 2018 et 2019, ou entre les résultats hors REP/REP/REP+ sont significatifs ou non. Sans cette information issue de la méthode statistique employée, il est impossible de savoir si les écarts observés sont significatifs.
 
 
 
Exercices déroutants, seuils surprenants
 
Ce document confirme ce que Roland Goigoux avait rĂ©vĂ©lĂ© il y a quelques mois Ă  savoir que les seuils de rĂ©ussite aux exercices ont Ă©tĂ© fixĂ©s non pas a priori mais avec l’étude de la rĂ©partition des premiĂšres rĂ©ponses saisies sur la plateforme. Ainsi un exercice gĂ©nĂ©ralement bien rĂ©ussi a un seuil de rĂ©ussite Ă©levĂ©, les moins rĂ©ussis un seuil plus bas. Par exemple un exercice peut ĂȘtre considĂ©rĂ© comme rĂ©ussi avec 12 items corrects sur 15 et un autre avec 3 items corrects sur 8.
 
 
 
Écarts rĂ©duits, oui, mais pour qui ?
 
D’aprĂšs ce document, les Ă©carts se rĂ©duisent, surtout en CE1, entre les rĂ©sultats des Ă©lĂšves en REP ou hors REP, ce qui serait, selon la DEPP, liĂ© aux dĂ©doublements des classes dans les REP+ puis les REP. Or, Ă  y regarder de plus prĂšs, en admettant qu’on puisse tirer des enseignements de rĂ©sultats dont on ne connait pas la significativitĂ© et non complĂštement analysĂ©s, on peut observer une augmentation de nombreux Ă©carts entre les rĂ©sultats des Ă©lĂšves en REP+ et des Ă©lĂšves hors REP (tableaux pages 65 et 68). Il y a donc une forte nuance Ă  apporter au satisfecit ministĂ©riel.
 
 
 
ComprĂ©hension ou dĂ©chiffrage ? OĂč est le problĂšme ?
 
Toujours dans l’hypothĂšse oĂč ces rĂ©sultats seraient interprĂ©tables, on peut s’inquiĂ©ter de voir la confirmation que la comprĂ©hension de mots et de phrases lues par l’enseignant est trĂšs Ă©chouĂ©e par les Ă©lĂšves en Ă©ducation prioritaire comparĂ©s aux Ă©lĂšves hors REP. Cela apparaissait dĂ©jĂ  clairement dans les derniĂšres Ă©valuations PIRLS comme un point faible des Ă©lĂšves français. Donc la focalisation actuelle du ministĂšre sur la phonologie et la fluence comme prĂ©alable Ă  la comprĂ©hension est ici totalement dĂ©savouĂ©e. Pire, on peut penser que le temps passĂ© Ă  entrainer ces habiletĂ©s techniques se fait au dĂ©triment des activitĂ©s de comprĂ©hension et pourrait aggraver la situation.
 
 
 
« L’effet Ă©valuations Â», un grand classique
 
L’amĂ©lioration des rĂ©sultats entre 2018 et 2019, dont on ne sait pas si elle est significative, ne dit pas que les Ă©lĂšves ont rĂ©ellement progressĂ© dans leurs apprentissages car il s’agit d’un “effet Ă©valuation” classique. En effet, consciemment ou non, quand il y a de nouvelles Ă©valuations les enseignants se focalisent davantage sur ce qui est Ă©valuĂ©, les Ă©lĂšves sont donc mieux prĂ©parĂ©s aux items sans avoir forcĂ©ment progressĂ© sur le fond. Cet effet peut durer plusieurs annĂ©es*. Il paraĂźt donc vain de vouloir conclure Ă  une hausse du niveau des Ă©lĂšves en comparant la deuxiĂšme session Ă  la premiĂšre. 
 

En rĂ©sumĂ©, il est impossible d’identifier avec certitude Ă  quoi sont dues les timides Ă©volutions des rĂ©sultats, que ces derniĂšres soient positives ou nĂ©gatives. Pour un ministre qui fait de la « preuve scientifique Â» le fondement de ses choix, il est pour le moins Ă©tonnant de le voir formuler des hypothĂšses  explicatives sur des bases aussi fragiles. Les enseignants en concluront que ces Ă©valuations servent davantage Ă  la communication politique qu’à l’action pĂ©dagogique. Pas vraiment la bonne stratĂ©gie pour les rĂ©concilier avec ces Ă©valuations !
 

Le SE-Unsa rappelle une fois de plus que les professionnels, ce sont les enseignants. Il les invite Ă  tirer ce qu’il jugent utile de ces Ă©valuations nationales pour leurs Ă©lĂšves  et Ă  ne les considĂ©rer bien entendu que comme un Ă©lĂ©ment d’information parmi d’autres.
 
 
*"les effets de l’évaluation standardisĂ©e doivent ĂȘtre analysĂ©s sur le long terme, du fait de probables effets artificiels lors des toutes premiĂšres annĂ©es."
Nathalie Mons, « Effets thĂ©oriques et rĂ©els des politiques d’évaluation standardisĂ©e », Revue française de pĂ©dagogie [En ligne], 169 | octobre-dĂ©cembre 2009, mis en ligne le 01 octobre 2013, consultĂ© le 04 novembre 2019. URL : http://journals.openedition.org/rfp/1531 ; DOI : 10.4000/rfp.1531
 

 

 
 
 
 
ALC