SECTION SE-Unsa du GARD - 4 RUE JEAN BOUIN - 30000 NIMES
Tél. 04 66 70 67 67 - Fax. 04 66 29 91 10 - Por. 06 23 66 14 92 - 30@se-unsa.org

 
Evaluations CP/CE1 : MĂ©thodologie discutable et communication orientĂ©e
Article publié le mardi 4 juin 2019.
  • Lnk_facebook
  • Lnk_google
  • Lnk_twitter
Les Ă©valuations CP/CE1 seront reconduites Ă  la rentrĂ©e 2019 malgrĂ© les critiques argumentĂ©es des enseignants et de nombreux chercheurs1 (lire notre article). Sous un habillage « scientifique », ces Ă©valuations souffrent de biais importants car elles sont au service de choix politiques, didactiques et pĂ©dagogiques discutables.
 

Le choix des exercices
 
Parmi les exercices proposés, certains, portés par le CSEN2, ne correspondent pas aux types d’exercices que l’on trouve habituellement dans les évaluations standardisées passées en collectif mais à des exercices passés de manière individuelle de sorte que l’adulte peut encourager les enfants et les interrompre en cours de passation après plusieurs échecs consécutifs. Ils n’ont pas pour but d’évaluer les compétences définies par les programmes mais de repérer d’éventuels obstacles aux apprentissages. Ils ne peuvent donc pas en toute logique servir à communiquer sur les acquis de nos élèves ni sur la proportion d’élèves en difficulté. C’est pourtant ce que le ministre a fait.

Par ailleurs, les tests valorisent les habiletés qu’on peut facilement évaluer par des tests standardisés, ce qui exclut des apprentissages pourtant essentiels.
 
 
Les seuils de réussite
 
Les seuils de rĂ©ussite permettent de classer les Ă©lèves en trois groupes : Ă  besoins, fragiles et sans difficultĂ©, les deux premiers groupes constituant « les Ă©lèves en difficultĂ© ». Ces seuils ont Ă©tĂ© d’après la Depp3 fixĂ©s a priori par un panel d’experts (enseignants, inspecteurs,…) mais ils ont Ă©tĂ© ajustĂ©s a posteriori en fonction des rĂ©sultats des Ă©lèves, ce qui explique le long dĂ©lai entre l’envoi des rĂ©ponses et le retour des profils des Ă©lèves. Ils ne sont donc pas fixĂ©s statistiquement ou scientifiquement mais en fonction des attentes des concepteurs ou des commanditaires de l’évaluation. Comme celles-ci ont pu ĂŞtre très dĂ©calĂ©es par rapport Ă  la rĂ©alitĂ©, un ajustement a Ă©tĂ© nĂ©cessaire pour que le pourcentage d’élèves dits en difficultĂ© reste « acceptable ».
 
Ainsi, l’exercice de comparaison de suites de lettres qui a été fortement chuté s’est vu attribuer un seuil minimal à 3 réussites sur 24, ce qui a permis de réduire le nombre d’élèves en difficulté à 18,6 %. Pour l’épreuve de compréhension de textes au CP, il fallait répondre correctement à 7 questions sur 18 pour être en situation de réussite. Le ministère a pu ainsi dire que 90 % des élèves étaient en situation de réussite et donc donner à voir que le renforcement de l’enseignement de la compréhension n’était pas une priorité.

La démarche mise en place n’est donc pas strictement scientifique, contrairement à ce que le ministère voudrait donner à voir. Elle est politique puisque le ministère choisit, en fonction des seuils de réussite qu’il fixe, quelles devront être les compétences à travailler prioritairement.
 
 
Une communication très orientée
 
En évaluant des compétences qui ne font pas partie des programmes de la grande section au début du CP, les tests créent artificiellement des « élèves en difficulté ». Il n’est pas difficile ensuite de montrer qu’ils ont progressé quand les apprentissages ont été effectivement conduits dans la classe. Ce que tous les professeurs des écoles peuvent constater, et c’est heureux !
 
Par ailleurs, le choix de seuils de réussite « ajustables » plutôt que de seuils statistiques permettra au ministre de montrer de façon certaine que sa politique fonctionne.
 
Il n’a d’ailleurs pas tardĂ© Ă  utiliser les rĂ©sultats affichĂ©s par la Depp3 pour affirmer que sa politique portait dĂ©jĂ  ses effets. Ainsi affirme-t-il dans son courrier aux professeurs des Ă©coles datĂ© du 7 mai que Â« les Ă©valuations nationales des acquis des Ă©lèves montrent que les premiers rĂ©sultats sont lĂ . Si, en dĂ©but de CP, 23 % des Ă©lèves n’identifiaient que la moitiĂ© des lettres et des sons qui leur Ă©taient soumis, ils ne sont plus que 3,3 % au mois de janvier. » Et il ajoute : Â« Ces signes positifs montrent que les progrès de nos Ă©lèves peuvent ĂŞtre importants. Un bel exemple est celui des classes dĂ©doublĂ©es en Ă©ducation prioritaire. En effet, les rĂ©sultats nationaux des Ă©valuations de mi-CP montrent que les Ă©carts entre les Ă©coles de l’éducation prioritaire et les autres tendent Ă  se rĂ©duire. » Ainsi les classes dĂ©doublĂ©es en Ă©ducation prioritaire serait l’explication d’un rĂ©sultat dont on peut tous se rĂ©jouir mais dont rien ne dit qu’il n’était pas prĂ©sent auparavant sans toutefois ĂŞtre pĂ©renne. Au risque de contredire le ministre, aucune Ă©tude scientifique n’a Ă©tĂ© publiĂ©e Ă  ce jour dĂ©montrant l’efficacitĂ© des CP et CE1 dĂ©doublĂ©s.
 
Le ministre devrait être plus mesuré dans sa communication et considérer les enseignants comme les professionnels qu’ils sont, capables de distinguer entre propagande et discours argumenté scientifiquement. Ils savent qu’il faudra par exemple attendre les résultats de l’enquête PIRLS de 2026 pour connaître l’efficacité réelle des choix didactiques, pédagogiques et managériaux de Jean-Michel Blanquer en matière d’apprentissage de la lecture. Pour rappel, l’enquête PIRLS de 2016 avait montré le côté néfaste des programmes de 2008 en matière de compréhension fine. Or, ce que propose le ministre se situe dans la continuité de son action d’alors : retour sur les fondamentaux, homogénéisation des pratiques, travaux sur la compréhension retardés, verticalité du pilotage. Il y a de bonnes raisons de s’inquiéter.
 
 
1-Dont Roland Goigoux qui publie une analyse critique très argumentée sur son bloghttps://blogs.mediapart.fr/roland-goigoux/blog
2-Conseil scientifique de l’Éducation nationale

3- Direction de l’évaluation, de la prospective et de la performance

 
 
 
 
ALC