SECTION SE-Unsa de la COTE D OR - 6 BIS RUE PIERRE CURIE - 21000 DIJON
Tél. 03 80 55 50 35 - Por. 06 86 32 03 15 - 21@se-unsa.org

 
Évaluations CP/CE1 : mĂ©thodologie discutable et communication orientĂ©e
Article publié le jeudi 23 mai 2019.
  • Lnk_facebook
  • Lnk_google
  • Lnk_twitter
Les évaluations CP/CE1 seront reconduites à la rentrée 2019 malgré les critiques argumentées des enseignants et de nombreux chercheurs1 (voir notre article ici). Sous un habillage « scientifique », ces évaluations souffrent de biais importants car elles sont au service de choix politiques, didactiques et pédagogiques discutables.
 

Le choix des exercices
 
Parmi les exercices proposés, certains, portés par le CSEN2, ne correspondent pas aux types d’exercices que l’on trouve habituellement dans les évaluations standardisées passées en collectif mais à des exercices passés de manière individuelle de sorte que l’adulte peut encourager les enfants et les interrompre en cours de passation après plusieurs échecs consécutifs. Ils n’ont pas pour but d’évaluer les compétences définies par les programmes mais de repérer d’éventuels obstacles aux apprentissages. Ils ne peuvent donc pas en toute logique servir à communiquer sur les acquis de nos élèves ni sur la proportion d’élèves en difficulté. C’est pourtant ce que le ministre a fait.

Par ailleurs, les tests valorisent les habiletés qu’on peut facilement évaluer par des tests standardisés, ce qui exclut des apprentissages pourtant essentiels.
 
 
Les seuils de réussite
 
Les seuils de réussite permettent de classer les élèves en trois groupes : à besoins, fragiles et sans difficulté, les deux premiers groupes constituant « les élèves en difficulté ». Ces seuils ont été d’après la Depp3 fixés a priori par un panel d’experts (enseignants, inspecteurs,…) mais ils ont été ajustés a posteriori en fonction des résultats des élèves, ce qui explique le long délai entre l’envoi des réponses et le retour des profils des élèves. Ils ne sont donc pas fixés statistiquement ou scientifiquement mais en fonction des attentes des concepteurs ou des commanditaires de l’évaluation. Comme celles-ci ont pu être très décalées par rapport à la réalité, un ajustement a été nécessaire pour que le pourcentage d’élèves dits en difficulté reste « acceptable ».
 
Ainsi, l’exercice de comparaison de suites de lettres qui a été fortement chuté s’est vu attribuer un seuil minimal à 3 réussites sur 24, ce qui a permis de réduire le nombre d’élèves en difficulté à 18,6 %. Pour l’épreuve de compréhension de textes au CP, il fallait répondre correctement à 7 questions sur 18 pour être en situation de réussite. Le ministère a pu ainsi dire que 90 % des élèves étaient en situation de réussite et donc donner à voir que le renforcement de l’enseignement de la compréhension n’était pas une priorité.

La démarche mise en place n’est donc pas strictement scientifique, contrairement à ce que le ministère voudrait donner à voir. Elle est politique puisque le ministère choisit, en fonction des seuils de réussite qu’il fixe, quelles devront être les compétences à travailler prioritairement.
 
 
Une communication très orientée
 
En évaluant des compétences qui ne font pas partie des programmes de la grande section au début du CP, les tests créent artificiellement des « élèves en difficulté ». Il n’est pas difficile ensuite de montrer qu’ils ont progressé quand les apprentissages ont été effectivement conduits dans la classe. Ce que tous les professeurs des écoles peuvent constater, et c’est heureux !
 
Par ailleurs, le choix de seuils de réussite « ajustables » plutôt que de seuils statistiques permettra au ministre de montrer de façon certaine que sa politique fonctionne.
 
Il n’a d’ailleurs pas tardé à utiliser les résultats affichés par la Depp3 pour affirmer que sa politique portait déjà ses effets. Ainsi affirme-t-il dans son courrier aux professeurs des écoles daté du 7 mai que « les évaluations nationales des acquis des élèves montrent que les premiers résultats sont là. Si, en début de CP, 23 % des élèves n’identifiaient que la moitié des lettres et des sons qui leur étaient soumis, ils ne sont plus que 3,3 % au mois de janvier. » Et il ajoute : « Ces signes positifs montrent que les progrès de nos élèves peuvent être importants. Un bel exemple est celui des classes dédoublées en éducation prioritaire. En effet, les résultats nationaux des évaluations de mi-CP montrent que les écarts entre les écoles de l’éducation prioritaire et les autres tendent à se réduire. » Ainsi les classes dédoublées en éducation prioritaire serait l’explication d’un résultat dont on peut tous se réjouir mais dont rien ne dit qu’il n’était pas présent auparavant sans toutefois être pérenne. Au risque de contredire le ministre, aucune étude scientifique n’a été publiée à ce jour démontrant l’efficacité des CP et CE1 dédoublés.
 

 

Le ministre devrait être plus mesuré dans sa communication et considérer les enseignants comme les professionnels qu’ils sont, capables de distinguer entre propagande et discours argumenté scientifiquement. Ils savent qu’il faudra par exemple attendre les résultats de l’enquête PIRLS de 2026 pour connaître l’efficacité réelle des choix didactiques, pédagogiques et managériaux de Jean-Michel Blanquer en matière d’apprentissage de la lecture. Pour rappel, l’enquête PIRLS de 2016 avait montré le côté néfaste des programmes de 2008 en matière de compréhension fine. Or, ce que propose le ministre se situe dans la continuité de son action d’alors : retour sur les fondamentaux, homogénéisation des pratiques, travaux sur la compréhension retardés, verticalité du pilotage. Il y a de bonnes raisons de s’inquiéter.
 
 

 

1-Dont Roland Goigoux qui publie une analyse critique très argumentée sur son blog https://blogs.mediapart.fr/roland-goigoux/blog
2-Conseil scientifique de l’Éducation nationale
3- Direction de l’évaluation, de la prospective et de la performance
 
 

 

 
 
PĂ©tition
 
Nos campagnes
 
Santé
 
Aides spécifiques
 
Mouvement
 
Conditions de travail
 
Concours
 
ALC