SECTION SE-Unsa du TARN - 17 RUE FONVIELLE - 81000 ALBI
Tél. 05 63 54 31 26 - Por. 06 15 56 68 45 - 81@se-unsa.org

 
Les spécialistes jugent sévèrement les évaluations nationales !
Article publié le mardi 25 septembre 2018.
  • Lnk_facebook
  • Lnk_google
  • Lnk_twitter

Nous ne parlerons pas ici des qualités et des défauts des évaluations nationales de 6ème et de 2nde qui sont directement passées sur ordinateur et dont les exercices ne sont pas accessibles aux enseignants. Il va donc falloir avoir une confiance aveugle, ou pas, dans l’analyse des résultats donnée par le programme… ce qui n’est pas sans poser question !
Pour les évaluations de CP et de CE1, la version papier des livrets donne au moins un accès facile aux différents exercices et permet donc de se faire un avis sur leur faisabilité et leur pertinence, tant sur le fond que sur la forme.

Nous n’allons pas nous lancer dans une analyse « maison Â» que chaque enseignant est capable de faire en s’appuyant sur son expérience, mais répercuter les avis et analyses de spécialistes reconnus.

Pour commencer il est intéressant de lire Franck Ramus, membre du conseil scientifique de l’Éducation nationale qui a participé à la conception de ces évaluations nationales. Il est directeur de recherche au CNRS et travaille au laboratoire de sciences cognitives et psycholinguistique de l’ENS. Après les premières réactions négatives des professeurs des écoles, il s’est senti obligé de justifier ces évaluations et leur intérêt scientifique dans une FAQ sur son blog : « Ã€ quoi servent les nouvelles évaluations de CP et CE1 ?« , en voici quelques extraits…

La manière dont les élèves percevront ces évaluations dépendra étroitement de la manière dont les enseignants les leur présenteront (les parents ne devraient même pas leur en parler). Les évaluations ne doivent donc pas être présentées aux élèves comme ayant un enjeu particulier pour eux (quelque chose qui peut être « réussi » ou « raté »). Il n’est même pas nécessaire de prononcer le mot « évaluation » devant les élèves. Les tests peuvent être simplement présentés comme d’autres activités pédagogiques, qui ont des règles particulières. Les instructions données aux enseignants dans les documents d’accompagnement vont dans ce sens.

Seules des évaluations nationales permettent de situer chaque élève par rapport à une référence nationale, et ainsi d’avoir le même niveau d’exigence et les mêmes critères pour apporter une aide, quels que soient la région et le milieu. Pour la première fois, les enseignants sauront précisément où les compétences de leurs élèves se situent, non seulement au sein de leur classe et de leur établissement, mais par rapport à tous les élèves français. Disposer d’une référence nationale est un moyen pour lutter contre les inégalités territoriales, et contre les inégalités tout court.

Bien entendu, le fait d’avoir des évaluations nationales permet aussi de recueillir des informations précieuses permettant au ministère et aux chercheurs de suivre de près l’état et l’évolution des compétences clefs en lecture et en mathématiques des jeunes élèves français.

Il est vrai que certains tests semblent ne pas correspondre directement au programme de la maternelle ou du CP. Mais ces évaluations n’ont pas pour objectif d’évaluer ce qui a été fait à la maternelle ou dans les deux premières semaines du CP. Elles ont pour objectif d’évaluer un certain nombre de compétences cognitives qui sont des prérequis pour le programme de français et de mathématiques du CP. Certains de ces prérequis ont été enseignés à la maternelle, d’autre pas (par exemple : situer les nombres sur une ligne numérique), mais ils n’en sont pas moins importants.

Tous les tests qui ont été sélectionnés pour être inclus dans les évaluations l’ont été pour leur valeur pronostique et diagnostique pour l’apprentissage de la lecture et des mathématiques au CP, ainsi qu’il est expliqué dans les documents d’accompagnement.

Pourquoi certains tests comportent-ils des « pièges »?

Il n’y a évidemment aucune intention de « piéger » les élèves dans le but de les faire échouer.
Mais comme vous l’avez maintenant bien compris, un test n’a pas la même fonction et donc pas les mêmes caractéristiques qu’un exercice à visée pédagogique.
Si un test vise à évaluer, par exemple, la sensibilité aux phonèmes (est-ce que deux mots commencent par le même phonème ?), il est crucial de s’assurer que les réponses des élèves reflètent bien leur sensibilité aux phonèmes, et pas aux rimes, ni au sens des mots, ni à toute autre similarité de surface entre deux mots. Par conséquent, pour s’assurer que les bonnes réponses reflètent bien la compétence visée et aucune autre, il convient de mettre parmi les mots proposés comme réponse possible certains qui présentent d’autres similarités que celle qui est testée. Ainsi, si un élève choisit régulièrement la bonne réponse, on est sûr que c’est bien le phonème initial qu’il a repéré. Si au contraire il se laisse souvent « piéger » par un mot qui rime, alors c’est qu’il ne maîtrise pas encore parfaitement la distinction entre rime et phonème. Dans le cadre d’un test, il importe de le savoir, c’est justement ce niveau de précision qui va aider les enseignants à mieux connaître les besoins des élèves.

Pour continuer de poser le contexte, voici le regard très critique de Mireille Brigaudiotsur les conceptions de l’apprentissage de la lecture de Stanislas Dehaene, spécialiste des neurosciences et « grand ordonnateur Â» des évaluations nationales :  « Lettre ouverte à Monsieur Dehaene à propos de sa présentation de l’apprentissage de la lecture dans « la mallette des parents Â» sur EDUSCOL Â»
Mireille Brigaudiot est enseignante chercheuse en sciences du langage, formatrice et spécialiste de la maternelle.

Non Monsieur, la reconnaissance visuelle de formes par les enfants ne peut pas être mise sur le même plan que la reconnaissance auditive des sons discriminants de la langue parlée. Les bébés n’ont aucune difficulté à reconnaître un dessin de voiture d’un dessin de vélo alors qu’ils vont mettre 2 ans et plus pour repérer et différencier les mots « papier » et « pompier » en les entendant. Cela explique leur très grande facilité à reconnaitre et nommer les lettres très tôt car, pour eux ce ne sont pas des lettres mais des formes quelconques.

Non Monsieur, le rôle premier de l’écriture n’est pas d’apprendre aux enfants l’ordre gauche – droite de la suite des lettres des mots dans un mot. Tous les enseignants vont diront que cette connaissance est très rapide, ne pose aucun problème, dès qu’on écrit en cursive devant eux et qu’ils le font eux-mêmes (moyenne section).

Non Monsieur, un scientifique ne peut pas mettre sur le même plan des INDICATEURS de réussite de l’apprentissage de la lecture et les CONDITIONS de cet apprentissage. Car oui, la connaissance des lettres est un indicateur, tout simplement parce que les enfants vont aller vite une fois qu’ils auront découvert le principe sonore qu’elles symbolisent. Et non, la connaissance des lettres ne doit pas être recherchée en premier par les maîtres parce qu’elle n’est pas une condition. La condition de l’apprentissage de la lecture (quand un enfant va bien par ailleurs, il parle, il joue, il vient à l’école sans problème) est sa découverte du sonore (ou découverte du principe alphabétique)…

Concernant les exercices de français l’avis de Dominique Bucheton, professeure honoraire des universités en sciences du langage et de l’éducation, est extrêmement sévère : Â« Mais enfin ! Apprendre à lire, c’est quoi ? Â»

Les tests d’évaluation proposés fin septembre aux élèves de CP semblent aussi ineptes, aussi rétrogrades voire plus que ceux de l’an passé dont les résultats n’ont jamais été envoyés aux enseignants. Ils ne s’intéressent qu’au-dessus de l’iceberg : le décodage et ignorent encore une fois les pans cachés de l’iceberg : l’ensemble des démarches d’acculturation nécessaires pour donner sens et envie d’entrer dans la culture de l’écrit.

Réduire l’évaluation de l’entrée dans l’écrit à quelques apprentissages contrôlables du décodage n’est ni suffisant, ni prédictif des apprentissages ultérieurs et peut s’avérer stigmatisant, et dangereux pour la confiance en lui dont l’enfant a besoin pour apprendre et se développer.

Le décodage n’est que le haut de l’iceberg ! Celui qu’on peut repérer par quelques tests rapides que savent très bien faire les enseignants de maternelle ou de CP en début d’année. L’aventure de la lecture a besoin de l’exploration accompagnée de tout le soubassement nécessaire à la compréhension de ce que veut dire « Lire ». Tâche plus difficile, moins visible et pourtant fondamentale. C’est elle qui donne du sens, un motif pour apprendre à lire, comprendre, interpréter, discuter, commenter.

L’avis de Stella Baruk, chercheuse en pédagogie des mathématiques sur les items de maths est sans appel : Â« Nouvelles évaluations: l’enfant chargé de chiffres Â»

Ce que ces évaluations semblent laisser prévoir, c’est qu’avec les meilleures intentions du monde, le petit sujet connaissant qui entre en classe aujourd’hui a toute chance d’être regardé par l’institution scolaire comme un « sujet neurocognitif » qui, plutôt qu’un apprentissage, subira un entraînement, sur le mode sportif de la recherche de performance.

Il leur [aux élèves] est demandé d’emblée de ne pas avoir peur (items 2,5, 6,7,8).

Il y aurait donc lieu d’avoir peur ? Demander aux élèves de ne pas avoir peur alors qu’ils savent parfaitement qu’ils vont être jugés sur ce qu’ils vont produire est hautement contre-performatif. Car ils ont peur, – imaginez ceux qui sortent de la maternelle ! – précipités qu’ils sont dans ces « séances » hors du temps, du temps de vie en classe, où quand on les interroge, c’est sur des sujets qui ont pris chair et âme parce qu’on a les découverts ou appris tous ensemble avec le maître ou la maîtresse.

Il sera donc, avec insistance, demandé aux enfants de ne pas s’en faire : s’ils ne savent pas « ce n’est pas grave» (2, 5, 6, 7, 8) ; mais s’ils savent « un petit peu » il leur est conseillé de répondre, même s’ils ne sont pas «très sûrs» (2, 5, 7, 8). Faudrait savoir. Si ce n’est pas grave, que fait-on là ? Et pourquoi répondre si on n’est pas sûr ? Pour donner du grain à moudre à la machine ?

Deux questions de fond apparaissent alors.

Celle de la pratique de QCM pour de jeunes enfants. Faut-il avoir recours aux «sciences cognitives» pour comprendre que ‘choisir’ une réponse n’a rien d’équivalent à en proposer une de son cru ? Au lieu de solliciter l’attention d’un enfant face à une tâche précise, on la détourne en multipliant de supposées tentations, la diminuant d’autant.

Celle d’une culture de la vitesse, du rendement. Rapidement, la fatigue face à des pages noires de signes, et le stress dû à la nécessité d’aller vite, éprouveront nombre d’élèves qu’on supposera alors ‘fragiles’.

[À propos de l’exercice 3 des évaluations CE1]

Penser que des « compétences » – celles de qui ? – vont être jugées à partir de tels exercices est simplement stupéfiant. La condition de sens essentielle pour l’addition – et la soustraction – étant de disposer d’ «objets» de même nature, aucun des comptages proposés ici n’ont de sens. Un ‘rond’ n’est pas un triangle qui n’est pas une étoile. Ah, ce sont des signes ? Alors, si on compte des signes, pour la ligne des dominos supposés « faire 7», on aurait 7, 6, 4 ; pour celle de « 13 », d’abord 5, puis 4, puis 5 à nouveau. Ah non ? 1 main c’est 5 doigts ? Et ça fait quoi, des doigts plus un carré plus des ronds ? Sinon préparer les enfants à donner l’âge du capitaine…

Imaginer que c’est le Conseil scientifique de l’Education nationale qui propose pareille confusion entre représentation et écriture est désespérant. Car ici s’affirme avec éclat à quel point nous sommes loin de toute rigueur, de toute vraie réflexion autour de la question des mathématiques à l’école, réflexion pédagogique, réflexion épistémologique. Depuis la nécessaire «refondation» de l’école reconduite à plusieurs reprises, aucune proposition n’est venue qui mette en jeu la spécificité de la matière, et l’ayant reconnue, la manière d’en découvrir et de s’en approprier la pensée, d’en parler la langue.

On peut quand même s’interroger sérieusement sur ce que vous, enseignants, allez bien pouvoir tirer de ces évaluations conçues certes « scientifiquement Â» mais qui risquent de s’avérer bien improductives pédagogiquement parlant.

Pour avoir vos retours et les faire remonter au ministère, le SE-Unsa va vous proposer dans les jours qui viennent une enquête sur ces évaluations nationales CP et CE1.

 
 
Pétition
 
Nos campagnes
 
Santé
 
Aides spécifiques
 
Mouvement
 
Conditions de travail
 
Concours
 
Cliquez pour agrandir