Retour à l'article normal

SE-UNSA AIX-MARSEILLE


 Par SE-UNSA AIX-MARSEILLE
 Le  mercredi 10 janvier 2018

Retour sur PIRLS 2016 : le regard du chercheur Roland Goigoux

 

Roland Goigoux, professeur des universités et spécialiste de l’apprentissage de la lecture, est l’auteur de l’étude de référence « Lire et écrire » menée dans 131 classes de CP entre 2013 et 2015. Il revient pour le SE-Unsa sur l’enquête PIRLS et propose des pistes de travail. 

Quels sont les résultats de l’enquête PIRLS 2016 ?

J’en évoquerai quatre, difficiles cependant à interpréter tant leurs causes sont multiples.

  1. le score des élèves français est inférieur de 5 % à la moyenne européenne (511 points contre 540) ;

  2. il est en baisse depuis 2001, avec une dégradation sensible depuis 2011 ;

  3. la baisse est significative (- 22 points) pour la compréhension des textes informatifs mais moindre pour les textes narratifs (- 6 points) ;

  4. la compréhension de l’implicite pose beaucoup plus de problèmes que le simple prélèvement d’informations (20 points d’écart) : les élèves déchiffrent bien mais comprennent mal.

Comment les interprétez-vous ?

  1. Il faudrait vérifier la fabrication des échantillons réalisée par les différents pays. Malheureusement, nous ne disposons pas de toutes les informations nécessaires. L’âge des élèves, par exemple, pose question : la moyenne européenne est de 10,3 ans celles des élèves français de 9,8 ans. Les jeunes russes, en tête du classement, ont un an de plus que les français. La seconde explication tient à la nature des épreuves de PIRLS. Elles sont inhabituelles pour nos élèves qui sont rarement interrogés avec un tel raffinement sur l’implicite des textes (par exemple, sur les états mentaux des personnages) et, surtout, peu entrainés à justifier leurs réponses et à rédiger des paragraphes argumentatifs pour expliquer leurs déductions.
  2. Les résultats de PIRLS sont contradictoires avec ceux que le ministère français avait établis en 2016 : le « cycle d’évaluations disciplinaires réalisées sur échantillon » (CEDRE) réalisé par la DEPP avait relevé une stabilité des performances des élèves français de CM2 entre 2003, 2009 et 2015, pas une baisse. Cette évaluation menée auprès de 7400 élèves (4800 pour PIRLS) était très rigoureuse et reposait sur 18 supports écrits diversifiés, pas seulement 4 textes comme c’est le cas dans PIRLS. Pourquoi médiatiser l’une au détriment de l’autre ? L’école française comptait, en 2015, moins d’élèves en très grande difficulté (11 %) qu’en 2003 (15 %) mais la part d’écoliers très performants baissait aussi, ce qui se traduisait par un resserrement vers les groupes intermédiaires. Cette tendance est d’ailleurs confirmée par PIRLS.

Si la dégradation constatée par PIRLS était avérée, on devrait s’interroger sur l’impact de la réduction de la durée hebdomadaire de l’enseignement (24 h au lieu de 26h) décidée en 2007. Selon nos observations, cette diminution s’est souvent accompagnée d’une réduction du temps alloué à la lecture car il est plus facile d’alléger le temps consacré à l’acquisition d’un savoir-faire que de supprimer certains savoirs notionnels inscrits au programme (grammaire ou histoire, par exemple). La lecture pourtant a besoin d’entrainement pour s’affermir ; il n’est pas sans conséquence de renvoyer sa pratique hors de l’école.

On pourrait aussi s’interroger la priorité accordée, en 2008, par l’Éducation nationale à la maitrise de la langue car le propre d’une priorité est de faire passer le reste au second plan. Malgré les discours adressés à la presse, l’enseignement de la lecture n’est pas une priorité dans notre pays qui considère toujours – et de plus en plus depuis 2006 – qu’elle est l’affaire du CP. Nous ne devons donc pas être étonnés que la situation ne s’améliore pas.

Comment expliquez-vous les résultats 3 et 4 ?

Ils ne sont pas surprenants pour ceux qui connaissent les pratiques pédagogiques au cours élémentaire ; rappelons en effet que PIRLS a été administré au premier trimestre du CM1. Au CE, on apprend à lire, on ne lit pas pour apprendre : les textes informatifs sont des supports occasionnels pour les apprentissages disciplinaires en histoire, géographie ou sciences mais ils ne sont pas l’objet d’un enseignement spécifique. On n’apprend pas aux élèves à les traiter.

Les textes narratifs sont plus nombreux mais ils ne donnent pas lieu non plus à un enseignement explicite des stratégies connues pour améliorer la qualité de la compréhension. Les maitres – comme les auteurs des évaluations ministérielles pour le CE – incitent surtout les élèves à montrer qu’ils ont bien déchiffré et qu’ils savent prélever des informations explicites. Les compétences de haut niveau sont peu exercées. Bref, les résultats de PIRLS sont le reflet de ce qui est enseigné en classe. D’après les auteurs du rapport PIRLS, qui confirme nos propres observations, plus d’un tiers des élèves ne savent pas comment réguler leur propre compréhension. Ils ne savent pas ralentir, s’arrêter, se mettre en alerte, revenir en arrière, résoudre un problème que le texte pose mais qu’ils n’identifient pas : ils attendent qu’on leur pose des questions pour réfléchir et n’utilisent pour cela que les informations explicites. À force de répéter que « la lecture n’est pas un jeu de devinette », on a oublié de leur apprendre à déduire des informations à partir des données du texte et à mobiliser des connaissances extérieures au texte, bref à raisonner. Sur ce point, CEDRE et PIRLS convergent pour signaler un déficit de connaissance des stratégies de lecture utilisables par les élèves1.

Les pratiques pédagogiques n’ont-elles pas évolué ?

Malgré nos propositions didactiques (cf. Lectorino & Lectorinette, par exemple), malheureusement peu relayées en formation continue (la faiblesse de cette formation est une autre des grandes caractéristiques françaises), l’enseignement explicite et structuré de la compréhension est peu présent dans de nombreuses classes de cours élémentaire. Les maitres disent manquer de temps pour cela. Rares sont ceux qui y consacrent plus d’une séance de 45 minutes par semaine, souvent une lecture silencieuse suivie d’un questionnaire individuel et d’une correction collective. C’est très insuffisant. PIRLS montre aussi que les enseignants français, comparés à leurs collègues étrangers, recourent beaucoup moins souvent à des tâches dont l’efficacité a pourtant été démontré : élaborer des inférences à partir du texte, relier ce que les élèves ont lu à leur propre expérience, s’interroger sur les intentions de l’auteur, etc. Les ministres successifs ont tellement insisté sur le déchiffrage et sa nécessaire automatisation que les entrainements de « fluence » (pour accroitre la fluidité de la lecture) ont envahi l’espace pédagogique. Les élèves passent beaucoup de temps à lire et relire les mêmes extraits à voix haute et, par conséquent, moins de temps à lire entre les lignes, à raisonner et à argumenter. Le temps dédié à l’enseignement de la compréhension, déjà affecté par la semaine de 24 heures, s’en trouve encore réduit (voir par exemple le rapport n° 2013-066 de l’Inspection générale en 2013 et les contributions préparatoires à la conférence de consensus de 2016).

Que pensez-vous des mesures annoncées par le ministre suite à la publication des résultats de l’enquête ?

Elles ne sont pas à la hauteur du problème identifié et ne font que renforcer la conception « étapiste » de la lecture (le code d’abord, la compréhension plus tard, si on a le temps) qui nous paralyse. Le ministre réitère les deux erreurs que je viens de pointer : il survalorise l’orthographe en attirant l’attention des maitres sur la dictée (l’impact de l’orthographe sur la compréhension en lecture est très faible) et il fait porter au cours préparatoire la responsabilité des difficultés. Or le déchiffrage n’est pas le problème principal des élèves français. À la fin du CE1, par exemple, ils parviennent à lire 76 mots par minute ce qui est au-dessus de la moyenne de bon nombre de pays européens. En revanche, l’hétérogénéité des performances est forte : 20 % des élèves ne dépassent pas 50 mots alors que 20 % en lisent plus de 100 dans le même temps. Le problème n’est donc pas celui des méthodes au CP, c’est celui de la différenciation pédagogique et de l’aide personnalisée, un chantier à réouvrir.

Que faudrait-il, selon vous, mettre en place pour améliorer la compréhension de l’écrit des élèves français ?

  • Concevoir un réel enseignement de la compréhension, sur un continuum allant de la maternelle à la 6e sans interruption.

  • Suivre les recommandations que le directeur général de l’enseignement scolaire faisait en 2010, un certain Jean-Michel Blanquer, qui indiquait aux enseignants de CE et de CM que la lecture silencieuse suivie de questionnaires ne suffisait pas.

  • Suivre les recommandations du jury de la conférence de consensus organisée en 2016 par le CNESCO : « développer des stratégies de lecture-compréhension en privilégiant un enseignement explicite pour tous les élèves et le prolonger aussi longtemps que nécessaire pour les élèves moyens ou faibles afin d’en faire des lecteurs autonomes. »

  • Utiliser les outils didactiques qui visent l’enseignement explicite de la compréhension. Les plus anciens sont ceux que notre équipe a élaborés il y a dix ans (Collection Lector & Lectrix) mais il en existe bien d’autres qui peuvent les compléter. L’important est que des moments spécifiques soient dédiés à cet enseignement en lien étroit avec une priorité accordée au vocabulaire. Le lexique est l’un des facteurs qui explique le mieux les difficultés de compréhension de nos élèves. Son enseignement devrait être indissociable de celui de la lecture.

 

1 La DEPP explique pudiquement que ces différences « s’expliquent vraisemblablement par l’accent plus ou moins marqué que met chaque système éducatif sur l’enseignement de ces processus de compréhension, à ce niveau de scolarité ».

Sur le même sujet vous pouvez lire aussi sur notre blog :
Résultats de l’enquête PIRLS 2016
Comment travailler la compréhension ?