Quantcast
Channel: PédaTice » tutorat
Viewing all articles
Browse latest Browse all 2

L’évaluation des acquis en formation d’ingénieur : nouveaux enjeux, nouvelles pratiques

0
0

Le 13 février dernier, le CEFI organisait une rencontre à Chimie ParisTech sur le thème “L’évaluation des acquis en formation d’ingénieur : nouveaux enjeux, nouvelles pratiques”. En voici un compte-rendu.

 

Introduction

Claude Maury introduit la rencontre en expliquant que le choix du titre «évaluation des acquis» vise à sortir du débat sur les apprentissages pour se concentrer sur les learning outcomes, c’est-à-dire les résultats d’apprentissage attendus en fin de cours. Il indique que la tendance observée dans les écoles est au développement de l’utilisation de l’évaluation formative et il s’interroge sur les impacts de l’évaluation à court et long terme sur l’apprentissage.

 

Eléments de cadrage

« Le rôle de l’évaluation des acquis dans le processus de formation des ingénieurs » par Yvan Pigeonnat

Yvan Pigeonnat est conseiller pédagogique dans le service Perform de l’INP Grenoble.

Quand on parle d’évaluation, il faut distinguer l’évaluation formative et l’évaluation certificative.

L’évaluation formative fait partie intégrale du processus d’apprentissage : c’est une activité d’apprentissage qui permet d’avoir une rétroaction sur les apprentissages des étudiants et d’adapter les feedbacks. Intégrer l’évaluation formative dans ses stratégies d’enseignement a trois avantages : elle rassure, encourage et motive les étudiants en leur indiquant leur niveau et en leur présentant ce qui est attendu d’eux.

L’évaluation certificative est une attente institutionnelle qui permet la délivrance du diplôme. Elle fait partie des missions de l’enseignant (inscrit dans les statuts).

Ces deux types d’évaluation sont compatibles : dans un même scénario pédagogique, on peut utiliser les deux.

Evaluer amène à relever quelques défis :

  • il faut développer l’utilisation de l’évaluation formative en lien avec l’évaluation certificative ;
  • l’auto-évaluation : il faut lui donner sa place dans le processus d’évaluation mais tout en procurant un cadre clair aux étudiants ;
  • l’évaluation des compétences dont la difficulté repose sur trois éléments :
    • la définition même de « compétence »,
    • le caractère interdisciplinaire d’une compétence,
    • les ressources mobilisées et utilisées qui varient selon chaque étudiant.

Enfin, un certain nombre d’écueils sont à éviter. Le premier est celui du défaut de communication par les enseignants aux étudiants de leurs attentes concernant les résultats d’apprentissage visés. Le second écueil est celui du défaut d’alignement pédagogique qui peut entraîner la définition d’exigences basses, des niveaux différents entre les cours et les examens et le manque d’exhaustivité dans l’évaluation : l’atteinte de tous les objectifs n’est pas vérifiée, seulement de certains. Enfin, le facteur humain peut créer des biais dans une évaluation avec les effets d’ancre et d’assimilation, la complexité de poser un diagnostique, en particulier dans le cadre d’une évaluation des compétences, et enfin deux mythes qui ont la vie dure. Le premier est celui de la note «juste», le second celui qui poser un barème rigoureux permet de se protéger contre le risque de subjectivité lié à l’évaluateur.

 

« L’évaluation des acquis du stage ouvrier », Jean-Yves Poitrat, Ecole des Ponts ParisTech

Jean-Yves Poitrat a ensuite présenté l’expérience de l’Ecole des Ponts ParisTech quant à l’évaluation d’un stage ouvrier en première année.

Le dispositif a été revu en 2009 afin d’intégrer le stage ouvrier dans un scénario pédagogique bien construit et respectant l’alignement constructif (ou alignement pédagogique). Ainsi, les objectifs d’apprentissage, ou learning outcomes, ont été retravaillés et clairement explicités aux étudiants. Un accompagnement a été mis en place sous plusieurs formes : des guides pour les étudiants et les tuteurs, les étudiants ont également dû rédiger un journal de bord, base de leurs discussions avec leurs tuteurs qui maintenaient le contact par courriel. L’évaluation formative a été inclue dans le dispositif en tant qu’activité d’apprentissage à part entière et son cadrage a été défini. Enfin, le module est noté.

Ce nouveau modèle étant en place depuis 4 ans, l’équipe peut faire les constats suivants :

  • les enseignants observent une meilleure qualité des productions des étudiants (journal de bord, analyses, soutenance) ;
  • les learning outcomes, d’un niveau élevé, sont atteints ;
  • la pertinence et la cohérence du nouveau scénario sont validées.

Jean-Yves Poitrat conclut sur deux convictions personnelles. La première est la difficulté à évaluer une activité riche : plus une activité est riche, plus il est difficile de cerner les acquis et d’être exhaustif. Sa seconde conviction est qu’en définissant des objectifs d’apprentissage/évaluation, on cible également ce qui va être retenu par les étudiants. Il démontre cette conviction en comparant les objectifs du stage ouvrier de deux écoles. Il s’agit du même type d’activité d’apprentissage mais les objectifs visés sont très différents.

 

« Evaluation et auto-évaluation des compétences », Dieudonné Abboud, ISEP

D. Abboud a témoigné de la mise en place du référentiel de compétences à l’ISEP en commençant par donner une définition du concept de compétence. Il a ensuite présenté son utilisation pour l’évaluation et l’auto-évaluation (construction de grilles). Il a illustré l’exploitation de ces grilles lors de stages en entreprise avec la confrontation entre l’évaluation faite par les maîtres de stage et l’auto-évaluation des étudiants.

 

« Développer la pratique réflexive des étudiants par l’auto-évaluation formative », Siegfried Rouvrais, Télécom Bretagne

En 2003, Télécom Bretagne mène une réforme de ses programmes qui l’amène à s’inscrire dans une approche compétence, à adopter le référentiel des acquis d’apprentissage du CDIO, dont la complexité est croissante, ainsi que de nouvelles méthodes pédagogiques. Ils intègrent ainsi les méthodes APP [Apprentissage Par Problèmes] et PBL [Project-Based Learning] tout en maintenant une certaine diversité. Dans le même temps, la CTI préconise en 2012 d’intégrer dans les curriculums la dimension «analyse réflexive» pour les étudiants. Ces différents éléments amène l’équipe pédagogique à intégrer l’auto-évaluation formative dans ses scénarios d’activités d’apprentissage basées sur l’expérience pratique et notamment trois d’entre elles. La première porte sur les capacités liées au travail en groupe et aux phases de l’ingénierie dans le cadre de la pédagogie par projets. La seconde introduit l’auto-évaluation, suivant une procédure proche de la VAE, dans la reconnaissance d’apprentissages non formels dans un contexte d’un engagement personnel de l’étudiant, en dehors du cursus de formation. Enfin, la troisième utilise l’auto-évaluation pour interroger les traits de personnalité des étudiants dans le cadre d’un module de formation aux métiers.

Rouvrais conclut son intervention en proposant un cadre conceptuel de l’évaluation dans lequel l’étudiant est placé au centre du dispositif :

 

 

 

 

« Le portfolio, outil de formation et d’évaluation dans un projet de management », Nadine Postiaux, Ecole Polytechnique de Bruxelles

Nadine Postiaux a ensuite présenté l’utilisation du portfolio comme outil d’évaluation des compétences. Suivant Tardif et Scallon, c’est l’outil idéal. L’Ecole Polytechnique de Bruxelles a donc choisi de l’utiliser dans deux contextes : un stage et un projet de management comprenant deux volets, la gestion de projet et la gestion d’équipe. L’activité a été cadrée par l’incitation à développer une grille d’auto-évaluation par les étudiants eux-mêmes et par l’obligation d’utiliser un diagramme de Gantt dont toutes les versions étaient conservées.

Le bilan de l’expérience en projet de management est assez mitigé. Un tiers des étudiants était réticent à l’utiliser. Ils ont argué de la difficulté de l’acte d’écrire, en particulier sur soi et ses pratiques (introspection), ainsi que du caractère artificiel et démesuré de la tâche par rapport au besoin dans le cadre du projet. L’équipe a pu interroger quelques années plus tard d’anciens étudiants ; parmi eux, certains ont signalé que c’était la première fois qu’on leur avait demandé d’analyser ce qu’ils avaient vécu et de le mettre au clair.

En conclusion, N. Postiaux a donné les conseils suivants :

  • reconnaître ses limites : ne pas fixer des niveaux d’exigence plus élevés à une pratique innovante que sur des méthodes classiques ;
  • jouer sur la technologie en proposant un support en ligne et une initiation aux logiciels professionnels ;
  • renforcer l’authenticité de l’exercice en mettant en avant son utilité : sauvegarde des données, apprentissage du reporting et du knowledge management (transfert de compétences dans une équipe).

Enfin, N. Postiaux a posé la question de l’évaluation sommative d’un outil de développement personnel. Le portfolio est outil d’évaluation formative qui recueille les traces d’un apprentissage et les preuves des acquis. Ce n’est pas un outil pour se vendre.

 

« Evaluation à l’aide de QCM : plus de 25 ans d’expérience à l’ESIEE Paris », Leïla Reille & Denis Bureau, ESIEE

L. Reille et D. Bureau ont présenté leur expérience d’utilisation des QCM pour évaluer. Pour eux, les QCM ont plusieurs intérêts : rapidité de correction, diminuer l’implicite et augmenter la précision grâce à une meilleure rédaction des questions, augmenter l’objectivité de la notation, éviter aux étudiants (en particulier étrangers) d’avoir à rédiger dans un français correct,…

Ils utilisent les QCM pour vérifier des pré-requis, tester le niveau de compréhension des étudiants, mesurer la persistence des idées fausses,…

Ils ont détaillé différents types de QCM :

  • les quizz avec des améliorations permettant de diminuer le « guessing»
    • barèmes avec points négatifs
    • plusieurs réponses possibles
    • item « Aucune Réponse Ne Convient » [ARNC]
  • les Vrai/Faux
    • avec des équations secondaires
    • et des relations de dépendance entre les items
  • les Vrai/Faux intégrant des relations de dépendance entre les items
  • des QCL – questions à choix large
  • des questions à réponse numérique.

On peut limiter les dérives (guessing) en créant un barème prenant en compte des équations secondaires (« le barème est établi en fonction des liens logiques qui permettent de tester le raisonnement utilisé ») ou en demandant aux étudiants d’indiquer leur degré de certitude quant à leurs réponses (« le répondant doit évaluer sa propre compétence et assumer les conséquences des décisions qu’il prend »).

 

« Usages des grilles d’évaluation «rubrics» en formation d’ingénieurs », Jean-Louis Allard, CESI

Pour finir, Jean-Louis Allard a expliqué comment le CESI avait procédé pour assurer à ses étudiants une même qualité de formation dans tous ses sites et une équité de l’évaluation : tous les étudiants ont les même chances de réussite.

Adoptant la démarche GBS [Gros Bon Sens sic!] et suite à des visites dans des structures étrangères, le CESI a défini deux axes de travail pour améliorer son dispositif : l’alignement constructif et l’utilisation de grille d’évaluation critériée avec les rubrics.

Les rubrics permettent

  • de communiquer aux étudiants les critères d’évaluation et les niveaux de performance attendus ;
  • de gagner du temps car la correction est facilitée ;
  • aux étudiants de s’auto-évaluer ;
  • une meilleure rétroaction de la part des enseignants.

Les rubrics ont été définies et rédigées de façon collégiale. Seul les rubrics du niveau de performance le plus élevé a été diffusé aux étudiants afin d’éviter qu’ils n’en fassent que le minimum.

Conclusion

Quelques questions et remarques évoquées en guise de conclusion par Claude Maury :

  • coût de l’évaluation => développer l’évaluation formative et intégrer les stratégies d’évaluation dans le scénario pédagogique ;
  • attention à la tendance qui sacralise les référentiels. Une compétence se développe et s’évalue en contexte ;
  • les étudiants sont de plus en plus partie prenante de la formation : ils doivent donc devenir une partie prenante active de l’évaluation ;
  • attention au risque de conformisation. Evaluer, c’est comparer à des normes. Il faut permettre la différenciation ;
  • acquis = potentialités / compétences = efficacités ;
  • il faut remettre la motivation au coeur du dispositif et un des moyens est de rendre les élèves acteurs de leur formation.

Viewing all articles
Browse latest Browse all 2

Latest Images





Latest Images