53-3LeducIDHTML

l’engagement cognitif en contexte postsecondaire : traduction, adaptation et validation d’une échelle de mesure


De grande importance pour la réussite des études, l’engagement scolaire est une notion complexe et multidimensionnelle.1 Les écrits sur l’engagement en contexte scolaire lui reconnaissent trois principales dimensions : comportementale, affective et cognitive (Azevedo, 2015; Brault-Labbé et Dubé, 2010; Fredricks, Blumenfeld et Paris, 2004; Greene, Miller, Crowson, Duke et Akey, 2004). La première se manifeste par la participation de l’étudiant à la vie sociale universitaire (par exemple entretenir des relations étroites avec ses pairs) alors que la seconde s’incarne dans ses intérêts et ses valeurs (comme nourrir un lien entre l’utilité d’un contenu et ses buts professionnels). Ces dimensions ont fait l’objet d’une grande attention de la part de chercheurs américains et canadiens depuis deux décennies (Desbiens et coll., 2012; Hutchins, 2015; Kuh, 2003). Par contre, la dimension cognitive de l’engagement demeure nettement moins explorée, notamment en contexte postsecondaire, et on ne fait que commencer à comprendre son importance pour le plein développement du potentiel d’apprentissage humain (Coates et coll., 2008). La dimension cognitive de l’engagement se définit par le degré d’investissement intellectuel comme l’utilisation de stratégies cognitives et métacognitives par l’étudiant en cours d’apprentissage (Greene, 2015). L’engagement cognitif se caractérise donc par la décision de s’engager (son degré d’intérêt pour ses cours), l’intensité de cet engagement (par exemple le nombre d’heures qu’il passe à étudier) et la persistance dans la tâche (comme ses bonnes habitudes d’études).

Bien qu’il n’existe pas de consensus clair dans les écrits sur ce qu’il est (Bernet, 2010), il y a consensus sur l’importance de l’engagement pour l’apprentissage. L’engagement cognitif désigne la responsabilité de l’étudiant dans la réussite de ses études, l’ampleur de son investissement personnel et ses efforts consacrés à son travail d’étudiant (Conseil supérieur de l’éducation, 2008). Il est tributaire de l’effort conscient pour intégrer les informations en déployant ses facultés cognitives de haut niveau (high level thinking). L’engagement cognitif est corrélé à un désir de maîtrise de la part de l’étudiant tandis qu’un faible engagement cognitif est corrélé à un apprentissage en surface issu d’un désir de performer (Dinsmore et Alexander, 2012).

Plusieurs outils peuvent servir à recueillir des données sur l’engagement cognitif : des questionnaires, des entretiens, des observations, etc. La recension des écrits a permis de constater que parmi ces outils, ce sont les questionnaires auto-rapportés qui sont majoritairement utilisés par les chercheurs (Fredricks et McColskey, 2012). Les questionnaires auto-rapportés offrent l’avantage de sonder les perceptions subjectives des étudiants, plutôt que de cueillir des données objectives issues d’indicateurs comportementaux, comme le taux de présence en classe ou le taux de remise des devoirs. De plus, les questionnaires sont utiles pour mesurer l’engagement cognitif, un construit qui n’est pas directement observable, mais qu’il est possible d’inférer à travers les comportements qu’adoptent les étudiants (Appleton, Christenson et Furlong, 2008). Cela dit, la plupart des questionnaires ont surtout été développés pour mesurer l’engagement en milieu primaire ou secondaire. Les quelques questionnaires développés pour le contexte universitaire ne portent pas exclusivement sur l’engagement cognitif, mais incluent des sous-échelles pour documenter une variété d’autres aspects en lien avec l’engagement. Parmi les plus cités se trouvent le National Survey of Student Engagement (Kuh, 2003) et le Student Engagement Questionnaire (McNaught, Leung et Kember, 2006) conçus pour évaluer l’engagement au niveau macro, c’est-à-dire pour l’ensemble de l’expérience étudiante à l’université, que ce soit en classe ou sur le campus. Parmi les questionnaires conçus pour le niveau micro, c’est-à-dire pour évaluer l’engagement à l’intérieur d’un cours, se trouvent le Student Course Engagement Questionnaire (Handelsman, Briggs, Sullivan et Towler, 2005) ou, plus récemment, le Student Course Engagement Scale (Lin et Huang, 2017). Ces questionnaires incluent une variété d’items, parfois très hétéroclites, tels que la perception de soi, les attitudes envers la matière, les comportements relatifs au développement professionnel, ou encore les croyances de l’importance de réaliser du travail scolaire supplémentaire ou de dépasser les attentes de l’enseignant (voir Mandernach [2015] pour une revue détaillée des instruments disponibles). Tous ces aspects peuvent s’avérer importants et pertinents pour l’étude de l’engagement cognitif en contexte universitaire. Toutefois, comme le précise Fredricks et McColskey (2012), une telle variété d’acceptions ont fait de l’engagement cognitif un concept-parapluie, obligeant les chercheurs à le circonscrire en fonction des objectifs de recherche. De la sorte, notre démarche d’identification d’un questionnaire approprié s’inscrit dans un programme de recherche plus large qui a entre autres pour but d’analyser l’impact des environnements didactiques sur l’engagement cognitif d’étudiants inscrits à des formations professionalisantes. Pour ce faire, nous avons choisi d’utiliser le questionnaire Cognitive Engagement Scale de Miller, Greene, Montalvo, Ravindran et Nichols (1996), maintes fois validé en anglais en contexte universitaire. Notre choix d’utiliser l’échelle de Miller et coll. (1996) se justifie par le fait qu’elle porte exclusivement sur l’engagement cognitif, qu’elle a été mise à jour à plusieurs reprises, lui assurant une nécessaire actualité, et par le fait que Miller et coll. (1996) ont clairement définit le concept d’engagement cognitif comme étant distinct de la motivation. Or, à notre connaissance, il n’existe pas de version en français de ce questionnaire. Nous avons donc entrepris de le traduire de l’anglais au français et de valider la traduction. Cet article a donc pour but la traduction, l’adaptation et la validation de l’échelle de mesure de l’engagement cognitif de Miller et coll. (1996).

PROBLÉMATIQUE

Depuis quelques décennies, plusieurs recherches établissent des liens solides entre engagement et réussite académique, ce qui attire l’attention des éducateurs, théoriciens et administrateurs qui désirent augmenter la réussite des étudiants et contrer les taux élevés d’abandon scolaire (Appleton et coll., 2008; Conseil supérieur de l’éducation, 2008; Sinatra, Heddy et Lombardi, 2015). En effet, l’engagement scolaire est un sujet qui préoccupe les établissements et les enseignants du postsecondaire et représente un défi quotidien. La capacité de retenir les étudiants et le nombre de diplômés comptent aujourd’hui parmi les indicateurs de l’efficacité des établissements postsecondaires (Loiola et Tardif, 2001). Les enseignants ont un rôle central à jouer concernant cette rétention, mais ils doivent aussi composer avec des groupes de plus en plus nombreux et faire preuve d’innovation pour développer des moyens d’engager cognitivement les étudiants dans l’apprentissage (Horsby et Osman 2014; Maringe et Sing, 2014; Prosser et Trigwell, 2014). De fait, plusieurs recherches établissent des liens solides entre engagement et réussite académique (Appleton et coll., 2008; Kuh, Cruce, Shoup, Kinzie et Gonyea, 2008; Sinatra et coll., 2015; Svanum et Bigatti, 2009). Cependant, d’autres études montrent qu’à l’enseignement supérieur, une culture du désengagement tend à émerger et une proportion non négligeable d’étudiants manifeste des signes de désengagement au plan académique (Hockings, 2010; Hockings, Cooke, Yamshita, McGinty et Bowl, 2008). Certains avancent que l’augmentation de la taille des groupes, utilisée comme moyen de composer avec la massification de la population étudiante, serait responsable de taux d’abandon élevés et de comportements d’études peu efficaces pour l’apprentissage (Ali et Al Ajmi, 2013). D’autres montrent que ce sont les efforts et les comportements d’études des étudiants qui ont une plus grande incidence sur leurs apprentissages (Appleton et coll., 2008; Sauvé, Racette et Royer, 2008). Quoi qu’il en soit, l’engagement cognitif est lié aux buts de l’éducation supérieure, soit le développement d’habiletés cognitives de haut niveau comme le transfert des connaissances dans divers contextes, la capacité à analyser, à évaluer (Mulryan-Kyne, 2010; Svinicki et McKeachie, 2011). Engager les étudiants importe donc pour améliorer la réussite, mais aussi pour assurer la qualité des formations et préserver ce qui fait la spécificité de l’enseignement supérieur soit, « la relation critique au savoir et la reconnaissance sociale accordée aux diplômes » (Lison et Jutras, 2014, p. 4).

Toutefois, même si les travaux portant sur l’engagement existent depuis plus de 30 ans et suscitent un foisonnement d’études, on constate un manque de consensus quant à la définition du construit, ce qui nuit à la justesse des comparaisons entre les résultats de recherches (Appleton et coll., 2008; Fredricks et McColskey, 2012; Greene et coll., 2004; Kahu, 2013; Sinatra et coll., 2015). Même lorsque les chercheurs semblent partager des conceptions similaires de l’engagement, il en ressort une variabilité considérable dans le contenu des items utilisés dans les instruments de mesure. Devant ce constat, Kahu (2013) ainsi que Sinatra et coll. (2015) ont entrepris des recensions d’écrits afin de dégager les principaux problèmes en lien avec la conceptualisation du construit de l’engagement et la façon de le mesurer. Dans leur recension, Sinatra et coll. (2015) relèvent que certains chercheurs ne distinguent pas les dimensions de l’engagement des construits de motivation et d’auto-efficacité. De son côté, Kahu (2013) souligne que certains chercheurs utilisent les termes motivation et engagement comme s’il s’agissait du même construit. En réalité, étant donné la multi dimensionnalité du construit et les pléiades de contextes possibles, chaque chercheur mesure une forme d’engagement différente et il est important pour lui d’en avoir conscience (Sinatra et coll., 2015). Pour cette raison, nous adoptons la définition de Greene (2015) dont les travaux distinguent clairement ces concepts. Mentionnons aussi que plusieurs recherches tiennent peu compte du caractère dynamique de l’engagement cognitif et négligent de distinguer ce qui influence l’engagement (par exemple la structure du cours ou le degré de motivation de l’étudiant) et l’engagement lui-même (Kahu, 2013; Sinatra et coll., 2015).

CADRE DE RÉFÉRENCE SUR LA MESURE DE L’ENGAGEMENT COGNITIF

L’engagement est à ce jour étudié à partir de quatre approches différentes : l’approche comportementale, l’approche psychologique, l’approche socioculturelle et l’approche holistique (Kahu, 2013; Sinatra et coll. 2015). L’approche psychologique est la plus considérée par les chercheurs, car c’est la plus complète et la plus opérationnalisable (Fredricks et coll., 2004; Kahu, 2013). Plus complète, parce qu’elle intègre trois dimensions psychologiques de l’engagement, soit les dimensions comportementale (interaction, participation, présence en salle de cours), affective (intérêt, enthousiasme, sentiment d’appartenance) et cognitive (stratégies d’apprentissage, autorégulation, efforts déployés).

Ces trois dimensions sont fortement influencées par l’interaction entre l’individu et le contexte d’apprentissage (Fredricks et coll., 2004). Elles sont sensibles aux variations de l’environnement. Puisque l’engagement est malléable, des interventions adéquates permettent de le susciter et de l’alimenter (Fredricks et McColskey, 2012). Le fait qu’un étudiant soit engagé dans ses cours ne provient pas seulement d’une caractéristique psychologique interne en soi, mais est grandement modulé par les interactions vécues dans le contexte du cours et par la structure pédagogique des situations d’enseignement-apprentissage (Biggs, 1996; Fredricks et McColskey, 2012).

Plusieurs chercheurs s’intéressent à l’engagement cognitif. Parmi les plus connus, on retrouve l’équipe de Miller et coll. (1996) qui définit l’engagement cognitif comme étant un construit permettant de mesurer 1) les stratégies cognitives déployées pour apprendre, 2) les réflexions sur la meilleure façon d’apprendre et 3) l’effort mental mobilisé pour ordonner les stratégies et les réflexions dans le but d’apprendre. Cette définition rejoint celle de Fredricks et McColskey (2012), également chercheurs phares dans le domaine.

Puisque le questionnaire utilisé dans le cadre de nos travaux est celui de Miller et coll. (1996), la définition de l’engagement cognitif réfère aux trois dimensions qui la composent, soit 1) les stratégies d’apprentissages utilisées (en surface ou en profondeur), 2) les habiletés d’autorégulation et 3) le temps / efforts déployés par l’étudiant.

Apprentissage en surface et apprentissage en profondeur

L’engagement cognitif se déploie en deux modes : en surface et en profondeur (Greene, 2015; Miller et coll., 1996). L’engagement cognitif est dit en surface si l’étudiant utilise des stratégies d’apprentissage comme la mémorisation, s’il « cherche prioritairement à satisfaire aux exigences plutôt qu’à comprendre ce qu’il fait et à y trouver du sens » (Conseil supérieur de l’éducation, 2008, p. 12). Ainsi, un étudiant qui restitue des connaissances par cœur visant des objectifs de performance, comme avoir la note de passage ou une bonne note, plutôt que de vraiment s’approprier les notions pour les maitriser est un étudiant cognitivement engagé en surface (Baeten, Kyndt, Struyven et Dochy, 2010; Miller et coll., 1996). L’apprentissage en profondeur est caractérisé par l’utilisation de fonctions cognitives complexes. Il se produit lorsque l’étudiant décide d’intégrer les nouvelles informations avec ses structures de connaissances déjà existantes. L’engagement cognitif sera en profondeur s’il utilise de manière créative ses connaissances antérieures dans le but de développer des raisonnements complexes ou s’il décrit la manière dont il arrive à ses conclusions (Baeten et coll., 2010).

L’autorégulation

Greene (2015) explique s’être inspirée du modèle de Zimmerman et Martinez-Pons (1988, 1990) pour définir les items liés à l’autorégulation dans ses échelles de mesure : « we defined self-regulation as a goal-striving process that involves subprocesses related to goal setting, planning, monitoring learning and self- reflection and reaction [l’autorégulation est défini comme un processus qui vise à atteindre un but et qui implique des sous-processus liés à l’établissement de but, la planification, le suivi de l’apprentissage et l’autoréflexion et une réaction]. » Le psychologue de l’éducation Zimmerman a étudié les comportements d’apprentissage d’élèves pendant plus de 25 ans. Les résultats de ses recherches ont révélé que :

les élèves qui obtiennent de très bons résultats se fixent plus d’objectifs d’apprentissage spécifiques, utilisent davantage des stratégies pour étudier, surveillent attentivement la progression de leur apprentissage et adaptent systématiquement leurs efforts aux résultats qu’ils obtiennent et qu’ils désirent atteindre (Zimmerman, Bonner et Kovach, 2000, p. 13).

Les modèles d’autorégulation en recherche à ce jour attribuent trois caractéristiques aux habiletés d’autorégulation : la métacognition, la motivation, la participation active à son processus d’apprentissage (Fréchette, 2008; Zimmerman et Labuhn, 2012). Ces habiletés peuvent être grandement influencées par les formes de rétroaction données à l’étudiant (Zimmerman et Labuhn, 2012). Les habiletés d’autorégulation se développent, entre autres, par les processus de rétroaction instaurés dans les méthodes pédagogiques (Boud et Molloy, 2013). La rétroaction continue promulguée à l’étudiant influence l’engagement cognitif de celui-ci et l’encouragera à déployer les efforts constants et assidus pour la réussite tout au long de ses études (Zimmerman et Labuhn, 2012).

En résumé, l’engagement cognitif se caractérise par 1) les stratégies d’apprentissage en profondeur ou en surface utilisées, 2) les processus d’autorégulation manifestés par l’étudiant ainsi que 3) les efforts déployés pour atteindre ses objectifs d’étude. Miller et coll. (1996) ont développé diverses échelles de mesure de l’engagement cognitif en s’appuyant sur les cadres conceptuels de la motivation à apprendre. Engagement cognitif et motivation sont en effet étroitement liés, le premier étant souvent vu comme une manifestation comportementale de la seconde (Greene, 2015; Pintrich, 2004). Selon Greene (2015), la connaissance des mécanismes de l’engagement cognitif sert d’élément médiateur pour expliquer les liens entre la motivation et la réussite, même s’il n’est pas toujours possible d’affirmer qu’un engagement cognitif profond soit directement lié à la réussite. En revanche, plusieurs chercheurs ont obtenu des résultats significatifs sur la relation négative entre l’engagement en surface et la réussite (Blumenfeld, Kemper et Krajcik, 2006 ; Greene et Azevedo, 2010). En fait, les étudiants qui réussissent semblent avoir un répertoire de stratégies (qu’elles soient en surface ou en profondeur) à employer en fonction des besoins et des demandes du professeur. Excellent prédicteur de la réussite, ce répertoire est utilisé en tenant compte des contextes d’enseignement-apprentissage. En effet, chaque contexte a ses variables qui influencent l’engagement cognitif : les exigences du milieu, les valeurs de référence, les relations avec l’environnement, les pairs et les professeurs (Bailey et Alfonso, 2005).

MÉTHODE

Participants

La validation francophone de l’instrument a été réalisée auprès d’un échantillon total de 647 étudiants de niveau postsecondaire, répartis dans 16 classes d’un établissement collégial (130 hommes et 223 femmes) et dans 7 classes d’un établissement universitaire (93 hommes et 198 femmes), tous deux de la région de Montréal (Québec). La moyenne d’âge des participants de l’établissement collégial est de 18 ans et trois mois (s = 2 ans et 3 mois), tandis que celle des participants de l’établissement universitaire est de 22 ans et quatre mois (s = 4 ans et 4 mois). Les étudiants ont répondu au questionnaire, en mode papier et crayon, une seule fois en classe. La première passation (n = 439), réalisée en novembre 2016, a permis de vérifier la version exploratoire du questionnaire. La deuxième passation (n = 208), réalisée entre février 2017 et avril 2017, a permis de vérifier la version adaptée du questionnaire.

Version originale du questionnaire

L’élaboration du présent questionnaire provient de la version traduite et adaptée du Cognitive Engagement Scale (CES) de Miller et coll. (1996). Ce questionnaire a été validé à maintes reprises en contexte postsecondaire dans sa version originale en langue anglaise. Celle-ci comporte 29 items répartis en quatre sous-échelles. La dimension autorégulation compte neuf items (Before a quiz or exam, I plan out how I will study the material [avant un quiz ou un examen, je planifie comment j’étudierai]), la dimension utilisation de stratégies en profondeur en compte sept (I draw pictures or diagrams to help me solve problems [je trace des images ou des diagrammes pour m’aider à résoudre des problèmes]), quatre items composent la dimension utilisation de stratégies de surface (I try to memorize the steps for solving problems presented in the text or in class [j’essaie de mémoriser les étapes de résolution de problème présentés dans le texte ou en classe]), enfin, la dimension persévérance compte huit items (If I have trouble understanding a problem, I go over it again until I understand it [si j’ai du mal à comprendre un problème, je le refais jusqu’à ce que je le comprenne]). Une échelle de type Likert à six entrées a été utilisée, allant de « totally disagree » [totalement en désaccord] à « totally agree » [tout à fait d’accord].

Procédures de traduction et de validation du questionnaire

Nous retenons la méthode proposée par Vallerand (1989), car elle est fréquemment citée dans la littérature francophone pour les recherches en éducation (Bernet, Karsenti et Roy, 2014). Elle a l’avantage de présenter de façon détaillée les aspects relatifs à la traduction-adaptation des items ainsi que les aspects portant sur la validation psychométrique de l’instrument. Cette méthode, qui se décline en 7 étapes, contribue à mitiger les biais qui peuvent survenir lorsque seul le chercheur principal assure la traduction (Vallerand, 1989). Ces étapes sont : 1) la préparation d’une première version en français, 2) l’analyse et la modification de cette première version d’essai, 3) l’analyse de la version d’essai par un prétest, 4) l’analyse de la validité concomitante et de contenu, 5) l’analyse de fidélité des construits, 6) l’analyse de leur validité et 7) l’établissement de normes.

À l’étape 1, nous avons fait appel à une équipe de quatre personnes (deux étudiantes des cycles supérieurs et deux professeurs) qui a procédé par traduction renversée (Spielberger et Sharma, 1976) pour produire la première version traduite du questionnaire. Les consignes énoncées étaient de viser une traduction littérale, dans un premier temps, pour ensuite l’adapter au contexte culturel, aux habitudes de vie et aux idiomes de la population cible. Cette seconde consigne est incontournable pour les items portant sur des dimensions sociales ou psychologiques (Bouletreau, Chouanière, Wild et Fontana, 1999). Une version unique française a été conçue par l’équipe de recherche en comparant le résultat des quatre versions et en intégrant de manière consensuelle les commentaires des experts. En deuxième étape, elle a été soumise à deux professeurs, experts en psychologie et en pédagogie universitaire, indépendants du projet de validation pour recevoir leur avis quant à la pertinence théorique et du choix des expressions utilisées. Quelques énoncés ont fait l’objet d’ajustements ciblant principalement la formulation syntaxique. L’un des experts a également suggéré d’incorporer des questions qui portent sur des comportements reflétant l’engagement cognitif en classe. Nous l’avons fait en utilisant quatre items tirés d’un questionnaire qui mesure l’engagement cognitif situationnel de Rotgans et Schmidt (2011). Ces auteurs ont eu recours au concept de flow, développé par Csikszentmihalyi (1990, 1997), pour constituer leur échelle à quatre items (I wish we could still continue with the work for a while [je souhaite qu’on puisse continuer de travailler pour encore un moment]). Cette version bonifiée a été soumise à deux personnes bilingues n’ayant pas participé à la première phase de traduction, et qui sont expertes en pédagogie universitaire et dont la langue maternelle est l’anglais, pour qu’elles traduisent de nouveau les items du français vers l’anglais. Leur traduction a été comparée à la version originale anglaise du questionnaire pour identifier les énoncés problématiques avant d’être une fois de plus révisée par l’équipe.

Une version exploratoire du questionnaire a été administrée durant la session d’automne 2016. La version adaptée du questionnaire a été administrée durant la session d’hiver 2017. Ils ont reçu l’indication de formuler tout commentaire à l’égard de la clarté des énoncés directement sur le questionnaire. Les données recueillies ont été utilisées pour évaluer la validité ainsi que la fidélité des construits. Nous avons vérifié la première à l’aide de l’analyse factorielle, selon la méthode de l’analyse en composante principale (ACP. Ainsi, nous avons prévu une taille de l’échantillon suffisamment grande pour avoir entre 10 et 20 répondants par item (Nunally, 1978). Nous nous sommes assurés de l’absence de données aberrantes (outliers), de colinéarité extrême et de données manquantes trop élevées. Nous avons aussi analysé la qualité de la représentation (communality), qui indique l’appartenance de chaque variable à la covariance de l’ensemble des variables. Généralement, des corrélations qui excèdent ,30 suffisent pour indiquer qu’il existe assez de points communs pour justifier la prise en compte des facteurs (Tabachnick et Fidell, 2001). D’ailleurs, selon Bourque, Poulin et Cleaver (2006), il s’agit de l’élément le plus important à considérer, même si cette analyse ne peut être réalisée une fois que les facteurs sont extraits.

Un autre postulat à respecter lors d’une ACP est la factorabilité de la matrice de corrélation. En effet, selon les recommandations de Pett, Lackey et Sullivan (2003), la matrice de corrélation est à privilégier au lieu de la matrice de covariance, en raison de la facilité d’interprétation des résultats. En effet, un résultat non nul d’un déterminant indique que le facteur ou la composante est mathématiquement possible (Beavers et coll., 2013). En complément, les tests de sphéricité de Bartlett et de l’adéquation de l’échantillonnage de Kaiser-Meyer-Olkin (KMO) fournissent d’autres mesures plus complexes qui permettent d’évaluer la force des relations et de factorabilité des variables. L’hypothèse nulle du test de Bartlett voulant que la matrice de corrélations soit une matrice d’identité, c’est-à-dire qu’il n’existerait aucun lien entre les variables, peut être rejetée lorsque la valeur du test est significative (p < ,001). Quant au KMO, il examine l’adéquation de l’échantillon en mesurant la variance partagée entre les items. Beavers et coll. (2013) proposent des balises pour évaluer la qualité des mesures obtenues : ,90 à 1,00, merveilleuse; ,80 à ,89, méritoire; ,70 à ,79, moyenne, ,60 à ,69, médiocre; ,50 à ,59, misérable; ,00 à ,49, inacceptable, l’analyse ne devrait pas être conduite.

Par ailleurs, il est recommandé d’avoir recours à diverses techniques afin de déterminer le nombre de facteurs à retenir dans la solution factorielle. Nous en avons utilisé trois, dont celle du critère de Kaiser (1960), celle du diagramme des éboulements (Scree plot) de Cattell (1966), ainsi que celle de l’analyse parallèle de Horn (Zwick et Velicer, 1986). La plus citée est celle du critère de Kaiser (1960), qui suggère de retenir les facteurs ayant une valeur propre (eigenvalue) supérieure à 1. Cette dernière représente la variance expliquée par chaque composante par rapport à la variance totale des variables à l’étude (Beavers et coll., 2013). Toutefois, certains experts ont exprimé une réserve quant à l’utilisation de ce critère, car il tend à surestimer le nombre de facteurs à retenir (Field, 2009; Zwick et Velicer, 1986). On peut alors recourir au diagramme des éboulements de Cattell (1966), une technique moins controversée qui consiste à déterminer où se situe le point de chute, représentant l’endroit de la droite où l’inclinaison de la pente est plus importante, communément appelé le coude. Par contre, la difficulté de déterminer le point de chute avec précision peut rendre l’interprétation des résultats ambiguë, et ne permet pas la reproduction facile par d’autres chercheurs (Hakstian, Rogers et Cattell, 1982). De la sorte, le recours à une troisième méthode, l’analyse parallèle de Horn, aussi connu sous analyse Monte-Carlo (Zwick et Velicer, 1986) peut pallier ces inconvénients. L’analyse parallèle de Horn offre des valeurs de comparaison (avec un degré alpha de signification fixé par le chercheur) qui permettent de déterminer le nombre de facteurs à retenir en soumettant le nombre d’items et de participants de l’échantillon à une analyse aléatoire. Dès lors, il s’agit de sélectionner seulement les facteurs qui ont des valeurs propres supérieures à celles proposées par l’analyse parallèle. Une quatrième méthode consiste à retenir le nombre de facteurs en fonction du pourcentage de la variance extraite qui est expliquée. La majorité des auteurs suggère qu’entre 75 % et 90 % de la variance devrait être expliquée, quoique certains indiquent que jusqu’à 50 % de la variance serait acceptable (Garson, 2010; Pett et coll., 2003).

Par ailleurs, étant donné que la première extraction tend à regrouper un grand nombre d’items sur un même facteur, des rotations orthogonales ou obliques sont à envisager. Les rotations orthogonales (Varimax, Quartimax et Equimax) sont appropriées lorsque l’intention est de générer des scores pour les facteurs (Fabrigar Wegener, MacCallum et Strahan, 1999). Dans cette étude, à l’instar d’une majorité d’utilisateurs, nous avons opté pour la rotation Varimax avec normalisation Kaiser, qui est considérée comme la plus appropriée (Costello et Osborne, 2005). La consistance interne des facteurs a été examinée grâce à la statistique de Cronbach (Vallerand, 1989). L’alpha de Cronbach est un indice qui permet de vérifier l’appartenance des items à un même construit. Une valeur adéquate de l’alpha de Cronbach serait de ,8 et plus (Kline, 1999). Néanmoins, étant donné la nature très disparate des construits mesurés en sciences humaines et sociales, une valeur de ,7 et plus est considérée comme acceptable (Field, 2009). Il faut également préciser la nécessité de tenir compte du nombre de facteurs qui compose le construit au moment de l’interprétation, car un construit composé de peu d’items risque de produire une valeur alpha faible (Field, 2009). Enfin, notons que la septième étape de la méthode proposée par Vallerand (1989), qui consiste à établir des normes, ne peut être réalisée pour notre instrument en raison, d’une part, d’une taille d’échantillon pas assez élevée. D’autre part, cette étape est surtout utile pour des études en contexte clinique, ce qui n’est pas le cas ici, puisqu’elle se situe plutôt en contexte académique.

RÉSULTATS

Étant donné l’adaptation de la version originale du questionnaire, nous avons opté pour une validation exploratoire de l’outil, plutôt qu’une analyse factorielle confirmatoire, car elle permet d’étudier la structure factorielle des données sans référence à des dimensions prédéterminées. Les premières analyses ont d’ailleurs été menées sur la version exploratoire du questionnaire traduit. Il s’agit d’une analyse en composante principale (ACP) et d’une analyse parallèle de Horn. Le but de ces analyses est de déterminer le nombre de construits représentés dans le questionnaire. Par la suite, nous avons réalisé des analyses factorielles pour déterminer les items à retenir pour chacun des construits. Ces analyses ont d’abord été réalisées sur les données issues de la version exploratoire du questionnaire. Elles ont mené soit au retrait, soit à l’ajout d’items pour certains des construits. En a découlé une version adaptée du questionnaire, qui a été soumise à la seconde passation. Les paragraphes qui suivent présentent les résultats de l’ensemble des analyses qui ont mené à la validation de la version adaptée du questionnaire.

Validité de construit du questionnaire

L’ACP a été réalisée avec rotation Varimax sur l’ensemble des items, tel que stipulé à la section méthode. Ainsi, le Tableau 1 présente le pourcentage de la variance expliquée par les composantes pour la version exploratoire. On peut voir que les cinq premiers facteurs expliquent 55,31 % de la variance, avec le premier facteur qui en explique 27,26 %. Ce premier facteur est composé des items relatifs aux stratégies en profondeur. Le deuxième facteur explique 10,22 % de la variance observée et est formé des items de l’engagement situationnel. Les troisième et quatrième facteurs expliquent respectivement 6,68 % et 6,06 % de la variance. Ils sont formés des items de persévérance et d’autorégulation. Le cinquième facteur explique 5,09 % de la variance, il est formé des items des stratégies de surface.

Tableau 1. Résultats de l’analyse en composantes principales de la version exploratoire

Composantes

Valeurs propres initiales

Total

% de la variance

% cumulé

1

5,18

27,26

27,22

2

1,94

10,22

37,48

3

1,27

6,68

44,16

4

1,15

6,06

50,22

5

1,09

5,09

55,31

6

0,91

4,47

59,78

7

0,83

4,37

63,85

8

0,80

4,22

68,07

9

0,75

3,93

72,00

10

0,69

3,61

75,61

11

0,68

3,57

79,18

12

0,60

3,13

82,31

13

0,56

2,96

85,27

14

0,56

2,92

88,19

15

0,51

2,67

90,85

16

0,49

2,58

93,43

17

0,46

2,44

95,87

18

0,41

2,17

98,04

19

0,37

1,96

100,00

 

En plus de l’ACP, l’analyse parallèle de Horn a permis elle aussi d’identifier le nombre de facteurs à retenir, considérant les données provenant de la version exploratoire. Le Tableau 2 montre les valeurs propres (eigenvalues) calculées sur les données brutes à la suite de permutations aléatoires, les moyennes ainsi que les valeurs au 95e percentile. Ce sont les cinq premiers facteurs qui obtiennent des valeurs propres supérieures au 95e percentile.

Deux autres analyses ont été réalisées, soit la mesure de l’adéquation de l’échantillonnage KMO et le test de sphéricité de Bartlett. La première obtient un score de ,90, considérée comme merveilleux (Beavers et coll. 2013), tandis que le résultat du test de sphéricité est significatif (p = ,000), or l’hypothèse nulle voulant que la matrice de corrélation soit une matrice d’identité peut être rejetée.

Tableau 2. Valeurs propres de l’analyse parallèle de Horn

Facteurs

Valeurs propres des données brutes

Valeurs propres à la moyenne

Valeurs propres au 95e percentile

1

6,28

1,39

1,46

2

2,07

1,33

1,37

3

1,51

1,28

1,32

4

1,30

1,24

1,28

5

1,23

1,17

1,21

6

0,94

1,16

1,20

7

0,90

1,13

1,16

8

0,82

1,10

1,13

9

0,81

1,07

1,09

10

0,73

1,04

1,07

11

0,67

1,01

1,04

12

0,66

0,99

1,01

13

0,62

0,96

0,98

14

0,58

0,93

0,96

15

0,56

0,91

0,93

16

0,52

0,88

0,90

17

0,51

0,85

0,87

18

0,48

0,82

0,85

19

0,47

0,80

0,82

20

0,41

0,77

0,79

Structures factorielles du questionnaire

Les données provenant de la première passation ont été soumises à une analyse factorielle, qui a permis de déterminer les items à retenir pour la solution factorielle. Comme le recommande Vallerand (1989), les items ayant obtenu des indices de saturation inférieurs à ,30 ont été éliminés de l’analyse factorielle. L’examen des indices de communauté a également mené à l’élimination des items aux valeurs inférieurs à ,40 (Tabachnick et Fidell, 2001). Ainsi, à la suite des analyses portant sur la version exploratoire du questionnaire, quatre items ont été retirés pour le facteur autorégulation (J’ai une idée claire de ce que j’essaie d’accomplir dans ce cours; Avant de commencer un travail, je vérifie que je comprends bien ce que je dois faire; Lorsque j’étudie, je prends note des éléments que je maîtrise et de ceux que je ne maîtrise pas; J’ai de la facilité à établir des objectifs d’apprentissage dans ce cours). Un item a été retiré pour le facteur stratégie en profondeur (J’ai de la facilité à établir des objectifs d’apprentissage dans ce cours). Un item a également été retiré pour le facteur stratégie de surface (Je développe des trucs de mémorisation (mnémotechniques) pour m’aider à me préparer aux examens.). Enfin, trois items n’ont pas été retenus pour le facteur persévérance (J’essaie de terminer mes devoirs et mes travaux le plus rapidement possible, sans vérifier la justesse de mes réponses; J’essaie de terminer mes devoirs et mes travaux le plus rapidement possible, sans vérifier la justesse de mes réponses; Quand j’ai de la difficulté avec une question dans un devoir, habituellement je passe par-dessus et vais à la question suivante.).

Le Tableau 3 présente les résultats de l’analyse factorielle des cinq sous-échelles pour les items retenus ainsi que l’indice de communauté pour chacun d’eux. Par souci de parcimonie d’espace, le résultat de l’analyse factorielle est présenté dans ce même tableau pour les versions exploratoire (VE) et adapté (VA) du questionnaire. La numérotation des items retenus est celle de la version adaptée.

Tableau 3. Résultats de l’analyse factorielle avec rotation Varimax pour les cinq sous-échelles de l’engagement cognitif

Items du questionnaire

 

Facteurs et corrélation

Communauté

Versions

1

SP

2

ES

3

PR

4

AU

5

SS

14. Lorsque j’étudie, j’essaie de combiner les divers éléments de la matière d’une manière nouvelle.

VE

,76

-

-

-

-

,63

VA

,67

-

-

-

-

,53

12. Quand j’apprends de nouveaux concepts, j’essaie de penser à des applications pratiques.

VE

,71

-

-

-

-

,57

VA

,61

-

-

-

-

,41

22. J’apprends la nouvelle matière en reliant mentalement les nouvelles idées avec des idées similaires que je connais déjà.

VE

,65

-

-

-

-

,53

VA

,67

-

-

-

-

,50

6. Lorsque j’étudie, je compare et je distingue les différents concepts entre eux.

VE

,62

-

-

-

-

,50

VA

,68

-

-

-

-

,49

16. J’organise mentalement différentes informations du cours dans un ordre qui a du sens pour moi.

VE

,54

-

-

-

-

,42

VA

,65

-

-

-

-

,44

19. J’ai évalué l’utilité des idées présentées dans ce cours.

VE

,41

-

-

-

-

,45

VA

,43

-

-

-

-

,40

28. Je souhaiterais pouvoir continuer le travail entrepris dans ce cours pour encore un moment.

VE

-

,78

-

-

-

,64

VA

-

,75

-

-

-

,60

27. J’investis beaucoup d’effort intellectuel dans ce cours.

VE

-

,75

-

-

-

,71

VA

-

,79

-

-

-

,70

26. Je suis engagé dans les tâches à réaliser dans ce cours.

VE

-

,66

-

-

-

,64

VA

-

,65

-

-

-

,59

29. Je suis à ce point impliqué dans ce cours que j’en oublie tout ce qui m’entoure.

VE

-

,64

-

-

-

,52

VA

-

,71

-

-

-

,54

5. Lorsque j’ai de la difficulté dans un devoir, j’ai plutôt tendance à essayer de deviner la réponse au lieu de chercher dans le livre pour tenter de comprendre.*

VE

-

-

,71

-

-

,53

VA

-

-

,40

-

-

,32

13. Quand j’ai de la difficulté à faire mes devoirs, j’essaie de trouver quelqu’un pour qu’il le fasse pour moi.*

VE

-

-

,67

-

-

,46

VA

-

-

,46

-

-

,31

9. Si j’ai de la difficulté à faire un devoir dans le livre, je copie la réponse à la fin du livre si elle y est.*

VE

-

-

,54

-

-

,42

VA

-

-

,45

-

-

,30

17. Lorsque je lis quelque chose que je ne comprends pas dans le livre, je passe à autre chose et j’espère que l’enseignant l’explique en classe.*

VE

-

-

,52

-

-

,45

VA

-

-

,55

-

-

,42

21. Si j’éprouve de la difficulté avec un devoir, je persévère jusqu’à ce que je réussisse à comprendre.

VE

-

-

,45

-

-

,51

VA

-

-

,52

-

-

,52

1. Avant un quiz ou un examen, je planifie comment j’étudierai la matière.

VE

-

-

-

,61

-

,55

VA

-

-

-

,77

-

,61

2. Lorsque je termine un devoir, je vérifie s’il y a des erreurs.

VE

-

-

-

,61

-

,52

VA

-

-

-

,60

-

,40

3. J’organise bien mon temps d’étude pour ce cours.

VE

-

-

-

,56

-

,59

VA

-

-

-

,68

-

,55

7. J’essaie de penser à une stratégie avant de commencer mes devoirs ou à étudier.

VE

-

-

-

,50

-

,52

VA

-

-

-

,49

-

,51

23. Je m’assure de bien comprendre ce que j’étudie.

VE

-

-

-

,41

-

,63

VA

-

-

-

,46

-

,50

24. C’est surtout pour avoir les informations nécessaires pour l’examen que je lis les textes du cours.

VE

-

-

-

-

,69

,54

VA

-

-

-

-

,45

,40

20. Je crois qu’un bon moyen d’étudier pour un examen est de revoir des exemples vus dans le livre ou vus en classe.

VE

-

-

-

-

,57

,54

VA

-

-

-

-

,66

,50

11. J’essaie de mémoriser les réponses aux questions des documents de révision pour l’examen.

VE

-

-

-

-

,48

,42

VA

-

-

-

-

,70

,53

18. Lors d’évaluations, je m’en sors en mémorisant des éléments clés plutôt que d’essayer de les comprendre.

VA

-

-

-

-

,68

,52

8. Je trouve que la meilleure façon de réussir les évaluations est d’anticiper les questions et d’essayer de me souvenir des réponses.

VA

-

-

-

-

,60

,46

25. J’apprends certains éléments par cœur en les répétant plusieurs fois.

VA

-

-

-

-

,55

,43

15. Apprendre, c’est emmagasiner de l’information en vue de la reproduire.

VA

-

-

-

-

,50

,40

Notes. *items inversés

Le Tableau 4 présente le nombre d’items retenus, éliminés ou ajoutés pour l’ensemble des sous-échelles. L’élimination d’items a affecté à la baisse la valeur de fidélité de construit pour la sous-échelle stratégies de surface (voir Tableau 5). En conséquence, nous avons ajouté quatre items à la version adaptée (VA). Ces items proviennent d’un instrument développé par Biggs, Kember et Leung (2001), The Revised Two Factor Study Process Questionnaire, qui contient une sous-échelle portant sur les stratégies de surface. Ces items ont été traduits par les auteurs, mais n’ont pas fait l’objet d’une contre traduction (Lors d’évaluations, je m’en sors en mémorisant des éléments clés plutôt que d’essayer de les comprendre; Je trouve que la meilleure façon de réussir les évaluations est d’anticiper les questions et d’essayer de me souvenir des réponses; J’apprends certains éléments par cœur en les répétant plusieurs fois; Apprendre, c’est emmagasiner de l’information en vue de la reproduire.)

Tableau 4. Nombre d’items originaux, éliminés et nouveaux des sous-échelles

Sous-échelles

Abrév.

Items originaux

Items éliminés

Nouveaux items

Total

Stratégies en profondeur

SP

7

1

-

6

Stratégies de surface

SS

4

1

4

7

Autorégulation

AU

9

4

-

5

Persévérance

PR

8

3

-

5

Engagement situationnel

ES

-

-

4

4

 

Fidélité de l’instrument

Le Tableau 5 permet de comparer la consistance interne des sous-échelles entre la version exploratoire, la version adaptée et la version originale en langue anglaise. Dans l’ensemble, les facteurs des versions exploratoire et adaptée obtiennent des valeurs d’alpha de Cronbach acceptables, sauf pour le facteur stratégies de surface qui est nettement inférieur pour la version exploratoire (,34). Cela peut s’expliquer par le nombre peu élevé d’items retenu (3) dans la solution factorielle (Field, 2009). Néanmoins, avec l’ajout de quatre items à cette sous-échelle pour la version adaptée, la valeur de l’alpha de Cronbach remonte à un niveau comparable à celle de la version originale (,67 et ,65 respectivement). Par ailleurs, outre le facteur stratégies en profondeur qui obtient des valeurs supérieures pour les versions exploratoire (,76) et adaptée (,73) par rapport à la version originale (,63), la valeur des autres indices se situe légèrement sous celle de la version originale de Miller et coll. (1996). Ce phénomène se produit souvent lorsqu’il s’agit d’une version traduite d’une échelle (Vallerand, 1989). Dans ce cas, le nombre d’items inférieur des sous-échelles peut également être en cause. Ainsi, les versions exploratoire et adaptée obtiennent des alphas de Cronbach de ,62 et ,61 pour le facteur persévérance, de ,76 et ,69 pour le facteur autorégulation. Le facteur engagement situationnel, absent de la version originale, obtient quant à lui, des valeurs de ,77 et ,75 selon les versions. Il est aussi à noter que l’alpha de Cronbach n’aurait pu être amélioré en cas de suppression d’un des items pour l’ensemble des sous-échelles.

Tableau 5. Alpha de Cronbach des sous-échelles selon les versions originales, exploratoire et adaptée

Version du
questionnaire

Dimensions de l’engagement cognitif

Facteur 1

SP

Facteur 2

ES

Facteur 3

PR

Facteur 4

AU

Facteur 5

SS

Version exploratoire

,76

,77

,62

,76

,34

Version adaptée

,73

,75

,61

,69

,67

Version originale

,63

-

,75

,80

,65

Validité convergente de l’instrument

Le Tableau 6 les corrélations entre les cinq composantes du questionnaire. À l’instar de Miller et coll. (1996), nous constatons une corrélation positive entre les composantes stratégies d’apprentissage en profondeur et stratégies de surface. Ces deux dernières composantes sont également corrélées positivement avec les composantes autorégulation et persévérance, ce qui appuie l’hypothèse de Greene (2015) que les étudiants ont recours à un répertoire de stratégies en situation d’apprentissage.

Tableau 6. Matrice de corrélation entre les composantes du questionnaire

Composantes

Moyenne

Écart-type

1

2

3

4

5

1. Stratégies en profondeur

4,48

0,58

1

,58

,33

,44

,21

2. Stratégies de surface

4,32

0,76

-

1

,30

,45

,34

3. Autorégulation

4,34

0,67

-

-

1

,25

,30

4. Persévérance

3,98

0,59

-

-

-

1

,21

5. Engagement situationnel

3,73

0,93

-

-

-

-

1

DISCUSSION

De plus en plus de chercheurs s’intéressent au concept d’engagement cognitif pour son rôle dans l’apprentissage et la réussite (Sinatra et coll., 2015). Toutefois, il semble qu’un manque de clarté conceptuelle et l’absence d’une définition univoque de ce concept se répercute sur la capacité de discerner l’engagement cognitif d’autres concepts reliés, comme l’intérêt situationnel, la motivation et la métacognition (Bernet, 2010). De plus, l’évaluation de l’engagement cognitif représente un défi, car cette forme interne d’engagement ne peut être qu’inférée par les comportements ou évoquée par des questionnaires auto-rapportés (Fredricks et coll. 2004). À ce sujet, les experts s’entendent pour dire que les questionnaires auto-rapportés sont une manière valide et fiable de le mesurer (Appleton et coll. 2008). Or, en dépit de l’existence d’une variété de questionnaires mesurant l’engagement, sous une forme ou une autre, peu d’entre eux portent exclusivement sur l’engagement cognitif, sont disponibles en français et conviennent pour des clientèles en contexte postsecondaire.

En plus de la traduction, nous avons réalisé une adaptation de l’outil qui a consisté, entre-autres, en l’ajout d’une cinquième sous-échelle visant l’engagement situationnel. Cette dernière a été ajoutée à la suite des recommandations d’un des experts à qui nous avons soumis la version traduite, et ce, afin d’élargir le concept d’engagement cognitif. En effet, les items qui composent cette dimension supplémentaire proviennent du concept d’engagement cognitif situationnel de Rotgans et Schmidt (2011). Nous avons convenu de la pertinence d’inclure une sous-échelle qui aborde une dimension situationnelle de l’engagement cognitif, car elle reflète l’expérience vécue directement en salle de classe.

De plus, certains des items relatifs aux quatre composantes présentes sur la version originale du questionnaire étaient faiblement saturés sur leur composante respective, et ils n’ont pas été retenus dans la solution factorielle finale de l’instrument. Il se peut que ces différences soient dues à la spécificité culturelle ou à la taille de l’échantillon. Quoi qu’il en soit, le retrait de ces items a, cependant, fait diminuer la fidélité de l’instrument, particulièrement pour la sous-échelle relative aux stratégies de surface. Nous avons donc ajouté des items pour améliorer les qualités psychométriques de l’instrument. Cet ajout a été bénéfique, puisque le résultat des analyses factorielles et la valeur alpha de Cronbach de cette sous-échelle obtient désormais des valeurs similaires à la version originale. Nous avons choisi des items provenant d’un autre questionnaire existant et déjà validé, ce qui a sans doute contribué à augmenter les chances d’une consistance interne satisfaisante. Par ailleurs, la consistance interne des autres sous-échelles a mis en évidence des valeurs des coefficients alpha de Cronbach similaires à celles retrouvées dans la version originale. En ce sens, cette version en français du questionnaire CES est une adaptation de la version originale. Le processus ayant mené au retrait ou l’ajout d’items a été réalisé en respectant les règles inhérentes à la démarche de traduction et de validation de questionnaires, soutenant de la sorte la crédibilité des résultats obtenus. Ces modifications ont été apportées pour optimiser les qualités métrologiques de l’instrument et pour permettre de mesurer l’engagement cognitif en contexte académique francophone.

Cette traduction, adaptation et validation du questionnaire contribue au répertoire des instruments francophones pour la mesure de l’engagement cognitif en contexte universitaire. Le questionnaire a le potentiel de répondre à la fois aux besoins de la recherche et à ceux de la pratique. Comme outil de recherche, il présente de bons indices de fiabilité et de validité. Il peut servir pour tester des revendications quant aux vertus que pourraient avoir des activités, des designs pédagogiques ou des stratégies d’enseignement pour susciter l’engagement cognitif chez les étudiants. Pour les praticiens, il pourrait permettre aux acteurs de l’enseignement supérieur de vérifier le degré d’engagement cognitif des étudiants en situation d’apprentissage, qu’elle soit en mode présentiel ou à distance, et d’évaluer l’impact des choix pédagogiques sur celui-ci. L’instrument devrait être particulièrement utile pour fournir une rétroaction pré et post modifications aux activités du cours visant à accroître l’engagement des étudiants. Il peut aider à répondre à des questionnements en cours de session. Par exemple, les étudiants peuvent répondre au questionnaire à la suite d’un examen ou d’un travail. Sur le plan institutionnel, cet outil permet aux enseignants universitaires de fournir des informations concernant l’efficacité de leurs enseignements, venant de sources différentes des questionnaires d’évaluation traditionnels, qui eux portent généralement sur la satisfaction des étudiants. L’engagement cognitif est un élément clé dans le processus d’apprentissage, en ce sens que les étudiants doivent être engagés cognitivement pour apprendre (Sinatra et coll., 2015). Quoique ce questionnaire ne prétende pas mesurer l’apprentissage, il peut fournir des informations sur les effets de l’environnement d’apprentissage que les enseignants s’efforcent de mettre en place. De la sorte, il permet de réaliser des analyses sur la relation entre les pratiques pédagogiques de l’enseignant et l’engagement cognitif des étudiants.

Cela dit, l’étude n’est pas exempte de certaines limites qu’il convient de considérer avant l’utilisation de cette version adaptée du questionnaire. Les répondants proviennent d’un échantillon de convenance, composé de 647 étudiants inscrits à un programme d’études des ordres d’enseignement collégial ou universitaire. Même si l’échantillon était de taille suffisante pour respecter les postulats des analyses réalisées dans le cadre de la validation, il n’est pas suffisamment diversifié sur le plan des programmes d’études, des âges et d’autres données sociodémographiques. Ainsi, de futures études devraient investiguer les propriétés psychométriques de l’instrument en incluant un échantillon davantage hétérogène. De plus, les répondants suivaient tous un cours en mode présentiel au moment de remplir le questionnaire. Il faudrait à l’avenir élargir l’échantillon en ayant recours à une variété de modalités d’environnement d’apprentissage. Enfin, il faudrait qu’une prochaine étude réalise une validation confirmatoire par équation structurelles de l’instrument.

CONCLUSION

L’engagement cognitif se définit par le déploiement de stratégies d’étude et d’apprentissage qui visent une maîtrise plus ou moins élevée des notions abordées durant les cours (Fredricks et McColskey, 2012; Greene, 2015). Le but de l’étude que nous avons réalisée était de fournir une version française validée du questionnaire de Miller et coll. (1996) pouvant être utilisée pour des recherches portant sur différents contextes académiques postsecondaires. À notre connaissance, il s’agit de la première traduction et validation en français de ce questionnaire. La traduction a été effectuée en utilisant une méthode de contre-traduction impliquant quatre experts et notre équipe de recherche. Cette première étape a permis d’obtenir un consensus entre les versions anglaise et française du questionnaire. Ensuite, une validation de la version en français a été réalisée auprès de 647 étudiants du postsecondaire. Les diverses analyses vérifiant la validité de la traduction ont permis d’obtenir une version en français de l’instrument présentant des qualités métrologiques satisfaisantes. Son utilisation conjointe avec celle d’outils vérifiant les pratiques pédagogiques des enseignants devrait permettre d’étudier les relations entre ces premières et l’engagement cognitif en contexte postsecondaire francophone.

Note

  1. 1. Cette recherche reçoit du soutien financier du Conseil de recherches en sciences humaines du Canada (CRSH) et du Centre de recherche interuniversitaire sur la formation et la profession enseignante (CRIFPE).

RÉFÉRENCES

Ali, H. I. H. et Ajmi, A. A. S. (2013). Towards quality assessment in an EFL programme. English Language Teaching, 6(10), 132-148.

Appleton, J. J., Christenson, S. L. et Furlong, M. J. (2008). Student engagement with school: Critical conceptual and methodological issues of the construct. Psychology in the Schools, 45(5), 369-386.

Azevedo, R. (2015). Defining and measuring engagement and learning in science: Conceptual, theoretical, methodological, and analytical issues. Educational Psychologist, 50(1), 84-94.

Baeten, M., Kyndt, E., Struyven, K. et Dochy, F. (2010). Using student-centred learning environments to stimulate deep approaches to learning: Factors encouraging or discouraging their effectiveness. Educational Research Review, 5(3), 243-260.

Bailey, T. R. et Alfonso, M. (2005). Paths to persistence: An analysis of research on program effectiveness at community colleges. New York, NY : Community College Research Center, Teachers College, Columbia University.

Beavers, A. S., Lounsbury, J. W., Richards, J. K., Huck, S. W., Skolits, G. J. et Esquivel, S. L. (2013). Practical considerations for using exploratory factor analysis in educational research. Practical Assessment, Research & Evaluation, 18(6), 1-13.

Bernet, S. (2010). Engagement affectif, comportemental et cognitif des élèves du primaire dans un contexte pédagogique d’intégration des TIC : une étude multicas en milieux défavorisé (Thèse de doctorat, Université de Montréal, Montréal, QC). Repéré à https://papyrus.bib.umontreal.ca/xmlui/handle/1866/3943

Bernet, E., Karsenti, T. et Roy, N. (2014). Mesure de l’engagement scolaire. Engagement scolaire en milieux défavorisés : traduction et validation exploratoire d’une échelle de mesure. Educational Journal of the University of Patras UNESCO Chair, 1(1), 20-33.

Biggs, J. (1996). Enhancing teaching through constructive alignment. Higher Education, 32(3), 347-364.

Biggs, J. B., Kember, D. et Leung, D. Y. P. (2001). The revised two factor study process questionnaire: R-SPQ-2F. British Journal of Educational Psychology, 71, 133-149.

Blumenfeld, P. C., Kemper, T. M. et Krajcik, J. S. (2006). Motivation and cognitive engagement in learning environments. Dans S. Keith (dir.), The Cambridge handbook of the learning sciences. New York, NY : Cambridge University Press.

Boud, D. et Molloy, E. (2013). Rethinking models of feedback for learning: The challenge of design. Assessment & Evaluation in Higher Education, 38(6), 698-712.

Bouletreau, A., Chouanière, D., Wild, P. et Fontana, J.-M. (1999). Concevoir, traduire et valider un questionnaire. À propos d’un exemple, EUROQUEST. Repéré à http://lara.inist.fr/bitstream/handle/2332/1730/INRS_178.pdf?sequence=1

Bourque, J., Poulin, N. et Cleaver, A. F. (2006). Évaluation d’utilisations et de présentations des résultats d’analyses factorielles et d’analyses en composantes principales en éducation. Revue des sciences de l’éducation, 32(2), 325-344.

Brault-Labbé, A. et Dubé, L. (2010). Engagement scolaire, bien-être personnel et autodétermination chez des étudiants à l’université. Canadian Journal of Behavioural Science, 42(2), 80-92.

Cattell, R. B. (1966). The scree test for the number of factors. Multivariate Behavioral Research, 1, 245-276.

Coates, H., Hillman, K., Jackson, D., Tan, L., Daws, A., Rainsford, D. et Murphy, M. (2008). Attracting, engaging and retaining: New conversations about learning. Australasian Student Engagement Report (AUSSE). Camberwell, Australie : ACER.

Conseil supérieur de l’éducation (2008). L’engagement de l’étudiant dans son projet de formation : une responsabilité partagée avec les acteurs de son collège. Québec, QC : Conseil supérieur de l’éducation.

Costello, A. B. et Osborne, J. W. (2005). Best practices in exploratory factor analysis: Four recommendations for getting the most from your analysis. Practical Assessment, Research & Evaluation, 10, 1-9. Repéré à http://pareonline.net/getvn.asp?v=10&n=7

Csikszentmihalyi, M. (1990). Flow: the psychology of optimal experience. New York, NY : Harper et Row.

Csikszentmihalyi, M. (1997). Finding flow: the psychology of engagement with everyday life. New York, NY : BasicBooks.

Desbiens, J.-F., Kozanitis, A., Lanoue, S., Fadel, F., Nehme, M., Eid, C … Nseir, G. (2012, mai). Analyse des facteurs d’influence de la participation verbale d’étudiants universitaires libanais. Communication présentée au Congrès de l’AIPU : Quelle université pour demain?, Trois-Rivières, QC.

Dinsmore, D. L. et Alexander, P. A. (2012). A critical discussion of deep and surface processing: What it means, how it is measured, the role of context, and model specification. Educational Psychology Review, 24(4), 499-567.

Dweck, C. et Leggett, E. (1988). A social-cognitive approach to motivation and personality. Psychological Review, 95, 256-273.

Fabrigar, L., Wegener, D., MacCallum, R. et Strahan, E. (1999). Evaluating the use of exploratory factor analysis in psychological research. Psychological Methods, 4, 272-299.

Field, A. (2009). Discovering statistics using SPSS (and sex and drugs and rock’n’roll) (2e éd.). London, Royaume-Uni : Sage.

Fréchette, S. (2008). Autorégulation de l’apprentissage de l’exercice du rôle de soutien à la motivation dans le cadre de la formation des enseignants (Thèse de doctorat inédite), Université du Québec à Montréal, Montréal, QC.

Fredricks, J. A., Blumenfeld P. C. et Paris, A. H. (2004). School engagement: Potential of the concepts, state of the evidence. Review of Educational Research, 74(1), 59-109.

Fredricks, J. A. et McColskey, W. (2012). The measurement of student engagement: A comparative analysis of various methods and student self-report instruments. In Christenson et coll. (dir.), Handbook of research on student engagement. Boston, MA : Springer.

Garson, D. (2010, February 11). Factor analysis. Repéré à http://faculty.chass.ncsu.edu/garson/PA765/factor.htm

Greene, B. A. (2015). Measuring cognitive engagement with self-report scales: Reflections from over 20 years of research. Educational Psychologist, 50(1), 14-30.

Greene, J. et Azevedo, R. (2010). The measurement of learners’ self-regulated cognitive and metacognitive processes while using computer-based learning environments. Educational Psychologist, 45(4), 203-209.

Greene, B. A., Miller, R. B., Crowson, H. M., Duke, B. L. et Akey, K. L. (2004). Predicting high school students’ cognitive engagement and achievement: Contributions of classroom perceptions and motivation. Contemporary Educational Psychology, 29, 462-482.

Hakstian, A. R., Rogers, W. T. et Cattel, R. B. (1982). The behavior of number-of-factors rules with simulated data. Multivariate Behavioral Research, 17(2), 193-219.

Handelsman, M. M, Briggs, W. L., Sullivan, N. et Towler, A. (2005). A measure of college student course engagement. Journal of Educational Research, 98(3), 184-191.

Hockings, C. (2010). Reaching the students that student-centred learning cannot reach. British Educational Research Journal, 35(1), 83-98.

Hockings, C., Cooke, S., Yamshita, H., McGinty, S. et Bowl, M. (2008). Switched off? A study of academic dis/engagement in university classrooms. Research Papers in Education, 23(2), 191-201.

Hornsby, D.-J. et Osman, R. (2014). Massification in higher education: Large classes and student learning. Higher Education67(6), 711-719.

Hutchins, A. (2015, 12 fevrier). National Survey of Student Engagement: A truer measure of quality. Student-engagement surveys evaluate best educational practices and provide valuable feedback for university administrators. Macleans. Reperé à https://www.macleans.ca/education/unirankings/national-survey-of-student-engagement-a-truer-measure-of-quality/

Kahu, E. R. (2013). Framing student engagement in higher education. Studies in Higher Education, 38(5), 758-773.

Kaiser, H. F. (1960). The application of electronic computers to factor analysis. Educational and Psychological Measurement, 20, 141-151.

Kline, P. (1999). The handbook of psychological testing (2e éd.). London, Royaume-Uni : Routledge.

Kuh, G. D. (2003). What we’re learning about student engagement from NSSE. Change, 35(2), 24-32.

Kuh, G. D., Cruce, T. M., Shoup, R., Kinzie, J., et Gonyea, R. M. (2008). Unmasking the effects of student engagement on first-year college grades and persistence. Journal of Higher Education, 79, 540-563.

Lin, S.-H. et Huang, Y.-C. (2017). Assessing college student engagement: Development and validation of the Student Course Engagement Scale. Journal of Psychoeducational Assessment. Repéré à https://doi.org/10.1177/0734282917697618

Lison, C. et Jutras, F. (2014). Innover à l’université : penser les situations d’enseignement pour soutenir l’apprentissage. Revue internationale de pédagogie de l’enseignement supérieur, 1, 1-7.

Loiola, F. A. et Tardif, M. (2001) Formation pédagogique des professeurs d’université et conceptions de l’enseignement. Revue des sciences de l’éducation, 27(2), 305-326.

Mandernach, J. (2015). Assessment of student engagement in higher education : A synthesis of literature and assessment tools. International Journal of Learning, Teaching and Educational Research, 12(2), 1-14.

Maringe, F. et Sing, N. (2014). Teaching large classes in an increasingly internationalising higher education environment: Pedagogical, quality and equity issues. Higher Education, 67, 761-782.

McNaught, C., Leung, D. et Kember, D. (2006). Report on the Student Engagement Project [Working Paper 2]. Hong Kong, Hong Kong SAR : Centre for Learning Enhancement And Research, The Chinese University of Hong Kong.

Miller, R. B., Greene, B. A., Montalvo, G. P, Ravindran, B. et Nichols, J. D. (1996). Engagement in academic work: The role of learning goals, future consequences, pleasing others and perceived ability. Contemporary Educational Psychology, 21, 388-422.

Mulryan-Kyne, C. (2010). Teaching large classes at college and university level: Challenges and opportunities. Teaching in Higher Education, 15(2), 175-185.

Nunnally, J. C. (1978). Psychometric theory (2e éd.). New York, NY : McGraw-Hill.

Pett, M., Lackey, N. et Sullivan, J. (2003). Making sense of factor analysis. Thousand Oaks, CA : Sage.

Pintrich, P. (2004). A conceptual framework for assessing motivation and self-regulated learning in college students. Educational Psychology Review, 16(4), 385-407.

Prosser, M. et Trigwell, K. (2014). Qualitative variation in approaches to university teaching and learning in large first-year classes. Higher Education, 67(6), 783-795.

Rotgans, J. et Schmidt, H. (2011). Cognitive engagement in the problem-based learning classroom. Advances in Health Science Education, 16(4), 465-479. Reperé à http://link.springer.com/article/10.1007/s10459-011-9272-9

Sauvé, L., Racette, N. et Royer, M. (2008). L’abandon et la persévérance aux études postsecondaires. Rapport de recension. Repéré à https://www.google.com/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&ved=2ahUKEwjYhZyFlfXfAhWBk1kKHXQVC9MQFjAAegQIBBAC&url=http%3A%2F%2Fwww.savie.qc.ca%2FCampusVirtuel%2FUpload%2FFichiers%2FSAMI-Perseverance_rapport_recension_15-06-09-VF.pdf&usg=AOvVaw1nyOzjPB61VMzE0MA4nSWF

Sinatra, G. M., Heddy, B. C. et Lombardi, D. (2015). The challenges of defining and measuring student engagement. Educational Psychologist, 50(1), 1-13.

Spielberger, C. D., et Sharma, S. (1976). Cross-cultural measurement of anxiety. Dans C. D. Spielberger et R. Diaz-Guerrero (dir.), Cross-cultural anxiety (p. 13-28). Washington, DC : Hemisphere/Wiley.

Svanum S. et Bigatti S. M. (2009). Academic course engagement during one semester forecasts college success: Engaged students are more likely to earn a degree, do it faster, and do it better. Journal of College Student Development, 50, 120-132.

Svinicki, M. et McKeachie, J. W. (2011). McKeachie’s teaching tips. Stategies, research, and theory for college and university teachers (13e éd.). Belmont, CA : International Edition.

Tabachnick, B. et Fidell, L. (2001). Using multivariate statistics. Needham Heights, MA : Allyn & Bacon.

Vallerand, R. J. (1989). Vers une méthodologie de validation transculturelle de questionnaires psychologiques : implications pour la recherche en langue française. Psychologie Canadienne, 30 (4), 662-689.

Zimmerman, B. J., Bonner, S. et Kovach, R. (1996). Developing self-regulated learners: Beyond achievement to self-efficacy. Washington, DC : American Psychological Association.

Zimmerman, B. J. et Labuhn, A. S. (2012). Self-regulation of learning: Process approaches to personal development. Dans K. R. Harris, S. Graham et T. Urdan (dir.), APA Educational Psychology Handbook: Vol. 1. Theories, Constructs, and Critical Issues (p. 399-425). Washington, DC : American Psychological Association.

Zimmerman, B. et Martinez-Pons, M. (1988). Construct validation of a strategy model of student self-regulated learning. Journal of Educational Psychology, 80, 284-290.

Zimmerman, B. J. et Martinez-Pons, M. (1990). Student differences in self-regulated learning: Relating grade, sex, and giftedness to self-efficacy and strategy use. Journal of Educational Psychology, 82, 51-59.

Zwick, W. R. et Velicer, W. F. (1986). Factors influencing five rules for determining the number of components to retain. Psychological Bulletin, 99, 432-442.