Intelligence artificielle Nouveauté ENA

Huit points de vue croisés sur l’IA en formation

Résultat de huit entrevues sur les IA et de leurs impacts sur l’apprentissage

L’Université de Sherbrooke compte, dans toutes ses facultés, des personnes enseignantes expertes de l’intelligence artificielle qui réfléchissent à ses impacts sur l’apprentissage. Le magazine pédagogique est allé à leur rencontre pour leur poser ces deux questions :

  • Selon vous, qu’est-ce que l’arrivée des intelligences artificielles grand public (chatGPT et autres) change à l’apprentissage ?
  • Toujours d’après vous, qu’est-ce que les personnes enseignantes devraient/pourraient faire pour en tenir compte ?

Elles nous ont répondu avec générosité et avec des points de vue riches et fort différents. Il a fallu faire des choix difficiles dans les propos de ces entretiens.

Vous pourrez lire les réponses des personnes suivantes :

Daniel Chamberland-Tremblay, professeur, Département des systèmes d’information et méthodes quantitatives de gestion, École de gestion

Selon vous, qu’est-ce que l’arrivée des intelligences artificielles grand public (chatGPT et autres) change à l’apprentissage ?

L’IA change fondamentalement l’accessibilité à l’information [parce qu’elle la présente] dans une forme qui est plus facilement utilisable par l’humain. Pouvoir utiliser le langage naturel [pour communiquer avec la machine], permet d’accéder à de l’information dans une forme qui est facile à comprendre.

Non seulement ça, mais les réponses qu’on reçoit, ce sont des réponses entièrement intégrées dans un texte. Donc, plutôt que d’avoir à faire cette intégration manuellement, la personne qui utilise les IA grand public a accès à une synthèse déjà faite.

Ce sont des changements fondamentaux quant à l’accessibilité à la connaissance, à une connaissance synthétique maintenant disponible au grand public.

Cela dit, l’utilisation de l’intelligence artificielle exige aussi une responsabilité de la part des personnes utilisatrices qui devront, elles, prendre du recul face aux réponses qui leur sont faites pour deux raisons.

D’abord, parce que [ces personnes] peuvent entraîner l’IA, donc voir refléter les informations qu’elles auront choisies de lui présenter dans leurs interactions, ou simplement dans le type de formulation [qu’on leur propose].

Et, de deux, par [la] capacité [de ces personnes] à prendre du recul face aux résultats générés par l’IA par rapport à la connaissance réelle. Il faut se rappeler que les IA, c’est une mécanique qui donne de la vraisemblance à une réponse, mais pas nécessairement de l’exactitude. Donc, il faut être capable de faire la distinction entre l’exactitude, le reflet de la réalité, la vraisemblance et l’apparence de réalité du texte.

Alors, dans ce contexte, qu’est-ce que les personnes enseignantes devraient ou pourraient faire pour s’adapter ?

Le processus d’enseignement, c’est un ensemble d’étapes où l’on fait un transfert de connaissances et où l’on permet aux personnes étudiantes de mobiliser ces connaissances-là dans des contextes réels ou s’approximant à la réalité. Selon moi, la personne enseignante a la responsabilité de montrer aux étudiants à chaque étape [de leur formation] la façon d’utiliser les IA, donc le potentiel mais aussi les limites, dans la construction des connaissances, dans l’utilisation et la synthèse de ces connaissances-là, dans la prise de recul ou la mise en application des connaissances issues de l’IA.

La personne enseignante a aussi la responsabilité de s’assurer que le résultat est adéquat et permet d’intégrer les valeurs sociales que l’on souhaite inculquer, notamment l’éthique, l’équité et la justice. Parce que les modèles d’IA, comme les autres modèles mathématiques, ont des biais et des limites qu’il faut mettre en évidence. Donc, finalement, pour s’adapter, il faut surtout s’assurer que, dans les différents types d’apprentissage, la personne étudiante comprend bien le potentiel et les limites des IA ; qu’elle sache les utiliser et ait les outils et les connaissances pour pouvoir prendre du recul par rapport à ce qui lui est présenté.

Anne-Sophie Hulin, professeure, Faculté de droit

Avec l’accès de l’information qui est grandement facilité, mais avec le risque d’accéder à une information dont la fiabilité n’est absolument pas garantie, ça devient particulièrement problématique dans le domaine juridique parce que ça risque d’avoir des effets importants… Cet accès à l’information facile, ça modifie beaucoup l’apprentissage du droit parce qu’avec cet accès-là, les étudiantes et les étudiants ne voient plus le système juridique comme un système. Ils ne voient plus où sont les lois, ils ne voient plus les liens entre les lois, ils prennent le droit pour acquis comme une réponse. Et ça, pour un juriste, c’est très problématique.

En droit, la rédaction est primordiale : la rédaction d’actes juridiques, la rédaction de mises en demeure, etc. C’est au cœur de notre pratique. À force de rédiger, on acquiert un style. La délégation de la rédaction à l’IA pose des enjeux sur l’uniformisation du style, sur la qualité juridique de ce qui est rédigé. Il y a un lien fort entre le fond et la forme qu’on ne peut pas négliger. Une uniformisation dans les modes de rédaction peut être problématique parce que ça peut se traduire par une uniformisation des modes de pensée.

Par ailleurs, nous sommes dans un domaine où la déontologie est fondamentale. Nos étudiantes et étudiants suivent un parcours déontologique et une partie importante de leur apprentissage consiste à leur faire comprendre très rapidement ce qu’ils font. Par exemple, quelle est la conséquence de leurs actes quand ils ont recours à ChatGPT ? Je crois que ça c’est important parce qu’ils vont manipuler des données.

Il leur faut apprendre que les données qu’ils vont utiliser vont être des renseignements personnels ou confidentiels et savoir qu’il y a un aléa quant à l’utilisation de telles données. Il y a une réappropriation par ChatGPT derrière. Ça fait aussi partie de la déontologie et pose justement la question de la responsabilité de l’utilisateur et de sa position vis-à-vis d’un usage diligent de l’IA. C’est un apprentissage qui doit être fait dès aujourd’hui, peu importe les domaines.

La responsabilité de l’utilisateur est importante maintenant. On ne peut plus dire : « Je ne suis qu’un utilisateur, je subis l’intelligence artificielle. » ​Non, l’utilisateur devient responsable de l’usage et du contexte dans lequel il utilise l’intelligence artificielle.

Enfin, de manière très personnelle, moi je trouve que [ChatGPT] est un outil pédagogique extraordinaire. Déjà, d’un point de vue juridique, je lui ai fait écrire de fausses lois… J’ai développé des jeux des 7 erreurs : les personnes étudiantes doivent trouver les 7 erreurs dans un texte, justement pour développer des habiletés critiques. Je trouve qu’on repousse encore les modèles d’innovation pédagogique. On va intéresser autrement les nouvelles générations [d’étudiantes et d’étudiants] qui sont très sensibles aux usages du numérique. Donc, au contraire, je trouve qu’il y a tout un potentiel à exploiter et à intégrer dans nos cours.

Caroline Fitzpatrick, professeure, Département d’enseignement au préscolaire et au primaire, Faculté d’éducation

Je vais commencer par répondre dans une perspective développementale, parce que c’est de là que je viens. Je crois que les enseignantes et enseignants qui travaillent avec de jeunes universitaires, avec des cégepiens ou qui forment les profs de la relève doivent prendre conscience que les applications comme ChatGPT ne sont pas recommandées pour les moins de 18 ans, en partie à cause de l’utilisation qui est faite des données et des questions de vie privée, mais aussi parce que les effets potentiels sur le développement du cerveau des enfants sont méconnus.

Il existe une étude de Sparrow et collègue, publiée dans la revue Science, qui appuie l’idée qu’un accès facile et constant à l’information sur Internet peut diminuer la capacité de rappel de l’information chez les adultes. Mais, il y a encore peu d’études qui ont examiné les impacts de l’usage des IA sur les jeunes pour qui les capacités cognitives et langagières sont en plein développement.

Bien entendu, les IA peuvent nous sauver du temps et de l’énergie en nous aidant dans la création d’ébauches de document. Moi je l’utilise quand j’ai quelque chose à générer à partir de rien. On peut toujours aller chercher une base [de connaissance] avec l’IA, mais on pourrait aussi se retrouver dans des situations où il faut réfléchir de manière spontanée, s’exprimer à l’oral et faire preuve de pensée critique. Est-ce qu’une dépendance aux IA pour créer nos documents fera en sorte qu’on deviendra moins capable de s’exprimer à l’oral de manière structurée ? Il y a cet enjeu-là aussi : Il faut éduquer les gens au fait que ChatGPT ne fournit pas les références, ne tient pas compte de la qualité des informations. On n’a pas les sources, on n’a pas les références. Je pense que ce sont toutes des choses qui, pour moi, doivent être incluses dans les approches éducatives.

Dans tous les programmes, on voudra éduquer le plus possible les personnes étudiantes aux enjeux éthiques [de l’utilisation de l’IA]. Dans mon Département, je pense que c’est particulièrement important que les futurs enseignantes et enseignants développent une trousse à outils pour aborder ces enjeux.

Je pense que le primaire peut être un très bon endroit pour commencer à parler des enjeux liés aux IA. Qu’est-ce qu’une utilisation appropriée de l’IA ? Dans quel contexte est-ce utile ? Dans quel contexte est-ce une utilisation malhonnête ? Ça peut vraiment être de belles façons d’aborder toutes sortes de thématiques liées aux sciences humaines, à la moralité et à l’écocitoyenneté.

Dès le deuxième, troisième cycle du primaire, les enfants sont capables de réfléchir à ce qu’est l’IA. J’en ai fait l’observation dans un atelier pour les enfants du primaire offert par le Centre pour l’intelligence émotionnelle en ligne (CIEL) où on les questionnait sur leurs habitudes numériques. Des enfants de dix ans levaient la main et disaient : « Il y a un petit robot qui me parle dans mon Snapchat. Je pense que c’est de l’intelligence artificielle. Il me pose des questions. Je me sens mal à l’aise. Mes parents me disent de faire attention, parce qu’il peut me retracer… »

Ils sont nombreux à vivre cela et ils ont certainement des questionnements. Je pense que ça peut être utile pour eux qu’on leur en parle avant qu’ils arrivent au secondaire. Il faut les outiller jusqu’à la sixième année, puis ils arriveront au secondaire au moins avec une certaine base.

François Grondin, professeur, Département de génie électrique et informatique, Faculté de génie

Je crois que l’arrivée de ces outils, c’est un peu un ajout « itératif » à ce qui existe depuis un certain temps. C’est-à-dire qu’on le voit beaucoup comme une révolution parce que c’est devenu accessible au grand public, mais en réalité il y a plusieurs choses dans les dernières années qui ont été ajoutées progressivement. Puis, si on remonte à plus loin, l’arrivée des engins de recherche comme Google et autres étaient déjà une petite révolution. Donc, moi je crois que c’est une suite logique.

Tout d’abord ce que ça va créer, à mon avis, c’est qu’on avait accès à de l’information, beaucoup d’information, mais parfois c’était difficile d’organiser cette information. Là, l’outil vient l’organiser pour nous. C’est la différence majeure selon moi. Donc, au lieu d’avoir un texte que l’on peut consulter, là on peut se faire générer un texte sur mesure. L’aspect création n’était pas disponible aussi facilement.

Encore récemment, on considérait qu’on pouvait demander aux personnes étudiantes de résoudre des problèmes ou de produire des éléments de réponse en suivant certaines recettes. Maintenant, les engins génératifs sont en mesure de reproduire ces recettes-là. Ce que je veux dire par « recette » c’est, par exemple, une procédure qu’on enseigne à une étudiante ou à un étudiant. Ils vont être capables de la reproduire et d’utiliser de nouvelles données et de reproduire le même protocole qu’ils ont appris dans le cours.

Là où l’enseignement va changer, je crois, c’est qu’il va falloir s’éloigner des recettes et des protocoles qui sont un peu linéaires, puis amener l’étudiant ou l’étudiante à faire des liens, à faire des connexions entre des concepts et à être capable de plus d’explication, de raisonnement. « Je fais cette démarche-là, mais pourquoi telle étape est importante ? Qu’est-ce qui arrive si je change telle chose dans le problème ? »  Donc, aller au-delà du protocole linéaire, puis questionner vraiment les éléments de compréhension. J’ai l’impression que c’est plus à cet endroit-là que l’évaluation va se porter, ce qui est aussi une bonne chose à mon avis, pour valider si les compétences sont bien

Dany Baillargeon, professeur, Département de communication, Faculté des lettres et sciences humaines

Pour moi, l’arrivée des IA a deux effets : un effet catalyseur et une impression d’objectivité.

Avant, pour développer une compréhension globale d’un enjeu, je devais parcourir plusieurs sources, les mettre ensemble, les comparer et me faire une tête. Donc je lisais deux-trois textes. Je lisais un site, un blogue, j’écoutais une vidéo et j’essayais de m’en faire une idée. Ce que les IA génératives permettent de faire, c’est ce travail de convergence : « Voici ce que je dois savoir. » Ça donne l’impression d’être moins submergé par l’information et d’accéder plus rapidement à la « connaissance ».

Mais le second effet, c’est un faux sentiment de vérité ou d’objectivité. Par exemple, si je demande à ChatGPT : « Résume-moi un événement politique », là, j’ai l’impression que « maintenant, je comprends les migrations écologiques », par exemple. Alors que c’est un condensé statistique plausible. Ça laisse des angles morts, des subtilités qui ne sont pas des conventions statistiques. Le diable est dans les détails, et là le diable va être dans la boîte noire.

Au niveau de l’intégration dans l’enseignement, ça implique de s’informer : visionner des chercheurs qui expliquent, qui vulgarisent. Pourquoi on dit que c’est une « IA générative » ? En quoi est-ce un système prédictif ? Pour ainsi, minimalement, à défaut de comprendre comment les résultats sont générés, en comprendre le fonctionnement. Ça enlève certains imaginaires anthropomorphiques : « C’est un truc qui réfléchit comme un autre humain ». Il y a d’intelligence là-dedans qu’une reproduction de la façon dont notre cerveau fonctionne, mais ça s’arrête là. C’est un système statistique. Bien évidemment, plus ça va aller, plus ce système statistique va être bluffant. 

Ensuite, il faut amener les personnes étudiantes à faire des tests pour déconstruire ce sentiment d’objectivité. Un test très simple à faire, c’est de demander à une classe : « Ouvrez tous vos ordinateurs, posez la même question à ChatGPT et on compare nos réponses. »  Ça permet de voir que l’on n’obtient pas tous la même réponse. Il y a des variations. Donc, ça amène les étudiants à dire : « Je ne peux pas prendre ça comme du cash ». Ils réalisent que, s’ils répondent à une question d’examen, ils n’auront pas tous la bonne réponse. Certains l’auront, mais d’autres pas.

En somme, il faut enseigner — ce qui a toujours été présent dans l’enseignement — l’esprit critique, la distance, la réflexivité. Et, plus terre-à-terre, la triangulation de données.

Un dernier élément qui, pour moi, recoupe les deux questions et qui dépasse l’application dans l’apprentissage, c’est de toujours être conscient de la façon dont tout ça influence mon rapport au monde. On l’a vu durant la pandémie… Avec les réseaux sociaux, un mensonge répété mille fois est devenu une vérité. Maintenant, on a l’impression d’objectivité parce que c’est une machine qui me donne la réponse. Imaginez à quel point on peut construire une vérité basée sur des faussetés.

Donc, toujours enseigner comment les réponses obtenues changent notre rapport au monde. Et, chaque fois, avoir le réflexe de dire : « Au nom de quoi suis-je en train de troquer mon rapport au monde ? Au nom de quelles réponses ? »

Face à ces dispositifs qui sont statistiques, mathématiques, il faut constamment se rappeler notre relation à ce qui nous entoure en tant qu’humain. Les IA font des relations, mais des relations dépourvues d’affects, dépourvues de sensibilité. Pour l’instant.

Je pense que ça dépasse largement la question de l’apprentissage. C’est la question de l’humanité, de l’aspect humain de l’apprentissage.

Louis Valiquette, professeur, Département de microbiologie et d’infectiologie, Faculté de médecine et des sciences de la santé

Selon moi, l’IA peut permettre aux personnes étudiantes d’être plus efficaces dans leur étude ou pour structurer leur apprentissage. Quand les outils comme ChatGPT seront plus matures, je verrais bien qu’on les utilise pour générer des documents d’études, des Flash Cards ou des résumés. Encore faut-il que les personnes étudiantes aient la perspective pour déterminer si le matériel produit est représentatif du domaine étudié.

ChatGPT ne fait pas d’analyse critique et va chercher de l’information pour la présenter de façon structurée, mais il laisse à désirer autant sur la qualité des sources que sur des aspects d’inclusion, de diversité, des aspects culturels ou de valeurs sociales. Ce n’est pas un outil pour ça. La pensée critique, la pensée créative humaine resteront toujours des éléments centraux à développer chez les personnes étudiantes.

ChatGPT ne me remplacera pas comme médecin. Même si l’outil se raffine au niveau médical, il y a beaucoup d’éléments qu’il ne captera pas parce qu’ils relèvent de la qualité de la communication entre le médecin et le patient. Par exemple, établir un climat de confiance pour que le patient nous communique des éléments sensibles, ou identifier qu’il a des limites intellectuelles ou au niveau du langage qui font qu’il lui est difficile de communiquer certains éléments de l’histoire. Ainsi, même si un outil comme ChatGPT peut éventuellement aider un médecin à améliorer sa prise en charge d’un patient au niveau des connaissances, il y a encore beaucoup d’habiletés de communication à développer chez les futurs médecins pour leur permettre de détecter un contexte particulier qui change complètement l’analyse d’un cas.

Je pense que l’arrivée des IA génératives aura un impact majeur sur la façon d’enseigner et d’intégrer ce genre de solution dans les cursus, puis dans la formation. On l’a vécu à une moindre échelle quand les moteurs de recherche comme Google sont apparus ou, en médecine, quand l’accessibilité des sources d’information médicales a augmenté. Il a fallu s’adapter et c’est juste une autre étape d’adaptation.  

Je ferais une analogie : les professeurs de français n’ont pas arrêté de l’enseigner parce des logiciels d’orthographe sont arrivés sur le marché… Nos enfants sont devenus experts pour utiliser ces logiciels de façon à augmenter leur productivité pour leurs études, mais ils doivent connaître la langue française pour comprendre si ce que le logiciel propose est applicable dans le texte qu’ils produisent.

Mon travail de professeur est plus stimulant lorsque j’ai à intégrer de nouvelles dimensions comme l’IA. Comme professionnel, c’est le genre de choses que j’adore. Je suis infectiologue ; ma vie c’est de traiter des gens, mais surtout de m’informer de la découverte de nouveaux pathogènes et de m’adapter aux nouveaux traitements développés. Je veux savoir si l’IA peut faciliter mon travail en synthétisant les nouvelles connaissances dans mon domaine. Parce qu’il faut que ça soit justement vu comme un outil, comme quelque chose qui peut améliorer la qualité de notre pratique.

Éventuellement, c’est aux professeurs et aux groupes de recherche universitaires de développer et d’évaluer l’intégration de ces nouvelles technologies dans la pratique. C’est à eux de voir comment ça optimise les processus, comment ça nous rend plus efficaces.

Amine Trabelsi, professeur, Département d’informatique, Faculté des sciences

Je vais supposer qu’on a des IA génératives qui sont assez précises, parce que ce n’est pas encore le cas aujourd’hui. Ça serait génial pour des personnes étudiantes d’utiliser de telles IA, parce que, selon moi, une des grandes choses à laquelle l’IA peut contribuer, c’est la confiance en soi.

En contexte de classe, j’essaie d’encourager les gens à poser des questions… avec un succès relatif. Mais si l’étudiant est seul face à une machine, il est dans un environnement sécuritaire. Il n’y a pas d’humain en face de lui. L’IA n’a pas de conscience et il est donc à l’aise de lui poser toutes ses questions. Elle lui permet donc de faire face à ses lacunes de façon personnalisée, sans avoir le fardeau du jugement de la personne enseignante. Ça permet vraiment de booster la formation de l’étudiant et je trouve que c’est vraiment un apport des IA génératives à l’apprentissage.

Disons que je suis devant 35 personnes étudiantes en classe. Ils ne pourront pas toutes poser des questions. Donc, l’IA offre la possibilité d’offrir un apprentissage personnalisé, mais pour différentes personnes en même temps. Dans la classe, on ne peut pas répondre à toutes les confusions de tous les étudiants. On ne sait même pas exactement quelle sont leurs confusions, alors que si on effectue des allers-retours avec une machine grâce à des questions contrôlées, on arrive à cerner où est la confusion. On pourrait donc personnaliser l’apprentissage pour chaque étudiant parce que ça s’est fait de façon automatique, l’évaluation mais aussi l’apprentissage.

D’un autre côté, la plupart des nouveaux enseignants ont parfois du mal à vulgariser les concepts pour un cours introductif. ChatGPT peut être un soutien pour vulgariser, parce que même maintenant, il est assez bon pour vulgariser des concepts plutôt complexes. Par exemple, s’il faut démontrer ce qu’est un réseau de neurones, il est capable de le faire. Tu lui fais une requête en précisant que sa réponse doit être en 2-3 phrases ou en trois points. Quelles sont les choses les plus intéressantes à savoir pour quelqu’un qui ne connaît pas les réseaux de neurones ? C’est assez impressionnant de voir ce à quoi il arrive…

Par ailleurs, si l’on suppose que l’IA est capable de transcrire ce qui se passe en classe et de générer des statistiques, ce pourrait être un outil utile pour l’enseignant, mais un outil qui pourrait avoir des répercussions éthiques. L’enseignant pourrait savoir, par exemple, quel est le taux de de réaction par rapport aux questions qu’il pose. Combien ça prend de temps aux personnes étudiantes pour répondre ? Quelles sont les questions qui ont stimulé l’interaction avec les étudiants ? Et quel genre d’interactions ? Si on fait des groupes, qu’est ce qui se passe ?

Jean-François Desbiens, professeur, vice-doyen à la formation, Faculté des sciences de l’activité physique

Je pense qu’on est devant un gros problème qui est à la fois merveille et source de fortes appréhensions. Pour moi, c’est une des plus grandes menaces à l’humanité, mais c’est un des outils les plus forts que l’humanité se soit donnée pour avancer. C’est pourquoi mes sentiments sont aussi partagés.

Qu’on soit débutant ou très avancé, il ne faut pas se leurrer : on évolue dans un environnement méritocratique à l’université. Ça peut être tentant de prendre des raccourcis… Ce n’est pas du plagiat, mais c’est d’avoir des éléments qui peuvent procurer des avantages indus. C’est toute la question de l’éthique de la production intellectuelle à l’université qui est touchée ici.

Les personnes étudiantes n’ont pas les fondamentaux intellectuels et conceptuels pour juger de la qualité des réponses données par l’IA. Elles vont les lire un peu comme des résumés exécutifs, puis elles vont traiter cette information-là presqu’à vide, avec un minimum de jugement critique dessus.

Ça peut aussi avoir un effet dynamisant pour un certain nombre d’apprentissages… pour peu qu’il y ait des fondements d’acquis. C’est la réserve que j’ai pour les personnes étudiantes en début de bac ou au certificat. Je vois d’immenses défis à essayer de les engager dans la construction de leur esprit sans passer par ces outils-là. À moins qu’on trouve des façons intelligentes de travailler avec l’IA, il risque d’y avoir du travail de surface… Une impression de maîtrise qui ne sera pas appuyée par les faits. 

Je pense qu’il va falloir qu’on travaille de façon explicite et approfondie pour tout ce qui touche la méthodologie du travail intellectuel (MTI). On peut chialer jusqu’à demain que ça devrait être acquis, mais il va falloir qu’on prenne le taureau par les cornes et qu’on retravaille nos programmes pour inclure spécifiquement des éléments de la MTI à l’intérieur de chacun. De mon point de vue, c’est aussi la confirmation de l’importance des dimensions transversales dans la formation aux études supérieures. Cela ramène de surcroît la pertinence d’une éducation libérale à l’université, le penchant élitiste en moins. Qui l’aurait cru ?

Il va falloir augmenter le recours aux mises en situation, études de cas, problèmes à résoudre. Amener les étudiantes et les étudiants à justifier de manière systématique pourquoi ils pensent comme ils pensent. C’est à travers cette justification que l’on saura qu’ils sont bien les propriétaires des solutions qu’ils mettent de l’avant. C’était un besoin depuis longtemps, mais on va devoir intensifier la supervision de l’apprentissage. Il va falloir piloter de manière beaucoup plus étroite leur travail, accroître la fréquence et la qualité du feedback formatif. Si on ne contrôle pas plus attentivement, il risque d’y avoir des productions qui nous viennent du champ gauche, soutenues par des robots. 

Tout ce que je viens de dire là nous amène à revoir comment on enseigne, comment on évalue, s’il y a une intensification du travail de l’enseignant en tant que formateur, qu’évaluateur et si on va chercher des traces plus substantielles. Ça va poser la question du temps et de ce qui est raisonnablement demandé à un enseignant universitaire. La question qui va se poser encore davantage c’est : comment concilier formation, recherche et services à la collectivité ?

Articles Similaires

Les IA génératives en recherche: écueils et espoirs

Mireille Léger-Rousseau et Myriam Beaudet

Moodle 4 bientôt sur votre écran!

Perspectives ENA

Analyse comparative de 12 outils d’IA génératives

Caroline Bourque et Alexandra Lèz

Ajouter un commentaire