Au cours des derniers mois, nous avons observé une progression fulgurante de la révolution numérique, particulièrement dans le domaine de l’intelligence artificielle générative. Cette montée prolifique des technologies, désormais à la portée du vaste public, et principalement, axées sur un modèle SaaS (Cuofano, 2023), entraine des changements à la fois captivants et déstabilisants (Enderle, 2023) dans presque toutes les sphères de la société.
Dans le secteur de l’éducation, le déploiement de plateformes alimentées par l’IA et accessibles à partir d’interfaces conviviales, telles que ChatGPT, Tome, Midjourney, Aviva, etc., s’est manifesté à une cadence remarquable, incitant les personnes enseignantes à s’adapter, à trouver des solutions, à explorer de nouvelles possibilités d’enseigner, d’évaluer, etc. (Vincent-Lancrin et coll., 2020).
Les réactions ont été diverses. D’une part, un optimisme rayonnant a émergé, exaltant les possibilités que l’IA pourrait offrir ; de l’optimisation à la personnalisation de l’apprentissage, en passant par l’élaboration de ressources pédagogiques et contenus novateurs (Ennouamani et coll., 2017 ; Pedró et coll., 2019). D’autre part, une fraction plus circonspecte a exprimé des appréhensions quant aux enjeux, allant de l’automatisation exorbitante de l’apprentissage à la diminution des interactions humaines, sans oublier les préoccupations relatives à la protection des données, la transparence, l’intégrité académique, etc. (Alam, 2021).
Un point d’inflexion semble avoir été franchi. L’écosystème éducatif est désormais incité à réfléchir, à élargir sa connaissance de ces technologies et à développer des compétences en vue d’une utilisation éthique, responsable et axée sur la connaissance et l’apprentissage.
Impact sur la connaissance
En dépit des perspectives prometteuses de l’IA pour enrichir nos systèmes éducatifs (Al-Haimi et coll. 2021 ; Pedró et coll., 2019), nous pourrions risquer de nous orienter dans une trajectoire complexe. Cette préoccupation devient plus importante lorsqu’un nombre restreint de modèles et de plateformes d’IA gagnent une position plutôt monopolistique, exacerbant ainsi leur emprise sur nos mécanismes d’accès aux connaissances (CEST, 2023 ; Naffi et coll., 2023).
L’essor des IA génératives, comme les modèles basés sur GPT, a un impact sur la manière dont la connaissance est créée, partagée et perçue. Ces systèmes, capables de générer des réponses promptes et en apparence bien informées, posent des défis importants puisque la technologie ne peut pas être complètement neutre du point de vue idéologique (Almazán Gomez, 2020).
En effet, les technologies peuvent privilégier des perspectives particulières du monde et incarner des modalités distinctes de cognition et de connaissance (Almazán Gomez, 2020). Les modèles et outils basés sur l’IA générative s’inscrivent dans cette dynamique (CEST, 2016). Cela pourrait engendrer une situation où la connaissance générée par les machines devient prédominante et les modèles d’IA propriétaires acquièrent le statut de références globales pouvant privilégier certaines visions et approches de la connaissance au détriment d’autres (Chassignol et coll., 2018 ; Sharma et coll. 2019)
Bien que nous puissions envisager un futur où les machines embrassent des principes éthiques, cette époque n’est pas encore à notre portée. Veiller à ce que l’intelligence artificielle soit en adéquation avec les valeurs essentielles de l’humanité est, comme l’ont suggéré de nombreux spécialistes (Bengio, 2023), une étape cruciale. L’université, en tant qu’établissement dédié à l’enseignement et à la recherche, paraît idéalement positionnée pour mener à bien cette mission.
Impact sur l’apprentissage
S’il y a un impact sur la connaissance, il sera de même pour l’apprentissage et ceci représente un enjeu majeur (ISED, 2022 ; Chen et coll. 2020). Il est vrai que ces technologies innovantes ouvrent la voie à des approches d’apprentissage plus adaptatives et personnalisées (Ennouamani et coll., 2017), permettant une expérience alignée avec les besoins individuels des apprenants (Sharma et coll., 2019). Cela a été mis en exergue par la recherche ; augmentation de l’efficacité de l’apprentissage, capacité des systèmes alimentés par l’IA pour analyser et répondre aux besoins et rythmes d’apprentissage spécifiques et beaucoup d’autres aspects en lien avec la personnalisation de l’apprentissage (Molenaar, 2022).
Néanmoins, cette personnalisation, si elle devient extrême, pourrait également représenter des risques importants. Par exemple, la création intentionnelle ou pas des « bulles de filtre » (Richard, 2018) pouvant limiter la diversité et la pluralité des connaissances (Horizons de politiques Canada, 2023), la dépendance envers la technologie ou la déshumanisation potentielle du processus d’apprentissage (Anctil, 2023).
Tout cela met en évidence le besoin de réfléchir, d’analyser et de mettre en place une gouvernance éclairée, afin d’assurer que l’innovation dans le domaine de l’apprentissage ne compromette pas les valeurs fondamentales de diversité, d’intégrité et d’humanité dans l’éducation (Unesco-Mila, 2023). Comme pour de nombreuses technologies, l’impact de l’IA générative sur nos systèmes d’enseignement et d’apprentissage dépend en grande partie de la manière dont elle est comprise et utilisée.
L’avenir de l’éducation et notre pouvoir pour le façonner
Souvent, on se demande comment les nouvelles technologies changeront le domaine de l’éducation. On ne posera pas cette question à ChatGPT. Bien que sa réponse puisse être très optimiste, il est plus intéressant de naviguer dans nos imaginaires et d’arriver à nos propres conclusions.
Pour ma part, j’ai réalisé que ma question initiale était mal posée. Au lieu de cela, je devrais me demander : comment l’éducation façonnera-t-elle notre manière d’accueillir et d’adopter ces technologies et celles à venir ? Car, au cœur de ce point d’inflexion, il est essentiel de saisir pourquoi, comment, quand et pour quelles raisons devrions-nous – ou pas – les utiliser au profit de l’apprentissage ?
Il semble nécessaire de se poser aussi beaucoup d’autres questions ; à quoi devrait ressembler l’éducation face à l’émergence des IA ? Quels rôles cette technologie devrait-elle jouer? Quelles conditions devrait-elle respecter ? Quel devrait être le but de l’éducation dans un contexte où les humains ne sont pas nécessairement ceux qui ouvrent de nouvelles frontières de la connaissance ? Comment pouvons-nous outiller les personnes étudiantes pour les aider à naviguer dans un avenir où l’intelligence humaine et l’intelligence artificielle sont de plus en plus liées ?
Ces questions semblent essentielles et le potentiel de ces nouvelles technologies est indéniable. Alors que nous explorons et découvrons les capacités impressionnantes de machines capables de lire, d’apprendre, d’écrire, etc., nous poursuivrons aussi nos réflexions concernant l’essence même de notre nature : les interactions humaines. En fin de compte, c’est notre aptitude à réfléchir, à mettre en question et à quêter des réponses qui constitue la base de l’apprentissage. Notre capacité à poser un regard critique sur le présent nous permettra de façonner l’avenir.
Références
- Alam, A. (2021). Possibilities and apprehensions in the landscape of artificial intelligence in education. Dans 2021 International Conference on Computational Intelligence and Computing Applications (ICCICA) (pp. 1-8). Nagpur, India. https://doi.org/10.1109/ICCICA52458.2021.9697272
- Al-haimi, B., Hujainah, F., Nasir, D., et Alhroob, E. (2021). Higher education institutions with artificial intelligence: Roles promises and requirements. Dans Applications of Artificial Intelligence in Business Education and Healthcare. Studies in Computational Intelligence (Vol. 954). https://doi.org/10.1007/978-3-030-72080-3_13
- Almazán Gómez, A. (2020). La non-neutralité de la technologie: Une ontologie sociohistorique du phénomène technique. Écologie & politique, 61, 27-43. https://doi.org/10.3917/ecopo1.061.0027
- Anctil, D. (2023). L’éducation supérieure à l’ère de l’IA générative. Pédagogie collégiale, 36(3). https://eduq.info/xmlui/bitstream/handle/11515/38833/Anctil-36-3-23.pdf
- CEST, Commission de l’éthique en science et en technologie. (2016). Intelligence artificielle: Peut-on produire des algorithmes parfaitement neutres? https://www.ethique.gouv.qc.ca/fr/actualites/ethique-hebdo/eh-2016-10-21-intelligence-artificielle-peut-on-produire-des-algorithmes-parfaitement-neutres/
- CEST, Commission de l’éthique en science et en technologie. (2023). Les enjeux éthiques et pédagogiques de l’utilisation des intelligences artificielles génératives en enseignement supérieur. https://www.ethique.gouv.qc.ca/fr/projets-en-cours/les-enjeux-ethiques-et-pedagogiques-de-l-utilisation-des-intelligences-artificielles-generatives-en-enseignement-superieur/
- Chassignol, M., Khoroshavin, A., Klimova, A., et Bilyatdinova, A. (2018). Artificial intelligence trends in education: A narrative overview. Procedia Comput. Sci., 136, 16-24. https://www.sciencedirect.com/science/article/pii/S1877050918315382
- Chen, L., Chen, P., et Lin, Z. (2020). Artificial intelligence in education: A review. IEEE Access, 8, 75264-75278. https://ieeexplore.ieee.org/document/9069875
- Cuofano, G. (2023). Modèles commerciaux d’IA – FourWeekMBA. https://fourweekmba.com/fr/modèles-commerciaux-IA/
- Enderle, R. (2023). Understanding the disruptive nature of generative AI. Transforming data with intelligence. https://tdwi.org/articles/2023/07/24/adv-all-understanding-the-disruptive-nature-of-generative-ai.aspx
- Ennouamani, S. (2017). An overview of adaptive e-learning systems. Dans IEEE 9th International Conference Intelligent Computing and Information Systems (ICICIS 2017) (pp. 342-347). 10.1109/INTELCIS.2017.8260060
- Horizons de politique Canada. (2023). L’avenir de l’IA générative. https://horizons.gc.ca/fr/2023/08/01/lavenir-de-lia-generative/
- ISED. Innovation, Science and Economic Development Canada. Apprendre ensemble pour une intelligence artificielle responsable. https://ised-isde.canada.ca/site/conseil-consultatif-intelligence-artificielle/fr/groupe-travail-sensibilisation-public/apprendre-ensemble-pour-intelligence-artificielle-responsable
- Molenaar, I. (2022). Personnalisation de l’apprentissage: Vers une forme hybride des technologies d’apprentissage combinant l’humain et l’IA. Dans Perspectives de l’OCDE sur l’éducation numérique 2021. https://read.oecd-ilibrary.org/education/perspectives-de-l-ocde-sur-l-education-numerique-2021_d5fe6bd0-fr
- Naffi, N. et coll. (2023). AI-powered chatbots, designed ethically, can support high-quality university teaching. The Conversation. https://theconversation.com/ai-powered-chatbots-designed-ethically-can-support-high-quality-university-teaching-172719
- Pedró, F., Subosa, M., Rivas, A., et Valverde, P. (2019). Artificial intelligence in education: challenges and opportunities for sustainable development. https://unesdoc.unesco.org/ark:/48223/pf0000366994?posInSet=1&queryId=2c58492c-931f-47d2-967d-7194427f4062
- Richard, C. (2018). Dans la boîte noire des algorithmes: Comment nous nous sommes rendus calculables. Revue du Crieur, 11, 68-85. https://doi.org/10.3917/crieu.011.0068
- Sharma, R. C., Kawachi, P., et Bozkurt, A. (2019). The landscape of artificial intelligence in open online and distance education: Promises and concerns. Asian J. Distance Educ., 14(2), 1-2. https://www.asianjde.com/ojs/index.php/AsianJDE/article/view/432
- Unesco-Mila. (2023). Angles morts de la gouvernance de l’IA. https://unesdoc.unesco.org/ark:/48223/pf0000384801
- Vincent-Lancrin, S. et Van der Vlies, R. (2020). Trustworthy artificial intelligence (AI) in education: Promises and challenges. Dans Documents de travail de l’OCDE sur l’éducation (No. 218). Éditions OCDE, Paris. https://doi.org/10.1787/a6c90fa9-en.