La publication par le ministère de l'Éducation et de la Formation à ce moment-là du projet de circulaire réglementant l'application de la technologie dans l'enseignement supérieur afin de recueillir des avis conformément à la réglementation est opportune.
Parce que l'intelligence artificielle (IA) n'est plus à l'abri des portes des amphithéâtres, mais est présente dans chaque exercice, chaque plan, chaque méthode d'apprentissage des étudiants.
Il n'est pas difficile de rencontrer un étudiant utilisant l'IA pour résumer des documents, suggérer des idées, voire écrire un essai entier. Même les professeurs commencent à utiliser l'IA pour concevoir des cours, construire des banques de questions ou analyser les résultats d'apprentissage.
On peut dire que le fait que le ministère ait publié ce projet n'est pas "ouvrir la porte" à l'IA dans les amphithéâtres universitaires, mais plutôt rétablir l'ordre dans une porte qui était ouverte auparavant.
Le point notable du projet de circulaire est que l'IA n'est pas considérée comme une "menace" pour les amphithéâtres universitaires, mais elle n'est pas non plus laissée à l'abandon, mais seulement considérée selon le principe "seulement soutenir, ne pas remplacer le rôle des professeurs et ne pas déformer les résultats d'apprentissage".
C'est la "ligne rouge" nécessaire pour empêcher l'éducation de sortir de sa trajectoire. Car si l'IA est laissée remplacer trop profondément, l'apprenant peut terminer un devoir sans vraiment comprendre la nature du problème.
À ce moment-là, les résultats d'apprentissage ne refléteront plus les compétences, mais seulement la capacité à utiliser les outils. Plus dangereusement, cela brouille la frontière entre "l'auto-apprentissage" et "la copie", entre "la pensée" et "la synthèse".
Et c'est la raison pour laquelle ce projet de circulaire met encore très clairement l'accent sur l'intégrité académique. Des actes tels que l'utilisation de l'IA pour tricher, plagiat, falsification de données ou non-divulgation de l'utilisation de la technologie... sont nommés et ont des sanctions spécifiques.
Cependant, la distance entre la réglementation et la mise en œuvre n'est pas mince.
La réalité montre que le contrôle de l'IA dans l'éducation n'est pas aussi simple que de vérifier un document plagié. À mesure que la technologie devient de plus en plus sophistiquée, il deviendra plus difficile de distinguer le produit de l'apprenant du produit de l'IA.
Par conséquent, le contrôle de l'IA ne peut pas se baser uniquement sur des outils ou des processus techniques. Le meilleur contrôle de l'IA dans les amphithéâtres universitaires reste de construire une culture académique honnête, où les apprenants comprennent que la plus grande valeur de l'apprentissage n'est pas les notes, mais leurs propres capacités réelles.
De manière positive, s'il est correctement orienté, l'IA ouvre de très grandes opportunités pour l'enseignement supérieur. L'individualisation de l'apprentissage, l'analyse des données pour améliorer les méthodes d'enseignement, le soutien à l'orientation professionnelle... sont des capacités qui étaient auparavant très difficiles à réaliser à grande échelle.
Mais pour y parvenir, l'éducation ne peut pas s'arrêter à la gestion de l'IA, mais doit franchir une étape supplémentaire en enseignant aux étudiants et aux professeurs comment utiliser l'IA pour améliorer la pensée, et non pour remplacer la pensée.
L'IA est entrée dans les amphithéâtres universitaires, donc la question n'est plus de savoir s'il faut l'utiliser ou non, mais de savoir comment l'utiliser pour ne pas perdre le cœur de l'éducation, qui est de former les personnes, et non de former ceux qui ne savent que compter sur les machines.