Société
Par Marine Ernoult / IJL – Réseau.Presse – La Voix acadienne
Photo : Emiliano Vittoriosi, Unsplash

L’utilisation de l’intelligence artificielle générative soulève de nombreux questionnements dans les établissements d’enseignement postsecondaire de l’Île-du-Prince-Édouard. Malgré les risques de triche, les acteurs de l’éducation préfèrent l’envisager comme un outil pédagogique. Université et collège veulent par ailleurs mieux former leurs étudiants à ces questions. 

«On n’a pas d’autre choix que d’intégrer l’intelligence artificielle. L’interdire et jouer à la police ne servira à rien, on va perdre notre temps», estime Sylvain Gagné, président du Collège de l’Île, à Charlottetown. 

Depuis sa mise en ligne, en novembre 2022, ChatGPT, un prototype d’agent conversationnel utilisant l’intelligence artificielle (IA) générative pour interagir avec ses utilisateurs, suscite des débats au sein des communautés enseignantes. 

Aux yeux de certains, le logiciel, capable de répondre à n’importe quelle question avec des textes courts de bonne qualité, pourrait être utilisé massivement pour tricher. Au Collège de l’Île, l’équipe pédagogique a déjà été confrontée à des cas de plagiats. 

«On lit le texte et on sait que ça ne correspond pas aux capacités d’écriture de l’étudiant, rapporte Sylvain Gagné. La première fois, on accorde le bénéfice du doute, on fait de l’éducation, mais si c’était amené à se reproduire, ce serait l’exclusion.»

2 Sylvain Gagné

Sylvain Gagné, réfléchit à la possibilité d’élaborer une politique pour encadrer les usages de l’IA au sein de son établissement. (Photo : J.L.)

«Développer des pratiques éthiques et responsables»

Sylvain Gagné est cependant persuadé que l’IA est «la voie de l’avenir» : «Il n’y a pas que du mauvais, ces outils peuvent être utiles, l’essentiel est de ne pas sortir l’humain de l’équation, d’avoir toujours un regard critique pour garantir l’intégrité académique.» 

Le président explique que lui et certains membres du personnel l’utilisent déjà occasionnellement pour des tâches ponctuelles : «Ça peut nous aider, ça nous donne une structure de texte dont on peut s’inspirer comme modèle.»

En revanche, il assure que les enseignants n’y recourent pas pour l’instant dans le cadre de leurs cours. 

Pour aider les étudiants à mieux appréhender l’IA, Sylvain Gagné aimerait aussi organiser des formations.

«Ça prendrait de l’éducation en début de semestre pour leur expliquer très concrètement ce qu’est l’IA et ce qu’elle n’est pas, comment ça fonctionne, et quoi faire ou pas avec», détaille-t-il. 

Il réfléchit en outre à l’élaboration d’une politique au niveau du Collège afin d’encadrer les usages et de «développer des pratiques éthiques et responsables». 

L’établissement francophone n’est pas le seul à s’emparer de la question. L’Université de l’Île-du-Prince-Édouard a d’ores et déjà adopté 13 lignes directrices sur l’utilisation de l’IA générative à destination des enseignants.

Un groupe de travail, mis sur pied en octobre 2023, est également en train d’élaborer des recommandations pour les étudiants tout en créant un centre de ressources dédié à l’IA. 

Problème éthique

Scott Cassidy, membre de ce comité et professeur adjoint de gestion à la Faculté d’administration de l’Université de l’Î.-P.-É, estime que l’IA présente des «opportunités considérables». 

3 Scott Cassidy

Le chercheur Scott Cassidy évoque les problèmes de l’IA liés à la protection des données personnelles et à la propriété intellectuelle des utilisateurs.  (Photo : Gracieuseté)

À ses yeux, ces nouveaux outils peuvent aider les enseignants à élaborer des plans d’apprentissage et des grilles d’évaluation, leur permettre «d’automatiser certaines tâches administratives fastidieuses et chronophages». 

Ils peuvent aussi offrir des possibilités de traduction simultanée durant les cours aux étudiants dont l’anglais n’est pas la langue maternelle.

Le chercheur reconnaît néanmoins que l’IA pose «des problèmes notables» en matière de protection des données personnelles et de propriété intellectuelle des utilisateurs. 

Il évoque également des enjeux éthiques : «ChatGPT ne réfléchit pas à ses réponses et ne les vérifie pas, par conséquent, il ne fournit pas d’informations factuelles garanties. Il peut favoriser la désinformation et même contribuer à enraciner des préjugés sociaux.»

Face à l’explosion des usages de l’IA, les acteurs de l’enseignement s’interrogent sur la possibilité de revoir les façons traditionnelles d’évaluer. 

En Australie, les universités sont déjà revenues aux devoirs sur table surveillés. Du questionnaire à choix multiples (QCM) à l’évaluation orale, de nombreuses autres modalités d’examen sont par nature immunisées contre les effets de ChatGPT.   

Abonnez-vous à La Voix acadienne pour recevoir votre copie électronique ou la version papier

Société