Intelligence artificielle: le Cégep de Granby en mode vigilance
ÉDUCATION. Alors que la tornade ChatGPT continue de secouer les différents paliers de l’éducation, le monde de l’enseignement supérieur tire la sonnette d’alarme afin d’exhorter le gouvernement à instaurer un moratoire sur le développement des systèmes d’intelligence artificielle afin de mieux les encadrer. Au Cégep de Granby, on préfère jouer la carte de la vigilance et miser sur la sensibilisation.
Une petite discussion avec ChatGPT suffit pour comprendre pourquoi cette nouvelle technologie déchaine les passions. Pour tester sa fiabilité, le GranbyExpress a notamment demandé à l’intelligence artificielle (IA) de composer une analyse en 1000 mots de la célèbre œuvre de Michel Tremblay, «Les belles sœurs» et le résultat est pour le moins bluffant.
«Les Belles sœurs de Michel Tremblay est une pièce de théâtre emblématique qui explore les thèmes de l’oppression, de l’aliénation sociale et de la condition féminine dans la société québécoise des années 1960. À travers une utilisation novatrice du langage, une structure dramatique unique et des personnages hauts en couleur, -Tremblay offre une critique acerbe de la société et révèle les frustrations, les rêves et les désirs des femmes de classes populaires», a proposé ChatGPT en respectant les codes de rédaction de ce genre d’essai.
Dans la province, c’est la Fédération nationale des enseignantes et des enseignants du Québec (FNEEQ-CSN), représentante de la majorité des profs de cégep et des chargés de cours universitaires, qui a donné l’alerte quant à l’utilisation de cette technologie. «Cette nouvelle est arrivée très vite dans le réseau de l’éducation d’enseignement supérieur, et assez rapidement, la posture que nous avons prise est de donner le plus d’informations possibles aux enseignants et personnels pédagogiques concernant cette application», a souligné Vincent Larose, directeur des études au Cégep de Granby.
Alors qu’au Cégep de Granby on ne dénombre pas encore des cas de plagiat liés à l’utilisation des ChatGPT et autres, à l’interne, on s’attèle davantage à sensibiliser la communauté à l’utilité et à la façon dont l’application fonctionne. «Ç’a généré des réflexions sur notre capacité à évaluer les étudiants, mais la piste de la sensibilisation nous a permis de mieux connaître les avantages et les inconvénients qui peuvent affecter l’enseignement et les évaluations (…). Il y a une panoplie d’outils qui sont disponibles pour les enseignants pour aller vérifier les compétences des étudiants, ça l’amène assurément une plus grande vigilance chez les enseignants», a expliqué M. Larose.
Difficile à détecter
Une chose est sûre, le personnel enseignant ne peut se fier complètement sur l’efficacité limitée des outils et logiciels de détection disponibles, mais toujours un pas derrière dans la course aux innovations technologiques, ont fait savoir les membres de la FNEEQ-CSN. «La plupart des logiciels disponibles pour détecter ces cas ne sont pas suffisamment performants. J’ai testé une extension qui devait s’ajouter dans Chrome (Google) dans le cadre d’une conférence dernièrement pour faciliter la détection, et l’extension attribuait à 97 % la citation de ChatGPT à un humain», a mentionné -Catherine -Viens, conseillère pédagogique en technopédagogie au -Cégep de -Granby.
Pour le Cégep de Granby, les enseignants doivent être au fait des limites de ce type de logiciels et doivent privilégier d’autres formes d’évaluations qui vont permettre d’aller chercher le raisonnement de l’étudiant, notamment par l’entremise des évaluations réflectives ou encore des exposés oraux. «Les ChatGPT de ce monde sont davantage des bases de connaissances, ça fait en sorte qu’au niveau de l’évaluation, les enseignants vont beaucoup plus loin que la vérification des connaissances et de la compréhension», a précisé Mme Viens.
«Ça ne change pas le fait que l’étudiant a déjà accès à beaucoup de choses sur Internet qui peuvent l’amener à plagier. Notre posture est de sensibiliser davantage les étudiants à avoir une éthique professionnelle et à citer les sources externes auxquelles ils font appel pour les préparer à l’université ou au marché du travail», a ajouté le directeur des études, M. Larose.
Une question d’adaptation
Outre les problèmes de plagiat, les membres de la FNEEQ craignent notamment une fragilisation de la relation pédagogique avec les étudiantes et les étudiants. «Il faut être sensibilisé et ouvert pour voir dans quelle mesure on peut outiller nos étudiants à la réalité du marché. Il ne faut pas penser à retirer ou enlever ces outils, parce qu’à l’extérieur du cadre scolaire, ils ont accès à ces outils et ils doivent apprendre à les utiliser», a indiqué la conseillère pédagogique en technopédagogie.
«C’est une avancée technologique qui est inévitable, et à l’intérieur de tout ça, notre rôle est de préparer l’étudiant comme futurs citoyens à utiliser ces applications, à en voir les limites et surtout ne pas laisser les intelligences artificielles penser pour eux », a renchéri Vincent Larose.
Dans leurs cris d’alerte, les membres de la FNEEQ-CSN ont également soulevé les risques de l’utilisation de l’IA à des fins d’économie budgétaire et ainsi remplacer le travail humain dans un contexte de pénurie de personnel. Chose qu’on est loin de prévoir du côté du Cégep de Granby, où on assure vouloir faire confiance à la relation entre »humains » pour longtemps encore. «On peut se questionner avec le développement technologique et l’arrivée des robots conversationnels, mais il faut privilégier la relation humaine entre deux personnes», a souligné M. Larose.
«Je compare ça souvent avec l’arrivée de Google et Wikipédia, on a eu les mêmes réflexes au départ de se questionner si ça va empêcher certaines choses et modifier ou éliminer certains rôles, mais finalement on s’est adapté, on a regardé comment l’outil fonctionne et on a développé les compétences», a conclu Catherine Viens.