Intelligence artificielle, réussite et intégrité dans l’enseignement supérieur

Matériel pour les ateliers

  • But : à partir d’une situation concrète, identifier les enjeux éthiques présents et déterminer collectivement les trois enjeux les plus importants
  • Chaque sous-groupe désigné se voit attribuer au hasard l’un des quatre cas d’usage préparés, pour déclencher et structurer la réflexion, chaque cas correspondant à une situation concrète
  • Questions générales : en prenant comme référence les 10 principes de la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle (voir annexe)
    • Quels enjeux éthiques peut-on identifier dans les situations concrètes présentées ?
    • Quels sont les 3 enjeux les plus importants ?

Atelier I « Explorer les enjeux reliés à l’usage de l’IA générative en enseignement »

Situation A

Une enseignante prépare son plan de cours et souhaite intégrer l’utilisation de ChatGPT dans au moins l’un des travaux prévus dans la session. Ce faisant, pour se familiariser avec l’outil, elle demande à ChatGPT de formuler des objectifs pédagogiques et un argumentaire pour justifier l’utilisation même de l’outil comme support d’apprentissage dans son cours. Elle aboutit à un syllabus très riche, mais dont une partie a été rédigée avec le soutien de l’agent conversationnel.

Questions spécifiques :

  • À quel point l’utilisation de l’agent conversationnel peut compromettre la contribution de l’enseignante ?
  • Quel est le véritable rôle de l’enseignante lorsqu’un outil d’IA générative est disponible et utilisé ?
  • En quoi le rôle de l’enseignante change-t-il ?
  • Quel impact peut avoir l’utilisation de ce type d’outils sur le travail des autres personnes enseignantes, sur le programme et sur l’établissement ?
  • Quelles dérives peuvent être provoquées par l’intégration de ces outils dans le travail d’enseignement ?
Situation B

Dans le cadre d’une évaluation de son cours de dernière session, un étudiant doit préparer un essai de 8 000 mots. Pour rédiger la première ébauche d’une des sections de ce travail, il fait comme plusieurs de ses collègues et se sert de ChatGPT. Son expérience avec l’outil lui permet de saisir les requêtes les plus efficaces pour obtenir de l’agent conversationnel une série d’éléments très pertinents qu’il met par la suite à sa main, en remaniant le texte, en approfondissant certaines idées, en le complétant pour bien s’intégrer au reste du matériel déjà préparé.

Questions spécifiques :

  • En quoi le recours à des outils d’IA générative peut-il être légitime ou non ?
  • En quoi l’accès à l’agent conversationnel avantagerait ou désavantagerait l’étudiant dans son processus d’apprentissage ?
  • Qu’est-ce que l’utilisation de l’agent conversationnel permet de faire mieux ou, au contraire, empêche de faire bien dans nos cégeps et universités ?
  • Au-delà de son impact sur le processus individuel d’apprentissage, quels seraient les effets de l’utilisation de ces outils sur l’enseignement supérieur ?
Situation C

Les membres du comité de plagiat reçoivent un signalement : le travail déposé par une équipe de personnes étudiantes aurait été produit à l’aide d’un agent conversationnel ; or, le recours à ce type d’outils était proscrit dans le cadre de l’exercice, dont l’évaluation compte pour une partie significative de la note finale. Le signalement prend appui sur le résultat d’un outil de détection de similitudes qui, depuis peu, est en mesure de détecter avec un certain niveau de fiabilité l’apport des agents conversationnels avec l’IA dans la production de textes.

Questions spécifiques :

  • En quoi le traitement de ce cas serait-il différent ou similaire à d’autres formes de plagiat ou de fraude ?
  • Quelle valeur accorder aux outils de détection dans un contexte d’évolution constante des technologies ?
  • Quel impact l’arrivée des outils d’IA générative peut-elle avoir sur la manière de concevoir l’intégrité, le plagiat et la fraude ?
  • En quoi le rôle du comité est-il différent avec l’arrivée de ces outils ?
Situation D

Un groupe de travail prépare une vidéo pour sensibiliser la communauté étudiante aux enjeux de l’utilisation d’outils d’IA générative. Le groupe de travail intègre des membres qui représentent le personnel enseignant, la communauté étudiante et des cadres académiques. L’avis des membres diverge quant au message principal à transmettre à travers la vidéo : pour certaines personnes, il faudrait miser sur la littératie numérique et préconiser une utilisation responsable des outils ; pour d’autres, le message principal devrait être plutôt dissuasif à l’égard de l’utilisation de ces outils.

Questions spécifiques :

  • Quelles autres parties prenantes devraient être représentées au sein du groupe pour réaliser un tel outil de sensibilisation ?
  • Que pourraient-elles apporter ?
  • En quoi les enjeux soulevés par l’accès aux outils d’IA générative seraient-ils communs ou différents selon les parties prenantes ?
  • Quel devrait être le message principal à transmettre au public cible et pourquoi ?
  • En quoi ce message serait-il différent si la vidéo s’adressait plutôt au personnel enseignant ?

Atelier II « Vers l’encadrement de l’utilisation de systèmes d’IA générative en enseignement »

  • But : formuler des recommandations à l’égard de l’utilisation des outils d’IA générative en enseignement dans le milieu collégial et dans le milieu universitaire.
  • Chaque sous-groupe de l’atelier se rassemble à nouveau, cette fois-ci pour un remue-méninges autour d’un futur souhaitable et des conditions pour le faire advenir.
  • Questions générales : dans un horizon de 5 à 10 ans (2028-2033)
    • Quelles seraient les caractéristiques d’un scénario idéal à l’égard de la place que les outils d’IA générative devraient occuper et le rôle qu’ils joueraient dans l’enseignement supérieur ?
    • Quelles recommandations pourrait-on formuler pour qu’un tel scénario puisse se réaliser et quelles seraient les trois recommandations prioritaires ?

Annexe : Principes de la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle

1. Bien-êtreLe développement et l’utilisation des systèmes d’intelligence artificielle (SIA) doivent permettre d’accroître le bien-être de tous les êtres sensibles.
2. Respect de l’autonomieLes SIA doivent être développés et utilisés dans le respect de l’autonomie des personnes et dans le but d’accroître le contrôle des individus sur leur vie et leur environnement.
3. Protection de l’intimité et de la vie privéeLa vie privée et l’intimité doivent être protégées de l’intrusion de SIA et de systèmes d’acquisition et d’archivage des données personnelles (SAAD).
4. SolidaritéLe développement de SIA doit être compatible avec le maintien de liens de solidarité entre les personnes et les générations.
5. Participation démocratiqueLes SIA doivent satisfaire les critères d’intelligibilité, de justifiabilité et d’accessibilité, et doivent pouvoir être soumis à un examen, un débat et un contrôle démocratiques.
6. ÉquitéLe développement et l’utilisation des SIA doivent contribuer à la réalisation d’une société juste et équitable.
7. Inclusion de la diversitéLe développement et l’utilisation de SIA doivent être compatibles avec le maintien de la diversité sociale et culturelle et ne doivent pas restreindre l’éventail des choix de vie et des expériences personnelles.
8. PrudenceToutes les personnes impliquées dans le développement des SIA doivent faire preuve de prudence en anticipant autant que possible les conséquences néfastes de l’utilisation des SIA et en prenant des mesures appropriées pour les éviter.
9. ResponsabilitéLe développement et l’utilisation des SIA ne doivent pas contribuer à une déresponsabilisation des êtres humains quand une décision doit être prise.
10. Développement soutenableLe développement et l’utilisation de SIA doivent se réaliser de manière à assurer une soutenabilité écologique forte de la planète.