L'utilisation de l'IA générative, que ce soit par la communauté étudiante, le corps enseignant ou le personnel de l'Université, est encadrée par certaines balises.

1. L'IA générative doit être utilisée en toute transparence (voir exemple de l'encadré ci-dessous)

2. L'utilisation non autorisée de l'IA générative est interdite

  • Rappeler aux étudiant(e)s que selon le règlement disciplinaire :"1.2 Constitue notamment un plagiat ou une fraude: (...) o) l'utilisation totale ou partielle, littérale ou déguisée d'un texte, d'un tableau, d'une image, d'un exposé, d'un enregistrement ou toute autre création, généré(s) par un système d'intelligence artificielle, à moins d'autorisation explicite à l'occasion d'une évaluation."

3. Les unités peuvent définir d'autres exigences ou restrictions

  • Le Département de psychologie n'a pas actuellement de règles particulières outre celles déjà formulées par l'Université de Montréal

4. L'utilisation des outils de l'IA doit se faire de façon éclairée

  • Les étudiant(e)s sont responsables du contenu de leurs travaux et doivent connaître les risques et les limites de l'IA générative.
  • Être conscient(e)s que le recours à l'IA générative pourrait freiner le développer de certaines compétences (rédaction, synthèse, etc.)

5. L'utilisation de l'IA générative ne doit pas affecter la confidentialité des données

  • Les étudiant(e)s qui souhaient utiliser l'IA générative pour traiter des données liées à des participants humains doivent disposer des autorisations appropriées pour le faire (p. ex. approbation explicite du comité d'éthique de la recherche et des partenaires impliqués).

6. Les informations fournies par l'IA génératives doivent être validées, car elles ne correspondent pas toujours aux normes d'intégrité académique ou de recherche attendues à l'UdeM.

  • Les informations ne sont pas toujours exactes sur le plan factuel
  • Les information comportent parfois des biais importants

7. Vérifier l'impact potentiel de l'utilisation de l'IA générative sur la propriété intellectuelle découlant des travaux

  • Certains contenus générés par l'IA peuvent enfreindre les droits d'auteurs ou autres protections quant à la propriété intellectuelle.


  • Voici les suggestions de ChatGPT pour vérifier si un(e) étudiant(e) a utilisé une application d'IA générative pour effectuer un travail.
  • La mise en forme utilisée ici correspond par ailleurs à la manière dont l'IA générative devrait être citée selon les balises énoncées ci-dessus. 

Responsabilité du corps enseignant

Les stratégies ci-dessous visent à vous aider à planifier votre enseignement et la manière dont les travaux pourraient être exigés. Si vous suspectez un cas de fraude résultant d'une possible utilisation de l'IA, vous n'avez pas à faire une enquête approfondie pour prouver que l'étudiant(e) a bel et bien eu recours à l'IA. Vous devez soumettre vos observations à la Faculté selon la procédure établie pour les cas de plagiat ou de fraude suspectés.

Question posée à ChatGPT : Comment peut-on vérifier qu'un étudiant universitaire ait pu avoir recours à l'IA générative pour effectuer un travail?

Note: Les commentaires rédigés par le Département de psychologie ont été indiqués en italiques dans le texte et/ou dans des boîtes de dialogue insérées dans le texte.

Réponse de ChatGPT (en date du 05-12-2024) : 

"Vérifier si un étudiant a utilisé une IA générative pour réaliser un travail universitaire peut s'avérer complexe, mais plusieurs méthodes peuvent être mises en place pour détecter une telle utilisation. Voici quelques approches possibles :

1. Analyse de style d'écriture et de cohérence

Les outils d'IA générative, comme ChatGPT, produisent souvent un texte fluide, bien structuré et sans erreurs majeures, mais peuvent parfois manquer de nuances, de personnalisation ou d'une approche critique spécifique qu'un humain aurait pu apporter. Un professeur ou un correcteur expérimenté peut repérer des incohérences stylistiques, des phrases trop « parfaites » ou trop formelles, et des sections qui semblent « déconnectées » du reste du travail.

2. Outils de détection d'IA

Il existe des outils spécialisés qui peuvent analyser un texte et déterminer s'il a été généré par une IA. Ces outils comparent le texte à des modèles d'écriture produits par des intelligences artificielles et cherchent des indices dans la structure, la formulation ou les choix de vocabulaire. Parmi ces outils, on trouve :

  • GPTZero : Un outil populaire qui identifie si un texte a été rédigé par une IA.

  • Turnitin : Bien que traditionnellement utilisé pour détecter le plagiat, Turnitin a également commencé à intégrer des fonctionnalités pour détecter l'écriture générée par l'IA.

  • Originality.AI : Outil spécifiquement conçu pour la détection de texte généré par IA.

Mise en garde - Outils de détection

Ces outils ont une fiabilité variable, et ne peuvent être utilisés pour décider si un travail a été rédigé en tout ou en partie par l'IA. Les outils étant en constante évolution, il est de rigueur de vérifier et valider leur performance lors de chaque utilisation.

3. Analyse de la progression du travail

Si l'étudiant a soumis des brouillons ou des ébauches intermédiaires du travail, une analyse de la progression de l'écriture peut être utile. Les IA génératives peuvent parfois produire un travail très cohérent dès le début, alors qu'un étudiant humain tendrait à affiner progressivement ses idées et son écriture. 

4. Consistance avec d'autres travaux de l'étudiant

Une comparaison avec les travaux précédemment réalisés par l'étudiant peut aussi être un indicateur. Si le style ou la qualité du travail diffère nettement de celui des précédentes soumissions, cela pourrait suggérer l'utilisation d'un outil d'IA. Cette méthode nécessite bien sûr que l'université ait une bonne base de données des précédents travaux de l'étudiant.

5. Questions de suivi et de discussion

Une autre méthode consiste à interroger l'étudiant sur son travail. En posant des questions détaillées et spécifiques sur le contenu du travail, l'enseignant peut évaluer si l'étudiant comprend en profondeur ce qu'il a écrit. Si l'étudiant est incapable de justifier certaines parties du texte ou d'expliquer des concepts dans les détails, cela peut suggérer qu'il n'a pas réellement rédigé le travail lui-même.

6. Recherches sur le sujet

Les IA génératives peuvent produire des informations qui ne sont pas toujours précises ou actuelles. Si un texte contient des faits inexacts, des sources manquantes, ou une mauvaise interprétation des données, cela peut signaler l'utilisation d'une IA, surtout si ces erreurs ne correspondent pas à un raisonnement humain normal.

Vérification des références

  • Il peut arriver que l'IA génère des sources bibliographiques qui n'existent tout simplement pas. Il peut être utile de vérifier que les sources citées sont réelles.
  • Penser aussi à vérifier, lorsque cela s'applique, qu'un ou des auteurs majeurs dans le domaine n'ont pas été complètement oubliés. Il pourrait s'agir d'un indice que l'IA a été utilisée.

7. Outils de détection de plagiat

Les IA génératives peuvent parfois générer des phrases ou des idées qui ressemblent à des travaux déjà existants sur le web. L'utilisation d'un outil de détection de plagiat comme Copyscape ou Turnitin peut aider à repérer des passages générés par IA qui sont similaires à d'autres contenus en ligne.

En conclusion, il n'existe pas de méthode infaillible, mais une combinaison de ces techniques permet d’augmenter les chances de détection de l’usage d’une IA générative dans un travail universitaire. Cependant, il est essentiel de respecter l’éthique académique et d’encourager l’utilisation de ces outils de manière transparente et responsable."

Source : OpenAI. (2024). ChatGPT [Large language model]. https://chatgpt.com

  • No labels