"Oui j’en ai entendu parlé", "moi aussi, mais ce n’est pas commun", "je sais que c’est interdit dans certains pays, car des élèves l’utilisent pour tricher". A l'université du Moufia, à Saint-Denis, les étudiants de la filière information-communication connaissent tous Chat GPT.
Utiliser Chat GPT, c’est tricher
Apparu en novembre dernier, ce logiciel permet de générer en quelques secondes tous types d’écrits : dissertation, script, article… Sur le campus universitaire dionysien, les étudiants jurent ne jamais l’avoir utilisé. Et il vaut mieux pour eux. Utiliser un logiciel d’intelligence artificielle pour rédiger un devoir ou pour répondre à un QCM, c’est tricher.
Des examens annulés dans l’Hexagone
A Lyon et Strasbourg, des enseignants ont annulé des examens car les élèves avaient utilisé Chat GPT pour produire une dissertation ou répondre à un QCM en distanciel.
A peine quelques mois après sa mise en service, certaines facultés, comme Sciences Po Paris, l’ont banni. A l’Université de La Réunion, il n’y a pas encore eu de cas de triche recensé, mais la vigilance est de mise.
Préciser l'interdiction dans le règlement général
Bien qu’arrivés récemment ces nouveaux outils vont être ajoutés au règlement. "Dans le cadre de notre règlement général des études, nous avons une partie sur les fraudes et les sanctions que pourraient encourir les étudiants, explique Jérôme Gardody, vice-président en charge de la formation et de la vie universitaire. Mais nous allons préciser ces interdictions en intégrant un passage spécifique à l’intelligence artificielle".
Copier/coller d’internet
Les étudiants, eux, connaissent déjà les sanctions encourues. "Si c’est un plagiat, un copier/coller d’internet, c’est zéro", assure une élève. L’Université de La Réunion s’est déjà dotée d’un outil de détection automatique de ces similitudes.
Développé au niveau national, il doit prochainement être adapté pour intégrer les nouveaux systèmes d’intelligence artificielle.
Contourner le logiciel
Une réflexion avec les équipes pédagogiques est aussi lancée. "Une intelligence artificielle travaille sur une base de contenus énorme, mais elle ne peut pas répondre sur un contenu auquel elle n’a pas eu accès, explique Olivier Sébastien, vice-président délégué aux usages et développement du numérique. Il est possible de créer des sujets d’étude restreints, des cas spécifiques ou des éléments traités en cours en présentiel, sur lesquels le logiciel ne pourra pas répondre".
"Un perroquet approximatif"
L’idée n’est pas de diaboliser ces outils d’intelligence artificielle. Ils peuvent être des supports pédagogiques et par exemple générer des codes informatiques en quelques secondes.
Lundi dernier, Jean-Noël Barrot, ministre délégué chargé de la Transition numérique et des Télécommunication, déclarait : " ChatGPT est un "outil fascinant" mais pour l'instant, cela reste "un perroquet approximatif qui restitue maladroitement" les informations qu'il a "compilées sur internet", mais ce n'est pas toujours "la vérité".