OpenAI, l’entreprise à l’origine de ChatGPT, une intelligence artificielle générative spécialisée dans le texte, avait développé un filigrane de détection capable d’identifier avec une précision de 99,9 % les textes produits par son outil. Cependant, en raison des moyens de contournement possibles et de la peur que sa technologie soit moins utilisée, l’entreprise a finalement décidé d’abandonner cette mesure de sécurité.
ChatGPT et la Triche Étudiante : Quand l’IA Générative Change les Règles du Jeu
L’apparition de ChatGPT, un outil conversationnel basé sur l’intelligence artificielle, a donné naissance à de nouvelles pratiques, parfois discutables, comme ce fut le cas lors des premières années de Wikipédia. En particulier, le recours à l’IA pour rédiger des textes semble devenir une méthode de triche de plus en plus courante chez les étudiants. Certains enseignants, selon des témoignages recueillis par L’ADN, préfèrent désormais éviter les devoirs à la maison. « J’essaie de privilégier des évaluations qui exigent de la créativité ou des examens oraux », confie un professeur de biologie dans un institut universitaire suisse.
Les enseignants ne sont cependant pas dupes. Parmi les signes révélateurs, ils mentionnent des niveaux de langue trop élevés, des textes longs mais répétitifs, ou encore des phrases vagues et des citations sans sources précises. « Si j’ai des doutes, je leur demande simplement d’expliquer ce qu’ils ont écrit. Souvent, je me rends compte qu’ils ne comprennent pas les phrases qu’ils ont utilisées », explique une professeure d’anglais.
OpenAI développe un filigrane pour identifier les textes générés par ChatGPT, mais reporte son déploiement
Face à l’essor des nouveaux usages, OpenAI, l’entreprise à l’origine de ChatGPT, avait conçu une solution capable de déterminer, avec une certitude de 99,9 %, si un texte avait été généré par leur outil.
Évoqué initialement par le Wall Street Journal, ce filigrane modifiait légèrement le modèle de prédiction des mots pour créer un schéma identifiable dans le texte complet. Selon le WSJ, cette méthode résistait à la paraphrase par l’utilisateur et son inclusion n’affectait pas la pertinence des résultats de ChatGPT. Avec l’outil approprié, il aurait ainsi été possible de détecter ce filigrane dans une production écrite.
Après l’article du WSJ, OpenAI a actualisé une publication datant de mai dernier, concernant le suivi des sources utilisées par ChatGPT pour générer ses réponses. « Nos équipes ont développé un filigrane textuel que nous continuons d’étudier, parallèlement à nos recherches sur des alternatives », précise la société sur son blog.
Un porte-parole a confirmé à TechCrunch que le filigrane était prêt, mais a été mis de côté en faveur de nouvelles recherches, incluant l’utilisation des métadonnées du texte produit. « Le filigrane textuel que nous développons est prometteur technologiquement, mais comporte des risques importants que nous évaluons, tels que le contournement par des acteurs malveillants et un impact significatif sur certains utilisateurs, notamment non anglophones », a-t-il ajouté.
Plus concrètement, OpenAI craint de détourner 30 % de ses utilisateurs si un tel outil de détection était mis en place, selon le Wall Street Journal.
L’IA Act impose de nouvelles obligations pour les systèmes d’IA, y compris la détection de contenu généré
OpenAI ne développe pas uniquement des outils de détection pour aider les enseignants à identifier les tricheurs ; des exigences légales au sein de l’Union européenne imposent également de telles mesures.
Le 1er août dernier, l’IA Act a été publié au Journal officiel de l’Union européenne, soulignant la nécessité de méthodes d’identification dans son article 50. Selon cette législation, les fournisseurs de systèmes d’IA, y compris ceux générant des contenus synthétiques tels que texte, image, audio ou vidéo, doivent s’assurer que les sorties de leurs systèmes sont clairement marquées et identifiables comme étant générées ou manipulées par une IA. Les fournisseurs doivent garantir que leurs solutions techniques sont efficaces, interopérables, robustes et fiables, en tenant compte des spécificités des contenus et des normes techniques pertinentes.
Les acteurs du secteur, dont OpenAI, ont jusqu’au 2 août 2025 pour développer les solutions requises. Les fournisseurs de modèles d’IA à usage général, comme ChatGPT, devront se conformer aux nouvelles régulations d’ici le 2 août 2027.