ChatGPT : comment OpenAI compte lutter contre les abus de plagiat

La société américaine veut ajouter un filigrane au sein des textes générés par ChatGPT.

chatgpt-open-ai-lutte-plagiat-tricherie
Avec ChatGPT, les étudiants peuvent demander au chatbot de leur écrire un essai rapidement. © Ascannio - stock.adobe.com

On ne peut pas dire que ChatGPT passe inaperçu depuis son lancement en décembre dernier… Le chatbot conçu par OpenAI, qui est capable de générer du texte et répondre à vos questions, provoque de nombreuses craintes de tricherie de la part des universités américaines.

Pour lutter contre une potentielle vague de plagiat, le spécialiste de l’IA travaille désormais sur un système qui permet d’identifier et de modifier les propositions de ChatGPT.

Des craintes de tricheries dans le milieu universitaire

Depuis la sortie de ChatGPT, les professeurs d’université et les chefs d’établissement partagent leurs inquiétudes. En cause : les réponses convaincantes, à consonance humaine, que peut fournir le chatbot. D’après eux, le générateur de texte basé sur l’intelligence artificielle pourrait être source de plagiat et de tricherie dans la mesure où il est capable de répondre à des questions de devoirs et d’examen à la place des élèves.

En effet, jusqu’à présent, aucun détecteur de plagiat n’agit sur les textes proposés par ChatGPT car le contenu produit, qui n’a jamais été écrit auparavant, n’est présent nulle part. Un étudiant peut donc très bien réaliser un essai dans un délai très court sans être inquiété par la provenance de son contenu.

OpenAI travaille sur un système pour lutter contre le plagiat

Pour contrer une potentielle vague de plagiat assisté par l’IA, les créateurs du chatbot tentent désormais de le rendre plus facile à repérer en ajoutant un filigrane sur les textes générés. L’objectif ?  Tenter de repérer plus facilement ces tentatives de plagiats.

Scott Aaronson, chercheur invité d’OpenAI, a déclaré lors d’une conférence que ce système permettrait d’identifier statistiquement les propositions du chatbot, et de modifier le choix spécifique de certains mots proposés par ChatGPT.

Nous voulons qu’il soit beaucoup plus difficile de prendre une sortie GPT et de la faire passer comme si elle provenait d’un humain. Cela pourrait être utile pour prévenir le plagiat universitaire, évidemment, mais aussi, par exemple, la génération massive de propagande.

Imperceptibles pour le lecteur, ces changements seraient toutefois prévisibles d’un point de vue statistique pour les personnes qui rechercheraient du texte généré par une machine. Scott Aaronson rajoute :

Nous avons en fait un prototype fonctionnel du schéma de filigrane. Cela semble fonctionner assez bien – empiriquement, quelques centaines de mots semblent être suffisants pour obtenir un signal raisonnable que, oui, ce texte provient de GPT.

AIgiarism, un nouveau terme pour désigner le plagiat par chatbot

L’utilisation d’outils d’intelligence artificielle tels que ChatGPT ou DALL-E, qui génère une écriture pouvant être considérée comme sa propre création, s’appelle AIgiarism. Ce terme récent a été lancé par le programmateur et investisseur en capital risque Paul Graham.

Le problème avec le plagiat n’est pas seulement que vous prenez le crédit de quelqu’un d’autre, mais que vous le revendiquez à tort pour vous-même. Ce dernier point est toujours vrai dans l’AIgiarism. Et en fait, le premier est aussi un  peu vrai avec la technologie actuelle de l’IA.

Sujets liés :
Publier un commentaire
Ajouter un commentaire

Votre adresse email ne sera pas publiée.

Les meilleurs outils marketing digital