L’outil de détection des textes ChatGPT découragerait les utilisateurs

OpenAI refuserait de filigraner les textes de ChatGPT car cela dissuaderait les utilisateurs.

Selon le The Wall Street Journal, OpenAI disposerait depuis un an d’un système de filigrane pour les contenus créés par ChatGPT, ainsi que d’un outil permettant de détecter le filigrane. Une véritable bénédiction pour les professeurs qui sont opposés à l’utilisation de ChatGPT, mais un frein pour les utilisateurs qui font rédiger leurs thèses par ChatGPT.

L’entreprise doit donc résoudre ce dilemme : accepter de prendre ses responsabilités ou réduire ses profits. En effet, selon une enquête d’OpenAI, 30 % des utilisateurs consulteraient moins ChatGPT si le texte comportait un filigrane, car ils auraient l’impression d’avoir été piégés.

Suite à l’article du Journal, OpenAI a publié une version révisée d’un billet de blog remarqué par TechCrunch. On y apprend que l’entreprise n’en est qu’aux premiers stades de la mise au point d’une méthode de filigrane pour le texte et qu’elle continue d’explorer d’autres solutions.

Filigranes textuels

Les filigranes textuels de l’OpenAI se concentreraient uniquement sur la détection des textes créés par ChatGPT, et non sur ceux provenant d’autres modèles. Cela se fait en apportant de petites modifications à la manière dont ChatGPT sélectionne les mots. Le texte contient ainsi un filigrane invisible qui peut être détecté à l’aide d’un outil séparé.

« La méthode de filigranage de texte que nous développons est techniquement prometteuse, mais elle présente des risques importants que nous évaluons au fur et à mesure que nous explorons des alternatives. Ces risques comprennent notamment sa vulnérabilité au contournement par des acteurs malveillants et son potentiel à avoir un impact disproportionné sur des groupes tels que les non-anglophones », a déclaré un porte-parole de l’OpenAI à TechCrunch.

Pas rentable ?

OpenAI s’inquiéterait également de l’impact de l’outil de détection sur l’utilisation de son logiciel. D’après les recherches menées par l’entreprise, près de 30 % des utilisateurs utiliseraient moins le logiciel si un filigrane était ajouté. En particulier dans un environnement universitaire, cela peut donner le sentiment d’être « piégé ».

Selon The Journal, OpenAI aurait découvert que les filigranes n’affectent pas la qualité des résultats de ChatGPT : « À travers le monde, les gens soutiennent l’idée d’un outil de détection de l’IA à quatre contre un. »

Après que The Journal a publié des informations sur l’existence des filigranes d’OpenAI, l’entreprise a actualisé un billet de blog de mai, et TechCrunch l’a remarqué. Il y est écrit que l’entreprise est dans « les premiers stades » de l’exploration de l’intégration des métadonnées, et qu’il est trop tôt pour savoir si cela fonctionnera bien.

newsletter

Abonnez-vous gratuitement à ITdaily !

Category(Required)
This field is for validation purposes and should be left unchanged.
retour à la maison