Un logiciel d’IA me pousse au plagiat scientifique

ai

Les éditeurs académiques déploient de plus en plus de logiciels d’IA pour détecter les erreurs ou le plagiat avec des images dans les articles.

Les erreurs, le plagiat ou l’utilisation négligente d’images posent régulièrement des problèmes lors de la publication d’études et d’articles scientifiques. Que cela soit intentionnel ou non, cela peut mettre les auteurs et les éditeurs dans l’embarras. C’est pourquoi ces derniers déploient de plus en plus l’IA pour détecter les erreurs sur les images avant la publication d’un article.

Proofig et Cie

The Register cite l’exemple de l’American Association for Cancer Research (AACR). L’organisation publie 10 revues de recherche par an et étudie plus de 13 000 propositions. Entre janvier 2021 et mai 2022, l’AACR a déployé le logiciel d’IA de Proofig pour scanner 1 367 manuscrits. Sur la base des résultats de l’IA, l’éditeur a contacté 208 auteurs. La plupart des cas concernaient un formatage bâclé, qui pouvait être rapidement résolu.

Dans quelques articles, l’éditeur a détecté une fraude au niveau des images. Un auteur a vu son travail complètement rejeté. Même si la fraude académique est rare, elle peut avoir des conséquences importantes. Par exemple, une étude récente de Science indique que des années de recherches infructueuses sur la maladie d’Alzheimer étaient fondées sur un article fréquemment cité mais dont le contenu a été falsifié. Proofig et d’autres logiciels d’IA permettent de détecter plus rapidement les fraudes d’images.

Proofig utilise une combinaison d’algorithmes de visualisation par ordinateur et d’IA pour extraire et classer les images.  » Il s’agit d’un logiciel complexe qui n’est possible que grâce aux machine learning « , a déclaré Dror Kolodkin-Gal, cofondateur de Proofig.  » Sans l’IA, l’étude des images prend énormément de temps. Désormais, le programme peut détecter les plus petits changements. »

Les humains restent néanmoins nécessaires

L’IA seule ne peut pas détecter les fraudeurs. Le facteur humain est encore nécessaire (pour l’instant) pour une étude plus approfondie. « L’IA seule pourrait donner beaucoup de faux rapports. Dans certains cas, l’œil humain surpasse les ordinateurs », déclare Elisabeth Bik, experte en matière d’images dans le domaine juridique.

Elle utilise un programme différent, Image Twin, pour ses recherches. Ce programme a parfois du mal avec les « Western Blots ». Il s’agit essentiellement d’une bande noire sur un fond plein. L’IA a du mal à détecter les différences et c’est là que l’œil humain entre en jeu.

Un autre problème est que l’IA ne peut pas détecter le plagiat entre différents travaux pour le moment. Pour cela, les fournisseurs de logiciels doivent fournir une grande base de données d’images. En plus de prendre du temps, cela est également extrêmement coûteux. « Le plus grand défi est de rassembler la plus grande quantité de données. Cela est nécessaire pour que l’IA soit juste. Tous les éditeurs doivent travailler ensemble pour mettre en place une immense banque d’images. » conclut Kolodkin-Gal de Proofig.

Le fait que les éditeurs scannent leurs propositions pour détecter les fraudes constitue un avertissement ferme pour les auteurs. Même si la recherche n’en est qu’à ses débuts, c’est un pas de plus vers une intégrité scientifique accrue.

newsletter

Abonnez-vous gratuitement à ITdaily !
Category(Required)
Consent(Required)
This field is for validation purposes and should be left unchanged.
retour à la maison