OpenAI souhaite ajouter une couche de vérification d’identité aux modèles d’IA dans l’API

OpenAI souhaite ajouter une couche de vérification d’identité aux modèles d’IA dans l’API

Le créateur de ChatGPT, OpenAI, ajoutera une couche de vérification d’identité à ses modèles d’IA dans l’API afin de prévenir les abus.

OpenAI prévoit d’obliger les organisations à l’avenir à passer par un processus de vérification d’identité avant d’accéder à certains modèles d’IA dans l’API. Cette vérification, appelée Verified Organization, a été annoncée par l’entreprise la semaine dernière via sa page de support. Par cette mesure, OpenAI vise à garantir la sécurité de l’IA. Récemment, il est apparu qu’OpenAI était utilisé pour la rédaction de messages indésirables.

Vérification

“Nous ajoutons le processus de vérification pour limiter l’utilisation non sécurisée de l’IA tout en continuant à rendre les modèles avancés disponibles pour la communauté plus large des développeurs”, déclare l’entreprise.

Cette vérification nécessite une pièce d’identité valide délivrée par le gouvernement de l’un des 200 pays pris en charge par l’API d’OpenAI. De plus, une pièce d’identité ne peut vérifier qu’une seule organisation tous les 90 jours. Cette vérification ne prendrait que quelques minutes et n’aurait pas d’exigences de dépenses selon l’entreprise.

Robot spammeur d’IA

“Chez OpenAI, nous prenons au sérieux notre responsabilité de veiller à ce que l’IA soit à la fois largement accessible et utilisée en toute sécurité. Malheureusement, une petite minorité de développeurs utilisent intentionnellement les API OpenAI en violation de notre politique d’utilisation”, déclare OpenAI.

Cette nouvelle étape vers une sécurité renforcée n’est probablement pas sortie de nulle part. Récemment, il est apparu qu’un robot d’IA consultait OpenAI pour générer des messages destinés à inonder des sites web de commentaires indésirables. Selon l’entreprise de cybersécurité SentinelOne, le soi-disant AkiraBot a réussi à inonder au moins 80 000 sites web de messages indésirables. Le robot s’est basé sur des messages qu’il a créés avec les modèles d’OpenAI.

lire aussi

OpenAI traduit à nouveau Elon Musk en justice et souhaite mettre fin aux ‘pratiques déloyales’

“L’utilisation de contenu généré par LLM aide probablement ces messages à contourner les filtres anti-spam, car le contenu indésirable est différent chaque fois qu’un message est généré. Le cadre fait également tourner le domaine contrôlé par l’attaquant spécifié dans les messages, ce qui complique encore le filtrage du spam”, selon SentinelOne.

Entre-temps, OpenAI a désactivé la clé API utilisée par AkiraBot. “Nous continuons à enquêter et désactiverons tous les actifs associés. Nous prenons les abus au sérieux et améliorons constamment nos systèmes pour détecter les abus”, a déclaré OpenAI dans une déclaration à SentinelOne.