Cloudflare modifie les règles pour les robots d’exploration IA avec une nouvelle politique par défaut qui bloque le scraping de contenu sans autorisation.
Cloudflare bloque désormais par défaut les robots d’exploration IA qui collectent du contenu sans autorisation explicite. Les administrateurs de sites web peuvent décider eux-mêmes quelles entreprises d’IA obtiennent l’accès et à quelles fins leur contenu peut être utilisé, par exemple pour l’entraînement, les recherches ou d’autres applications.
Éditeurs sous pression
Selon Cloudflare, cela est nécessaire pour rétablir l’équilibre sur Internet. Les systèmes d’IA utilisent souvent de grandes quantités de contenu en ligne pour générer des réponses, sans renvoyer de trafic vers la source originale.
Pensez à Google Gemini, qui lors d’une recherche résume des informations de sites web sans autorisation et empêche ainsi le trafic légitime vers ces sites web. Cela menace le modèle économique des éditeurs, ainsi que la création de nouveaux articles non générés par l’IA en général.
Fonctionnalité existante
La nouvelle politique s’appuie sur une fonctionnalité que Cloudflare propose depuis septembre 2024, permettant aux administrateurs de bloquer les robots d’exploration IA en un clic. Entre-temps, plus d’un million de clients l’utilisent. À partir de maintenant, ce blocage s’applique par défaut aux nouveaux sites web qui s’inscrivent chez Cloudflare. Les propriétaires de sites web peuvent toujours choisir d’autoriser les robots d’exploration.
Plusieurs grandes entreprises médiatiques internationales et plateformes technologiques soutiennent la nouvelle approche de Cloudflare. Notamment Condé Nast, Dotdash Meredith, Gannett Media (USA Today) et Pinterest approuvent l’idée que les plateformes d’IA doivent compenser équitablement les éditeurs pour l’utilisation de leur contenu. Reddit et Ziff Davis soulignent qu’il faut plus de transparence et de contrôle sur qui explore le contenu et à quelles fins il est utilisé.
Cloudflare affirme que la nouvelle politique ne protège pas seulement les éditeurs, mais aide aussi les entreprises d’IA qui veulent collecter du contenu de manière légale et transparente. Ainsi, l’entreprise collabore à un nouveau protocole permettant aux robots d’IA de mieux s’identifier et aux administrateurs de sites web de contrôler plus facilement quels robots visitent leur site. Cela évite les discussions juridiques sur les droits d’auteur après coup.