OpenAI ajuste la politique de Sora 2 suite aux critiques d’Hollywood

OpenAI ajuste la politique de Sora 2 suite aux critiques d’Hollywood

Plusieurs acteurs souhaitent mettre un terme à l’utilisation de deepfakes générés par IA via Sora 2 d’OpenAI .

Suite aux vives critiques des syndicats d’acteurs et des studios d’Hollywood, OpenAI a instauré de nouvelles règles pour son modèle vidéo Sora 2, qui génère des vidéos réalistes à partir de prompts textuels. Cette modification fait suite aux préoccupations concernant l’imitation de personnalités connues sans autorisation.

Visages connus sans autorisation

Avec Sora 2, les utilisateurs peuvent créer en quelques secondes des vidéos dans lesquelles apparaissent ou interagissent des célébrités, vivantes ou décédées. Plusieurs acteurs et actrices ont tiré la sonnette d’alarme, écrit SiliconANGLE. Ainsi, le président de SAG-AFTRA Sean Astin a parlé d’« abus massif d’identité », tandis que les agences exigeaient une compensation et des règles plus strictes. « L’utilisation sans autorisation ni rémunération n’est pas de l’innovation mais de l’exploitation », selon UTA.

Les critiques ont contraint OpenAI à agir. L’entreprise a déclaré que « tous les artistes, interprètes et individus ont le droit de déterminer si et comment ils peuvent être simulés ». Le PDG Sam Altman a ajouté qu’il était « profondément engagé à protéger les artistes contre l’abus de leur voix et de leur ressemblance ».

À la suite de Grok

Plus tôt cette année, Grok a fait polémique après que xAI ait rendu public son générateur vidéo sans restrictions. Cela permettait aux utilisateurs de générer même des images de nudité deepfake de célébrités via le « mode épicé ». Cela a suscité de nombreuses critiques, mais contrairement à Sora 2, les garde-fous de Grok n’ont pas encore été ajustés à ce jour. Musk a toutefois partagé sur X qu’une fonction d’analyse sera développée pour prévenir les deepfakes