Sora, le dernier outil d’OpenAI, permet de générer des vidéos à partir de texte. Initialement, cet outil était réservé à un groupe restreint de partenaires et d’artistes dans le cadre d’une phase de test. Cependant, des artistes en représailles contre OpenAI ont occasionné une fuite de Sora accessible au public pendant plusieurs heures.
À l’origine de la fuite de Sora, le collectif d’artistes PR-Puppet-Sora dénonçait les pratiques d’OpenAI qu’ils accusent de les exploiter pour perfectionner Sora tout en minimisant leurs contributions. En partageant cette version, ils espéraient donc attirer l’attention sur les risques que représente une IA aussi puissante pour les créateurs, ainsi que sur le manque de transparence d’OpenAI. Ceci étant, PR-Puppet-Sora a ainsi permis la fuite de Sora, provoquant une onde de choc dans la communauté.
Face à cette situation, OpenAI a rapidement bloqué l’accès à Sora, mais pas avant que des milliers d’utilisateurs aient eu le temps d’explorer ses fonctionnalités. Pendant ce laps de temps, de nombreuses vidéos générées par Sora ont été partagées en ligne, offrant un aperçu de ses capacités impressionnantes.
La fuite de l’outil vidéo d’OpenAI, Sora, met en lumière l’impact potentiel de cet outil sur le secteur créatif et soulève des questions sur la manière dont des technologies similaires pourraient être utilisées ou détournées. Il en appelle également au renforcement de mesures de sécurité et à l’amélioration de la communication avec la communauté artistique d’OpenAI. Car, si Sora est aussi prometteur qu’il le semble, son lancement officiel devra s’accompagner d’un cadre éthique solide pour apaiser les tensions avec les créateurs et garantir une utilisation responsable de cette technologie.