Les dangers et les possibilités de la nouvelle technologie vidéo IA Sora

Une image tirée d’une vidéo réalisée avec le nouvel outil d’IA générative d’OpenAI, Sora. (OpenAI)
Vous vous souvenez, il y a un an, quand l’intelligence artificielle (IA création vidéo) pouvait à peine produire une vidéo déroutante et légèrement terrifiante de Will Smith mangeant des spaghettis ?
Aujourd’hui, les vidéos générées par l’IA dépassent largement les attentes. Récemment, OpenAI, l’entreprise derrière ChatGPT, a présenté son nouveau modèle d’IA de génération de vidéos à partir de texte, nommé Sora.
Sora permet aux utilisateurs de créer des vidéos d’une minute en entrant simplement un texte descriptif. Par exemple, une commande telle que « Une femme marche dans une rue animée de Tokyo portant une veste en cuir noir, une longue robe rouge, des bottes noires et des lunettes de soleil » génère une vidéo ressemblant à ceci
À première vue, il est facile de voir que la vidéo ci-dessus est générée par une IA. Les piétons marchent beaucoup trop lentement, le visage de la femme est instable, et les images reflétées dans les flaques d’eau ne semblent pas tout à fait correctes.
Mais de loin, les vidéos que Sora est capable de générer sont hyper réalistes et peuvent facilement tromper la personne moyenne. Et n’oubliez pas, c’est le pire que l’IA sera jamais, donc la technologie ne fera que s’affiner.
Pour discuter des potentiels et des pièges de Sora d’OpenAI et des garde-fous nécessaires avant de la libérer au public, la futuriste et commentatrice technologique Sinead Bovell rejoint l’animateur Elamin Abdelmahmoud sur Commotion.
Selon Bovell, la vidéo générée par Sora la plus impressionnante est celle où une grand-mère souffle les bougies de son gâteau d’anniversaire. Elle évoque une sensation de présence réelle, comme si on assistait à l’événement en personne.
Bien que ces vidéos soient impressionnantes, Bovell note que cette technologie arrive à une époque particulièrement risquée. Avec les élections à l’horizon, les deepfakes et la désinformation deviendront encore plus crédibles.
« On peut désormais cloner la voix de quelqu’un et créer une vidéo d’eux faisant quelque chose qui n’a jamais eu lieu, » dit Bovell. « Ce qui est arrivé à Taylor Swift avec les images générées par l’IA et à de nombreuses autres victimes est effrayant. Imaginez ce type de contenu en vidéo, avec les biais intégrés dans ces systèmes. »
Avant de rendre Sora disponible au public, Bovell insiste sur la nécessité de réglementations et de garde-fous stricts.
« Le secteur privé a une responsabilité fiduciaire envers ses actionnaires, pas envers le grand public. Cela crée des conflits d’intérêts inhérents, » explique-t-elle.
« C’est pourquoi les gouvernements et les politiques existent pour ces contrôles. La technologie ne devrait pas s’autoréguler. »
Bovell souligne également que l’un des obstacles est le manque de compréhension des décideurs politiques concernant la technologie qu’ils tentent de réglementer. Un exemple marquant est lorsque le PDG de Meta, Mark Zuckerberg, a témoigné devant le Sénat, où les sénateurs ignoraient que Facebook génère des revenus par la publicité.
« Le problème est qu’il y a un fossé de connaissances entre ceux qui établissent les politiques et ceux qui créent ces technologies, » conclut-elle.
IA création vidéo