Incroyable ! Cette startup a fait des deepfakes sans consentement malgré sa promesse de ne jamais le faire ! Découvrez le scandale !

Une startup utilisant les deepfakes pour le bien, mais pas sans consentement

La startup britannique Yepic AI prétend utiliser les « deepfakes pour le bien » et promet de « ne jamais reproduire quelqu’un sans son consentement ». Mais l’entreprise a fait exactement ce qu’elle prétendait ne jamais faire.

Dans un email non sollicité envoyé à un journaliste de nous, un représentant de Yepic AI a partagé deux vidéos « deepfaked » du journaliste, qui n’avait pas donné son consentement pour la reproduction de son image. Yepic AI a déclaré dans l’email qu’il avait « utilisé une photo publiquement disponible » du journaliste pour produire deux vidéos deepfaked où il parle différentes langues.

Le journaliste a demandé à Yepic AI de supprimer les vidéos deepfaked créées sans autorisation.

Les deepfakes et leur utilisation problématique

Les deepfakes sont des photos, des vidéos ou des enregistrements audio créés par des systèmes d’intelligence artificielle générative qui sont conçus pour ressembler à une personne. Bien que ce ne soit pas nouveau, la prolifération de tels systèmes permet à presque n’importe qui de créer facilement du contenu deepfaked convaincant d’une autre personne, y compris sans son consentement.

Sur une page intitulée « Éthique », Yepic AI déclare : « Les deepfakes et les imitations satiriques à des fins politiques et autres sont interdites ». L’entreprise a également déclaré dans un article de blog datant d’août : « Nous refusons de produire des avatars personnalisés de personnes sans leur autorisation expresse. »

On ne sait pas si l’entreprise a généré des deepfakes d’autres personnes sans autorisation, et l’entreprise a refusé de le dire.

Interrogé sur cet incident, le PDG de Yepic AI, Aaron Jones, a déclaré à nous que l’entreprise était en train de mettre à jour sa politique éthique pour « permettre des exceptions pour les images générées par l’IA qui sont créées à des fins artistiques et expressives ».

En expliquant comment l’incident s’est produit, Jones a déclaré : « Ni moi ni l’équipe de Yepic n’avons été directement impliqués dans la création des vidéos en question. Notre équipe de relations publiques a confirmé que la vidéo avait été créée spécifiquement pour le journaliste afin de faire connaître la technologie incroyable que Yepic a créée. »

Jones a également précisé que les vidéos et l’image utilisée pour la création de l’image du journaliste avaient été supprimées.

Les dangers des deepfakes

Comme on pouvait s’y attendre, les deepfakes ont trompé des victimes inconscientes en les faisant tomber dans des escroqueries et en leur faisant involontairement divulguer leurs informations personnelles ou leurs cryptomonnaies en échappant à certains systèmes de modération. Dans un cas, des fraudeurs ont utilisé l’IA pour imiter la voix du PDG d’une entreprise afin de tromper le personnel et de réaliser une transaction frauduleuse de plusieurs centaines de milliers d’euros. Avant que les deepfakes ne deviennent populaires auprès des fraudeurs, il est important de noter que des deepfakes ont été utilisés pour créer des vidéos pornographiques non consenties victimisant des femmes, c’est-à-dire qu’ils ont créé des vidéos pornographiques réalistes en utilisant l’apparence de femmes qui n’avaient pas consenti à y participer.

Partagez votre opinion

Ce site utilise Akismet pour réduire les spams. Découvrez comment les données de vos commentaires sont traitées.