Meta va étendre les étiquettes d’images générées par IA sur ses plateformes de médias sociaux
Meta va étendre les étiquettes d’images générées par IA sur ses plateformes de médias sociaux, Facebook, Instagram et Threads, pour couvrir certaines images synthétiques créées à l’aide d’outils d’IA générative de concurrents – du moins lorsque les concurrents utilisent ce que Meta qualifie d' »indicateurs de l’industrie standard » indiquant que le contenu est généré par IA et que Meta est capable de détecter.
Cette évolution signifie que le géant des médias sociaux s’attend à étiqueter davantage d’images générées par IA circulant sur ses plateformes à l’avenir. Cependant, il ne fournit pas de chiffres sur ce sujet – c’est-à-dire la quantité de contenu synthétique par rapport au contenu authentique qui est régulièrement diffusé aux utilisateurs – il est donc difficile de dire à quel point cette mesure pourrait être significative dans la lutte contre la désinformation alimentée par l’IA (dans une année électorale massive à l’échelle mondiale).
Meta affirme qu’elle détecte déjà et étiquette les « images photoréalistes » créées avec son propre outil d’IA générative « Imagine with Meta », lancé en décembre dernier. Mais jusqu’à présent, elle n’avait pas étiqueté les images synthétiques créées à l’aide d’outils d’autres entreprises. C’est donc la (petite) étape qu’elle annonce aujourd’hui.
Collaboration avec des partenaires de l’industrie
Meta indique qu’elle travaille avec des partenaires de l’industrie pour se mettre d’accord sur des normes techniques communes qui signalent qu’un contenu a été créé à l’aide de l’IA », a écrit le président de Meta, Nick Clegg, dans un article de blog annonçant l’extension des étiquettes. « Être capable de détecter ces signaux nous permettra d’étiqueter les images générées par IA que les utilisateurs publient sur Facebook, Instagram et Threads. »
Meta déploiera progressivement les étiquettes étendues « dans les mois à venir » et les appliquera « dans toutes les langues prises en charge par chaque application », selon Clegg.
Un porte-parole de Meta n’a pas pu fournir de calendrier plus précis, ni de détails sur les marchés qui bénéficieront des étiquettes supplémentaires lorsque nous avons demandé plus d’informations. Mais le message de Clegg suggère que le déploiement sera progressif – « au cours de l’année prochaine » – et que Meta pourrait se concentrer sur les calendriers électoraux du monde entier pour prendre des décisions sur le moment et l’endroit où lancer l’extension des étiquettes dans différents marchés.
Meta s’appuie sur la détection de marques visibles appliquées aux images synthétiques par sa technologie d’IA générative, ainsi que sur des « tatouages invisibles » et des métadonnées intégrées par l’outil. C’est également sur la base de ces mêmes signaux, intégrés par les outils d’IA générative des concurrents, que la technologie de détection de Meta effectuera ses recherches.
Contenu vidéo et audio généré par IA
En ce qui concerne les vidéos et l’audio générés par IA, Clegg affirme qu’il est généralement encore trop difficile de détecter ce type de contrefaçons – car le marquage et le tatouage n’ont pas encore été adoptés à une échelle suffisante pour permettre aux outils de détection de bien faire leur travail. De plus, ces signaux peuvent être supprimés par le biais de manipulations supplémentaires des médias.
Par conséquent, Meta exige désormais que les utilisateurs qui publient des vidéos AI-générées « photoréalistes » ou un audio « réaliste » déclarent explicitement que le contenu est synthétique. Si l’utilisateur ne fait pas cette déclaration manuelle, il pourrait être sanctionné en vertu des normes communautaires de Meta (suspension de compte, interdiction, etc.).
Meta envisage également d’utiliser des modèles de langage génératif (LLMs) pour soutenir ses efforts de modération du contenu lors de moments de « risque accru », tels que les élections. Cela permettrait à Meta de supprimer plus rapidement et plus précisément les contenus nocifs.
Il est important de rappeler que la manipulation des médias numériques n’est pas nouvelle et qu’il n’est pas nécessaire d’utiliser des outils d’IA générative sophistiqués pour tromper les gens à grande échelle. L’accès à un compte de médias sociaux et des compétences de base en édition de médias peuvent suffire à créer une fausse information virale.
Meta est sous pression pour être perçu comme prenant des mesures dans une année où les fausses informations liées aux élections seront sans aucun doute très médiatisées. Cependant, sans données solides sur la prévalence du contenu synthétique par rapport au contenu authentique sur les plateformes de Meta, et sans données sur l’efficacité réelle de ses systèmes de détection des faux contenus générés par IA, il est difficile de tirer des conclusions définitives.
En fin de compte, Meta cherche à trouver un équilibre entre les outils d’IA et les modérateurs humains pour lutter contre les contenus nocifs et trompeurs sur ses plateformes, mais il reste encore beaucoup de travail à faire pour résoudre ces problèmes complexes.