Scandale révélé : 1 600 images de pédopornographie trouvées dans une base de données d’intelligence artificielle !

Les impacts néfastes de l’IA : Découverte de milliers de fichiers illicites

Une enquête alarmante menée par les experts de Stanford Internet Observatory a révélé la présence préoccupante de 1 679 fichiers pédopornographiques dans une collection de données ouverte et répandue appelée LAION-5B.

Cette découverte survient à un moment où la création de contenus pédopornographiques par des intelligences artificielles devient un problème croissant en ligne. L’analyse récente réalisée par l’institution a révélé que d’importantes archives de données destinées à la formation des systèmes de synthèse visuelle contiennent des fichiers représentant des violences sexuelles sur des mineurs. Cette vaste collection, appelée LAION-5B, a été utilisée pour éduquer l’IA Stable Diffusion de la société Stability AI.

L’origine de cet ensemble comprend une quantité écrasante de plus de 5 milliards d’images et de textes explicatifs provenant de plateformes communautaires et de sites de contenu pour adultes. Face à la capacité des modèles d’IA à générer des images convaincantes à partir de peu d’exemples, l’inquiétude grandit quant à l’impact potentiel de la présence de ces images au sein de LAION-5B. Les auteurs de l’étude ont réagi en transmettant les fichiers interdits aux autorités compétentes, notamment le National Center for Missing & Exploited Children aux États-Unis et le Centre canadien pour la protection de l’enfance, et ils assurent que les images compromettantes sont en cours de suppression.

Actions de prévention et de contrôle

En conséquence de ces découvertes alarmantes, un représentant de LAION a promis une politique stricte contre la présence de contenus illicites. Par mesure de précaution, l’organisation à but non lucratif qui supervise le projet a temporairement désactivé l’accès à la collection de données LAION en ligne afin de procéder à une vérification et à un nettoyage approfondis.

Parallèlement, un représentant de Stability AI a affirmé que leur IA avait été entraînée avec une version épurée de LAION-5B. « Des systèmes de filtrage ont été intégrés pour bloquer les commandes ou les résultats problématiques lors des interactions des utilisateurs avec nos modèles », a-t-il précisé. Ces mesures sont complétées par des outils d’identification permettant de marquer les images générées, ainsi que des mesures visant à empêcher une utilisation malveillante de leur technologie.

Liens pertinents

Share your opinion

This site uses Akismet to reduce spam. Learn how your comment data is processed.