Inhaltsverzeichnis
Appel à une réglementation stricte des deepfakes
Des centaines de personnes de la communauté de l’intelligence artificielle ont signé une lettre ouverte appelant à une réglementation stricte des deepfakes, les impersonnations générées par l’IA. Bien que cela ne soit pas susceptible de susciter une véritable législation (malgré la nouvelle force opérationnelle de la Chambre), cela agit comme un indicateur de la position des experts sur cette question controversée.
Une menace croissante pour la société
La lettre, signée par plus de 500 personnes travaillant dans le domaine de l’IA, déclare que les deepfakes sont une menace croissante pour la société et que les gouvernements doivent imposer des obligations tout au long de la chaîne d’approvisionnement pour enrayer la prolifération des deepfakes.
Appel à la criminalisation des deepfakes à caractère pédopornographique
Les signataires demandent la criminalisation totale des contenus deepfakes à caractère pédopornographique, qu’ils soient réels ou fictifs. Des sanctions pénales sont exigées dans tous les cas où quelqu’un crée ou propage des deepfakes préjudiciables. Les développeurs sont également appelés à empêcher la création de deepfakes préjudiciables à l’aide de leurs produits, sous peine de sanctions si leurs mesures de prévention sont insuffisantes.
Signataires notables
Parmi les signataires les plus connus de la lettre figurent Jaron Lanier, Frances Haugen, Stuart Russell, Andrew Yang, Marietje Schaake, Steven Pinker, Gary Marcus, Oren Etzioni, Genevieve Smith, Yoshua Bengio, Dan Hendrycks et Tim Wu. De nombreux universitaires de différentes disciplines et de différents pays ont également signé la lettre.
Plusieurs raisons de s’inquiéter
Ce n’est pas la première fois que de telles mesures sont demandées. En fait, elles ont été débattues au sein de l’UE pendant des années avant d’être formellement proposées plus tôt ce mois-ci. Peut-être que c’est la volonté de l’UE de délibérer et de mettre en œuvre des mesures qui a incité ces chercheurs, créateurs et dirigeants à s’exprimer.
Il est également possible que cela soit dû à l’adoption progressive de la loi KOSA (Kids Online Safety Act) et à son manque de protections contre ce type d’abus.
Ou peut-être que c’est la menace des appels d’escroquerie générés par l’IA, qui pourraient influencer les élections ou arnaquer des personnes naïves.
Ou peut-être que c’est la force opérationnelle annoncée hier, sans autre agenda précis que la rédaction d’un rapport sur les menaces basées sur l’IA et sur les restrictions législatives possibles.
Comme vous pouvez le constater, il ne manque pas de raisons pour que les membres de la communauté de l’IA agitent les bras et disent : « Peut-être devrions-nous faire quelque chose ?! »
Une prise de conscience incertaine
Il est difficile de dire si cette lettre attirera l’attention de quelqu’un. Personne n’a vraiment prêté attention à l’infâme lettre appelant à une « pause » dans le développement de l’IA, mais cette lettre est un peu plus pratique. Si les législateurs décident de s’attaquer à la question, ce qui est peu probable étant donné qu’il s’agit d’une année électorale avec un Congrès fortement divisé, ils disposeront de cette liste pour prendre la température de la communauté académique et de développement de l’IA dans le monde entier.