Inhaltsverzeichnis
Un chatbot détecte les questions politiques et redirige les utilisateurs vers des sources d’information fiables
Anthropic, une startup spécialisée dans l’intelligence artificielle (IA), teste une technologie appelée Prompt Shield pour détecter lorsque les utilisateurs de son chatbot GenAI posent des questions sur des sujets politiques, et les rediriger vers des sources « autorisées » d’informations sur les élections.
Comment fonctionne Prompt Shield ?
Prompt Shield repose sur une combinaison de modèles de détection d’IA et de règles. Lorsqu’un utilisateur basé aux États-Unis demande des informations sur les élections à Claude, le chatbot d’Anthropic, une fenêtre contextuelle s’affiche. Cette fenêtre propose de rediriger l’utilisateur vers TurboVote, une ressource de Democracy Works, une organisation non partisane, où il peut trouver des informations de vote précises et à jour.
Les lacunes de Claude dans le domaine politique
Anthropic affirme que Prompt Shield est nécessaire en raison des lacunes de Claude en matière d’informations politiques et électorales. Claude n’est pas suffisamment entraîné pour fournir des informations en temps réel sur des élections spécifiques, reconnaît Anthropic, et il a tendance à halluciner, c’est-à-dire à inventer des faits, à ce sujet.
Les intentions d’Anthropic
Un porte-parole d’Anthropic a déclaré : « Nous avons mis en place ‘prompt shield’ depuis le lancement de Claude. Il signale différents types de préjudices, conformément à notre politique d’utilisation acceptable. Nous allons lancer notre intervention spécifique aux élections dans les semaines à venir et nous avons l’intention de surveiller son utilisation et ses limites… Nous avons consulté diverses parties prenantes, notamment des décideurs politiques, d’autres entreprises, des organisations de la société civile et des consultants spécialisés dans les élections, pour développer cette technologie ».
Un test limité pour le moment
Pour l’instant, il semble s’agir d’un test limité. Claude n’a pas affiché la fenêtre contextuelle lorsque j’ai demandé comment voter lors des prochaines élections, mais a plutôt affiché un guide de vote générique. Anthropic affirme qu’il peaufine Prompt Shield en vue de l’étendre à davantage d’utilisateurs.
Les politiques de prévention de l’ingérence électorale
Anthropic, qui interdit l’utilisation de ses outils dans les campagnes politiques et le lobbying, est le dernier fournisseur de GenAI à mettre en place des politiques et des technologies visant à prévenir l’ingérence électorale.
Les mesures prises par d’autres entreprises
Cette année, un nombre record de votants se rendront aux urnes dans le monde entier, d’où l’importance pour les entreprises de prendre des mesures pour éviter les manipulations électorales. En janvier, OpenAI a annoncé qu’il interdirait l’utilisation de ChatGPT, son chatbot alimenté par l’IA, pour créer des bots qui se font passer pour de vrais candidats ou gouvernements, qui déforment le fonctionnement du vote ou qui découragent les gens à voter. Comme Anthropic, OpenAI n’autorise actuellement pas les utilisateurs à développer des applications utilisant ses outils à des fins de campagnes politiques ou de lobbying.
OpenAI utilise également des systèmes de détection similaires à Prompt Shield pour orienter les utilisateurs de ChatGPT qui posent des questions logistiques sur le vote vers un site non partisan, CanIVote.org, géré par l’Association nationale des secrétaires d’État.
L’absence de législation sur le rôle de l’IA dans la politique
En ce qui concerne le rôle de l’IA dans la politique, le Congrès américain n’a pas encore adopté de législation, malgré un soutien bipartisan. Pendant ce temps, plus d’un tiers des États américains ont adopté ou proposé des projets de loi pour lutter contre les deepfakes dans les campagnes politiques, tandis que la législation fédérale piétine.
Les mesures prises par les plateformes
En l’absence de législation, certaines plateformes prennent des mesures pour empêcher l’utilisation abusive de l’IA afin de tromper ou de manipuler les électeurs. Google a annoncé en septembre qu’il exigerait que les publicités politiques utilisant GenAI sur YouTube et ses autres plateformes, telles que Google Search, soient accompagnées d’une mention claire si les images ou les sons étaient altérés de manière synthétique. Meta a également interdit aux campagnes politiques d’utiliser des outils GenAI, y compris les siens, dans la publicité sur l’ensemble de ses propriétés.