Sommaire
L’administration Biden dévoile les détails d’un décret exécutif sur l’IA
L’administration Biden a annoncé aujourd’hui les détails d’un décret exécutif tant attendu sur l’IA, à l’approche d’un sommet international sur la sécurité de l’IA qui se tient au Royaume-Uni. Mais comme pour tous les décrets de ce type, les pouvoirs du président sont limités sans le soutien législatif, comme l’ont souligné de nombreux experts et parties prenantes en réponse à cette annonce.
Les défis de la régulation de l’IA
Ce décret intervient alors que les gouvernements du monde entier tentent de relever les défis et les opportunités de l’IA, qui s’est avérée jusqu’à présent trop rapide pour les régulateurs. Face aux risques d’une action prématurée qui freinerait l’innovation et d’une action tardive qui permettrait les abus ou les exploitations, les États-Unis et l’Union européenne ont évité le premier risque, mais se dirigent rapidement vers le second en raison de processus de débat et de rédaction longs.
Un décret en guise de solution temporaire
Le décret de Biden est un palliatif qui soutient les pratiques « volontaires » que de nombreuses entreprises choisissent déjà de mettre en œuvre. Les limites de ce qu’un président peut faire d’un geste de la main signifient que cela se traduit principalement par le partage des résultats, le développement de meilleures pratiques et la fourniture de lignes directrices claires.
L’absence de remède législatif
En ce moment, il n’existe pas de remède législatif aux risques potentiels et aux abus de l’IA, en dehors de ceux qui peuvent être appliqués aux entreprises technologiques en général – ce que beaucoup ont critiqué au fil des ans comme étant insuffisant. L’action fédérale sur les médias sociaux et sur les monopoles de facto comme Amazon et Google a été sporadique, bien qu’une FTC nouvelle et plus agressive puisse changer cette tendance.
Le défi de légiférer sur l’IA
Pendant ce temps, une loi complète définissant et limitant l’utilisation de l’IA semble aussi lointaine aujourd’hui qu’il y a quelques années. L’industrie et la technologie ont évolué si rapidement qu’une quelconque réglementation serait probablement obsolète au moment de son adoption. Il n’est même pas clair de savoir ce qui devrait être limité par voie législative, par opposition à ce qui devrait être laissé à la loi de l’État ou aux agences d’experts.
Une nouvelle agence fédérale pour réguler l’IA
Peut-être que la meilleure approche serait de créer une nouvelle agence fédérale chargée de réglementer l’IA et la technologie, mais cela ne peut être accompli par décret. En attendant, le décret instruit au moins plusieurs groupes axés sur l’IA, tels que celui du Département de la Santé et des Services sociaux, chargé de traiter et d’évaluer les rapports des préjudices liés à l’IA dans le domaine de la santé.
Les réactions des experts
Le sénateur Mark Warner de Virginie s’est dit « impressionné par l’étendue » du décret, bien qu’il sous-entende que la profondeur laisse à désirer. « Je suis également ravi de voir plusieurs sections qui correspondent étroitement à mes efforts en matière de sécurité et de sûreté de l’IA, ainsi qu’à l’utilisation de l’IA par le gouvernement fédéral », a-t-il déclaré dans un communiqué. « Cependant, bon nombre de ces mesures ne font qu’effleurer le sujet, en particulier dans les domaines des soins de santé et de la politique de concurrence. Bien que cela constitue une avancée positive, nous avons besoin de mesures législatives supplémentaires, et je continuerai à travailler avec diligence… » etc.
Des lois substantielles difficiles à passer
Étant donné l’état de la législation et le fait qu’une période électorale incroyablement controversée se profile, ce serait un miracle si une loi substantielle était adoptée dans un proche avenir, encore moins un projet de loi potentiellement clivant et complexe sur les règles de l’IA.
Des ressources nécessaires pour une réglementation efficace
Paul Barrett, directeur adjoint du Centre Stern de l’Université de New York pour les affaires et les droits de l’homme, a reconnu les deux aspects du problème. « Le président Biden envoie un message précieux selon lequel certains systèmes d’IA créent des risques immédiats qui nécessitent une attention immédiate. L’administration va dans la bonne direction », a-t-il écrit. « Mais aujourd’hui n’est que le début d’un processus réglementaire qui sera long et ardu, et qui exigera finalement que les entreprises qui profitent de l’IA prouvent que leurs produits sont sûrs et efficaces, tout comme les fabricants de produits pharmaceutiques, de produits chimiques industriels ou d’avions doivent démontrer que leurs produits sont sûrs et efficaces. Sans les ressources fraîches fournies par le Congrès, il n’est pas clair que le gouvernement fédéral dispose des ressources nécessaires pour évaluer les processus de formation extrêmement complexes ou l’adéquation des tests de simulation et d’autres tests nécessaires. »
La volonté de promouvoir l’innovation tout en protégeant les citoyens
Sheila Gulati, co-fondatrice de Tola Capital, a déclaré que le décret montrait une « intention claire de promouvoir l’innovation tout en protégeant les citoyens ». « Il est essentiel que nous ne freinions pas l’innovation agile des start-ups. Mettre en avant l’explicabilité de l’IA, adopter une approche axée sur les risques en mettant davantage l’accent sur les domaines où les préjudices ou les biais pourraient être en jeu, et placer la sécurité et la confidentialité au centre des préoccupations sont des mesures sensées », a-t-elle déclaré à Toukiela. « Avec ce décret et les implications en matière de normes par le biais du NIST, nous nous attendons à ce que les organismes de normalisation prennent les devants par rapport aux législateurs à court terme. »
Les enjeux pour les entreprises technologiques
Il convient également de mentionner que le gouvernement fédéral est un client important des produits d’IA et de technologie d’aujourd’hui, et toute entreprise qui souhaite les conserver comme client aura intérêt à respecter les règles pour l’avenir immédiat.
Un moment mal choisi
Bob Cattanach, associé du cabinet d’avocats Dorsey and Whitney, ajoute que le timing semble légèrement décalé. « Le décret exécutif fait maladroitement fi de la voix de la vice-présidente Harris lors d’un sommet sur l’IA organisé au Royaume-Uni plus tard cette semaine, signalant que les préoccupations de la Maison Blanche concernant cet espace largement non réglementé étaient si graves que Biden était prêt à s’aliéner des alliés clés en prenant une action unilatérale plutôt que d’accepter les retards inhérents au processus plus collaboratif en cours dans l’UE », a-t-il déclaré.
Le terme « s’aliéner » est peut-être fort. Et bien sûr, le Royaume-Uni n’est pas l’UE. Et ce « processus plus collaboratif » prendra probablement encore quelques années, et il est peu probable que l’administration veuille attendre jusque-là. Mais il aurait peut-être été plus cohérent et amical d’avoir Harris discuter du décret lors du sommet. Ses remarques (qui suggéreront sans aucun doute la nécessité d’une harmonie internationale dans la réglementation de l’IA, avec les États-Unis prenant modestement la tête) seront diffusées le 1er novembre, et vous devriez pouvoir les suivre ici.