Sommaire
L’IA transforme le monde et attire l’attention des décideurs politiques
L’intelligence artificielle (IA) est une réalité qui transforme le monde. En conséquence, la Silicon Valley retrouve son dynamisme d’antan. Mais de l’autre côté du pays, à Washington D.C., un changement tout aussi important est en train de se produire : les acteurs les plus importants de l’industrie de l’IA adoptent une approche politique publique presque aussi surprenante que la technologie elle-même.
Les entreprises d’IA engagent les décideurs politiques
Les principales entreprises d’IA d’aujourd’hui engagent habilement les décideurs politiques dès le début. Elles proposent des briefings aux membres du Congrès et à leurs équipes afin de mieux comprendre la technologie. Elles se montrent également disposées à comparaître devant des comités, que ce soit publiquement ou en privé. De plus, elles organisent des forums multipartites et signent même des accords communs avec la Maison Blanche.
Ceux qui ont travaillé sur des efforts politiques impliquant la technologie et le secteur public savent à quel point il est difficile d’obtenir un consensus parmi les acteurs du secteur privé, et encore plus avec le gouvernement.
Certains soutiennent que les déclarations publiques de l’industrie de l’IA ne sont qu’une façade. Ces entreprises savent que le Congrès avance à un rythme glacial, voire pas du tout. Il faudrait des années pour que le Congrès crée une nouvelle agence de réglementation et de surveillance, la finance, la dote de personnel et lui donne les moyens d’appliquer des mesures de contrôle significatives. Pour mettre les choses en perspective, les entreprises de médias sociaux restent presque entièrement non réglementées des décennies après leur apparition.
Quelles que soient leurs motivations réelles, le fait que tous les grands acteurs des modèles d’IA se regroupent si rapidement et s’entendent sur des principes de sécurité généraux et des garde-fous réglementaires montre à quel point ils prennent au sérieux les risques potentiels de l’IA, ainsi que les opportunités sans précédent qu’elle offre.
La leçon tirée des erreurs passées
Il est clair que les dirigeants de l’IA, ainsi que leurs équipes de politique publique, ont tiré les leçons des réactions négatives suscitées par les approches précédentes lors de l’émergence de technologies transformatrices telles que les médias sociaux et les services de covoiturage. Dans le meilleur des cas, la Silicon Valley a ignoré le Congrès. Dans le pire des cas, elle s’en est moquée.
En outre, lorsqu’on leur a demandé de comparaître devant des instances législatives, les dirigeants de l’industrie ont maladroitement et apparemment délibérément affiché leur mépris évident. Leurs relations avec les décideurs politiques, ainsi que l’opinion publique à leur égard, se sont détériorées par la suite.
Jusqu’à présent, nous constatons une approche opposée de la part de l’industrie de l’IA. Les PDG comparaissent devant le Congrès, répondent même aux questions les plus triviales avec ce qui semble être le plus grand respect. Ils s’expriment de manière directe, sans exagérer les avantages ni minimiser les inconvénients. Ces dirigeants apparaissent comme réfléchis, responsables et sincères.
Mais alors que nous passons de la phase initiale, où le simple fait de se présenter est bien vu, à la phase de rédaction d’un cadre réglementaire, leurs stratégies politiques et législatives seront mises à l’épreuve.
Les entreprises d’IA feraient bien de continuer sur cette voie. En effet, la confiance est extrêmement difficile à gagner et trop facile à perdre.
Les prochaines étapes pour l’industrie de l’IA
Pour poursuivre leur engagement, leur consultation et leur action, les leaders de l’industrie de l’IA doivent renforcer leurs efforts initiaux. Voici plusieurs étapes qu’ils devraient envisager de mettre en œuvre :
- Accroître la transparence : Trouver de nouvelles façons d’informer les parties prenantes sur les aspects clés des modèles actuels – ce qu’ils comprennent, comment ils sont déployés, les mesures de sécurité existantes et futures – et dévoiler les équipes qui les construisent. De plus, partager rapidement les nouvelles recherches ainsi que les risques récemment découverts.
- S’engager et s’impliquer : Les entreprises ne devraient pas signer d’accords communs qu’elles ne peuvent ou ne veulent pas respecter. Elles doivent éviter un langage vague conçu pour leur permettre d’échapper à leurs engagements. Le regain médiatique à court terme ne vaut pas les dommages réputationnels à long terme en cas de non-respect de leurs engagements.
- Inclure davantage de membres : Les relations personnelles atténuent les tensions. Élargir les contacts avec le Congrès au-delà des membres siégeant aux comités de surveillance pertinents et communiquer avec tous les bureaux de la Chambre des représentants et du Sénat. Organiser des briefings de groupe suivis de réunions individuelles. Faire de même avec les groupes de réflexion et les groupes de défense, en particulier ceux qui tirent la sonnette d’alarme contre l’IA.
- Équipe de frappe au Congrès : Proposer des employés dédiés pour aider le personnel du Congrès à répondre à des questions techniques afin qu’ils puissent mieux préparer leurs membres pour les audiences et les événements dans leurs circonscriptions. Aider les membres à répondre aux questions des électeurs renforcera la confiance et le soutien.
- Contacts avec les gouvernements des États : Mettre en place une stratégie tout aussi solide avec les gouvernements des États. Les laboratoires de la démocratie pourraient créer un cauchemar réglementaire pour les entreprises d’IA. Prendre les devants maintenant, tout comme avec le Congrès, est essentiel pour réduire le risque de non-conformité plus tard.
- Équipe politique de simulation : Ajouter une composante politique aux exercices de simulation. Inviter des législateurs des deux côtés de l’échiquier pour montrer comment fonctionne la simulation et participer activement à l’exercice. Il est beaucoup plus difficile de rejeter la faute sur une entreprise lorsque l’on fait partie de la solution ou, du moins, lorsque l’on a été invité à aider.
- Expliquer les réticences réglementaires : Ne pas parler publiquement d’accueillir favorablement la réforme réglementaire et s’exprimer en termes généraux sur la sécurité tout en faisant discrètement pression sur les gouvernements pour supprimer certains aspects des projets de loi aux États-Unis ou en Europe. Cela ne signifie pas accepter toutes les réglementations telles qu’elles sont rédigées, mais les entreprises doivent être claires et communiquer pourquoi elles s’opposent à certaines dispositions. Il vaut mieux être critiqué pour ne pas être d’accord avec une politique spécifique que d’être perçu comme un menteur ou ayant de fausses motivations.
- Programmes de primes pour la sécurité : En plus des hackathons spécialisés, créer des programmes de primes axés sur la sécurité, inspirés des programmes traditionnels de primes pour les bogues logiciels, qui encouragent les utilisateurs à signaler les failles de sécurité. L’impératif commercial de développer de nouveaux produits d’IA signifie que même les meilleures mesures de sécurité seront probablement en retard par rapport à l’innovation. Traditionnellement, lorsqu’un produit ou un service à haut risque présente un problème, comme les avions ou les voitures, l’industrie interrompt les opérations avec une immobilisation ou un rappel afin d’évaluer et de résoudre le problème. Cependant, avec les logiciels, les entreprises ont tendance à apporter des correctifs tout en continuant à utiliser la plateforme. Il est donc plus important que jamais de réduire le délai entre la détection et la résolution d’une violation de sécurité.
Le temps nous dira si cette nouvelle approche radicalement différente de la politique publique est là pour rester ou si elle est éphémère. En fin de compte, les entreprises devront tracer leur propre voie en matière de politique publique. Bien qu’il n’y ait pas de solution universelle, ceux qui pensent avoir déjà fait suffisamment seront cruellement déçus.