Cette semaine en IA : l’éthique de l’IA continue de passer à la trappe

Les dangers de l’IA générative

Un titre dans l’actualité a attiré mon attention ce matin : « Des générateurs d’images IA sont entraînés sur des photos explicites d’enfants ». L’histoire révèle que LAION, un ensemble de données utilisé pour former de nombreux générateurs d’images IA populaires en open source et commerciaux, contient des milliers d’images de soupçons de sévices sexuels sur des enfants. Un groupe de surveillance basé à Stanford a travaillé avec des organisations de lutte contre les abus pour identifier le matériel illégal et signaler les liens aux autorités compétentes.

LAION, une organisation à but non lucratif, a retiré ses données d’entraînement et s’est engagée à supprimer les contenus offensants avant de les republier. Cet incident souligne le peu de réflexion qui est accordée aux produits IA génératifs alors que les pressions concurrentielles augmentent.

Grâce à la prolifération d’outils de création de modèles IA sans code, il est de plus en plus facile de former des IA génératives sur n’importe quel ensemble de données imaginable. Cela présente des avantages pour les start-ups et les géants de la technologie qui peuvent ainsi mettre ces modèles sur le marché plus rapidement. Cependant, avec une barrière à l’entrée plus basse, vient la tentation de mettre de côté l’éthique au profit d’un chemin accéléré vers le marché.

L’éthique est difficile – il n’y a pas de doute là-dessus. Parcourir les milliers d’images problématiques de LAION, pour prendre l’exemple de cette semaine, ne se fera pas du jour au lendemain. Et idéalement, le développement éthique de l’IA implique de travailler avec toutes les parties prenantes pertinentes, y compris les organisations qui représentent les groupes souvent marginalisés et affectés de manière négative par les systèmes IA.

L’industrie regorge d’exemples de décisions de mise en œuvre de l’IA prises en pensant aux actionnaires, et non aux éthiciens. Prenons par exemple Bing Chat (maintenant Microsoft Copilot), le chatbot alimenté par l’IA de Microsoft, qui lors de son lancement a comparé un journaliste à Hitler et insulté son apparence. En octobre, ChatGPT et Bard, les concurrents de Google, donnaient toujours des conseils médicaux racistes et obsolètes. Et la dernière version du générateur d’images DALL-E d’OpenAI montre des preuves d’anglocentrisme.

Il est donc évident que des préjudices sont causés dans la poursuite de la supériorité de l’IA, du moins selon Wall Street. Peut-être qu’avec l’adoption des réglementations de l’IA de l’UE, qui menacent de sanctions en cas de non-respect de certaines règles de sécurité de l’IA, il y a un espoir à l’horizon. Mais le chemin à parcourir est encore long.

Autres nouvelles en IA

Voici quelques autres actualités intéressantes de ces derniers jours :

Prédictions pour l’IA en 2024 : Devin présente ses prédictions pour l’IA en 2024, abordant notamment l’impact de l’IA sur les élections primaires aux États-Unis et ce qui attend OpenAI.

Contre la pseudanthropie : Devin suggère également d’interdire à l’IA d’imiter le comportement humain.

Microsoft Copilot se met à la création musicale : Copilot, le chatbot alimenté par l’IA de Microsoft, peut désormais composer des chansons grâce à une intégration avec l’application musicale GenAI Suno.

Fin de la reconnaissance faciale chez Rite Aid : Rite Aid a été interdit d’utiliser la technologie de reconnaissance faciale pendant cinq ans après que la Federal Trade Commission ait constaté que l’utilisation « irresponsable » des systèmes de surveillance faciale par le géant américain de la pharmacie a humilié les clients et mis leurs informations sensibles en danger.

L’UE offre des ressources informatiques : L’UE élargit son plan, annoncé pour la première fois en septembre et lancé le mois dernier, visant à soutenir les start-ups d’IA nationales en leur fournissant un accès à la puissance de traitement pour la formation de modèles sur les supercalculateurs de l’Union.

OpenAI donne de nouveaux pouvoirs au conseil d’administration : OpenAI renforce ses processus internes de sécurité pour contrer la menace d’une IA nocive. Un nouveau « groupe consultatif sur la sécurité » siégera au-dessus des équipes techniques et fera des recommandations à la direction, et le conseil d’administration s’est vu accorder un droit de veto.

Questions-réponses avec Ken Goldberg de l’UC Berkeley : Brian s’est entretenu avec Ken Goldberg, professeur à l’UC Berkeley, fondateur de start-up et spécialiste de la robotique, pour discuter des robots humanoïdes et des tendances plus larges de l’industrie de la robotique.

Les DSI adoptent prudemment la GenAI : Ron explique que, bien que les DSI soient sous pression pour offrir des expériences similaires à celles proposées par ChatGPT en ligne, la plupart adoptent une approche délibérée et prudente de l’adoption de cette technologie pour l’entreprise.

Les éditeurs de presse poursuivent Google pour l’IA : Une action collective intentée par plusieurs éditeurs de presse accuse Google de « siphonner » les contenus d’actualités par des moyens anticoncurrentiels, notamment grâce à des technologies d’IA comme le Search Generative Experience (SGE) de Google et le chatbot Bard.

OpenAI signe un accord avec Axel Springer : En parlant d’éditeurs, OpenAI a conclu un accord avec Axel Springer, le propriétaire berlinois de publications telles que Business Insider et Politico, pour former ses modèles d’IA générative sur le contenu de l’éditeur et ajouter des articles récents publiés par Axel Springer à ChatGPT.

Google étend Gemini à davantage de produits : Google a intégré ses modèles Gemini à plus de ses produits et services, notamment sa plateforme de développement d’IA gérée Vertex AI et AI Studio, l’outil de création d’expériences basées sur l’IA de l’entreprise.

Plus de découvertes en apprentissage automatique

La recherche la plus folle (et la plus facile à mal interpréter) de la semaine ou des deux dernières semaines doit être life2vec, une étude danoise qui utilise d’innombrables données sur la vie d’une personne pour prédire à quoi elle ressemble et quand elle mourra. En gros !

Visualisation de la représentation de life2vec des différents concepts et événements de la vie pertinents. Créditos de las imágenes : Lehmann et al.

L’étude ne prétend pas avoir une précision oraculaire, mais elle montre plutôt que si nos vies sont le résultat de nos expériences, ces parcours peuvent être extrapolés en utilisant les techniques d’apprentissage automatique actuelles. En tenant compte de l’éducation, du travail, de la santé, des loisirs et d’autres facteurs, on peut raisonnablement prédire non seulement si quelqu’un est, par exemple, introverti ou extraverti, mais aussi comment ces facteurs peuvent influencer l’espérance de vie. Nous n’en sommes pas encore à la prédiction des crimes, mais vous pouvez parier que les compagnies d’assurance sont impatientes d’obtenir une licence pour ces travaux.

Une autre grande avancée a été réalisée par des scientifiques de la CMU qui ont créé un système appelé Coscientist, un assistant basé sur l’IA pour les chercheurs qui peut effectuer de nombreuses tâches de laboratoire de manière autonome. Il est actuellement limité à certains domaines de la chimie, mais comme les scientifiques, les modèles comme celui-ci seront des spécialistes.

Gabe Gomes, chercheur principal, a déclaré à Nature : « Le moment où j’ai vu une intelligence non organique être capable de planifier, de concevoir et d’exécuter de manière autonome une réaction chimique inventée par des humains, c’était incroyable. C’était un moment de « oh la vache ». Fondamentalement, il utilise un LLM comme GPT-4, affiné sur des documents de chimie, pour identifier les réactions, les réactifs et les procédures courants et les exécuter. Ainsi, vous n’avez pas besoin de dire à un technicien de laboratoire de synthétiser quatre lots d’un catalyseur – l’IA peut le faire, et vous n’avez même pas besoin de lui tenir la main.

Les chercheurs en IA de Google ont également eu une semaine chargée, explorant quelques domaines d’avant-garde intéressants. FunSearch peut sembler être Google pour les enfants, mais cela signifie en réalité recherche de fonctions, qui, comme Coscientist, est capable de faire et d’aider à faire des découvertes mathématiques. Fait intéressant, pour éviter les hallucinations, cela utilise une paire de modèles d’IA similaires à l’architecture « ancienne » des GAN. L’un théorise, l’autre évalue.

Bien que FunSearch ne fasse pas de nouvelles découvertes révolutionnaires, il peut prendre ce qui existe déjà et l’affiner ou le réappliquer dans de nouveaux domaines. Ainsi, une fonction utilisée dans un domaine mais dont un autre domaine n’est pas conscient pourrait être utilisée pour améliorer un algorithme standard de l’industrie.

StyleDrop est un outil pratique pour les personnes souhaitant reproduire certains styles via des images génératives. Le problème (comme le voient les chercheurs) est que si vous avez un style en tête (disons « pastel ») et que vous le décrivez, le modèle aura trop de sous-styles de « pastel » parmi lesquels choisir, ce qui rendra les résultats imprévisibles. StyleDrop vous permet de fournir un exemple du style auquel vous pensez, et le modèle se basera sur cela – c’est essentiellement un ajustement fin super efficace.

Créditos de las imágenes : Google

L’article de blog et l’étude montrent que le modèle est assez robuste, capable d’appliquer un style provenant de n’importe quelle image, qu’il s’agisse d’une photo, d’une peinture, d’un paysage urbain ou d’un portrait de chat, à n’importe quel autre type d’image, même l’alphabet (notoirement difficile pour certaines raisons).

Google avance également dans le domaine des jeux vidéo génératifs avec VideoPoet, qui utilise une base LLM (comme tout le reste de nos jours… que voulez-vous utiliser d’autre ?) pour effectuer diverses tâches vidéo, telles que la transformation de texte ou d’images en vidéo, l’extension ou la stylisation de vidéos existantes, etc. Le défi ici, comme le montre chaque projet, n’est pas simplement de créer une série d’images qui se rapportent les unes aux autres, mais de les rendre cohérentes sur de plus longues périodes (plus d’une seconde) et avec de grands mouvements et changements.

Créditos de las imágenes : Google

VideoPoet semble faire progresser les choses, bien que les résultats soient encore assez étranges. Mais c’est ainsi que les choses évoluent : d’abord, elles sont insuffisantes, puis elles sont étranges, puis elles sont déroutantes. On suppose qu’elles laissent place à quelque chose de déroutant à un moment donné, mais personne n’est vraiment arrivé là pour le moment.

Dans le domaine pratique, des chercheurs suisses ont appliqué des modèles d’IA à la mesure de la neige. Normalement, on se fie aux stations météorologiques, mais elles peuvent être éloignées et nous disposons de toutes ces belles données satellites, n’est-ce pas ? Exactement. L’équipe de l’ETHZ a donc utilisé des images satellites publiques de la constellation Sentinel-2, mais comme le dit Konrad Schindler, chef de file, « il ne suffit pas de regarder les zones blanches sur les images satellites pour savoir immédiatement à quelle profondeur se trouve la neige ».

Alors ils ont intégré des données topographiques pour tout le pays provenant de leur Office fédéral de topographie (comme notre USGS) et ont formé le système à estimer non seulement en se basant sur les zones blanches des images, mais aussi sur des données de référence et des tendances comme les schémas de fonte. La technologie qui en résulte est commercialisée par ExoLabs, que je vais contacter pour en savoir plus.

Cependant, Stanford nous met en garde – aussi puissantes que soient des applications telles que celles mentionnées ci-dessus, il faut noter qu’elles n’impliquent pas beaucoup de biais humain. Lorsqu’il s’agit de santé, cela devient soudainement un gros problème, et la santé est le domaine où de nombreux outils d’IA sont testés. Des chercheurs de Stanford ont montré que les modèles d’IA véhiculent des « stéréotypes raciaux médicaux obsolètes ». GPT-4 ne sait pas si quelque chose est vrai ou non, il peut donc répéter d’anciennes affirmations discréditées sur des groupes, par exemple que les personnes noires ont une capacité pulmonaire inférieure. Non ! Soyez prudents si vous travaillez avec des modèles d’IA dans le domaine de la santé et de la médecine.

Enfin, voici une courte histoire écrite par Bard avec un script de tournage et des indications, réalisée par VideoPoet. Attention, Pixar !

Comparta su opinión

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.