{"id":11075,"date":"2024-02-28T14:36:46","date_gmt":"2024-02-28T12:36:46","guid":{"rendered":"https:\/\/toukiela.com\/explosion-ai-cette-semaine-enfin-une-solution-contre-le-racisme-dans-les-generateurs-dimages\/"},"modified":"2024-02-28T14:36:47","modified_gmt":"2024-02-28T12:36:47","slug":"explosion-ai-cette-semaine-enfin-une-solution-contre-le-racisme-dans-les-generateurs-dimages","status":"publish","type":"post","link":"https:\/\/toukiela.com\/es\/explosion-ai-cette-semaine-enfin-une-solution-contre-le-racisme-dans-les-generateurs-dimages\/","title":{"rendered":"Explosion AI cette semaine : Enfin une solution contre le racisme dans les g\u00e9n\u00e9rateurs d&rsquo;images !"},"content":{"rendered":"<p><em><\/em><\/p>\n<h2>Google suspend la capacit\u00e9 de son chatbot AI \u00e0 g\u00e9n\u00e9rer des images de personnes suite \u00e0 des plaintes d\u2019inexactitudes historiques<\/h2>\n<p><\/p>\n<p>Google a d\u00e9cid\u00e9 de suspendre la capacit\u00e9 de son chatbot AI, Gemini, \u00e0 g\u00e9n\u00e9rer des images de personnes apr\u00e8s que certains utilisateurs se soient plaints d\u2019inexactitudes historiques. Par exemple, lorsque Gemini \u00e9tait invit\u00e9 \u00e0 repr\u00e9senter une \u00ab\u00a0l\u00e9gion romaine\u00a0\u00bb, il montrait un groupe de soldats de diff\u00e9rentes races de mani\u00e8re caricaturale et anachronique, tandis que pour les \u00ab\u00a0guerriers zoulous\u00a0\u00bb, il les repr\u00e9sentait tous comme des personnes noires.<\/p>\n<p>Il semblerait que Google, tout comme d\u2019autres fournisseurs d\u2019IA tels qu\u2019OpenAI, ait mis en place un codage maladroit pour tenter de \u00ab\u00a0corriger\u00a0\u00bb les biais de son mod\u00e8le. En r\u00e9ponse \u00e0 des demandes telles que \u00ab\u00a0montre-moi des images de femmes seulement\u00a0\u00bb ou \u00ab\u00a0montre-moi des images d\u2019hommes seulement\u00a0\u00bb, Gemini refusait en affirmant que de telles images pourraient \u00ab\u00a0contribuer \u00e0 l\u2019exclusion et \u00e0 la marginalisation d\u2019autres genres\u00a0\u00bb. Gemini \u00e9tait \u00e9galement r\u00e9ticent \u00e0 g\u00e9n\u00e9rer des images de personnes identifi\u00e9es uniquement par leur race, par souci de \u00ab\u00a0r\u00e9duire les individus \u00e0 leurs caract\u00e9ristiques physiques\u00a0\u00bb.<\/p>\n<p>Certains conservateurs ont saisi l\u2019occasion pour d\u00e9noncer un agenda \u00ab\u00a0politiquement correct\u00a0\u00bb perp\u00e9tr\u00e9 par l\u2019\u00e9lite technologique. Cependant, il n\u2019est pas n\u00e9cessaire d\u2019utiliser le rasoir d\u2019Occam pour comprendre que la v\u00e9rit\u00e9 est moins n\u00e9faste : Google, ayant d\u00e9j\u00e0 \u00e9t\u00e9 confront\u00e9 \u00e0 des biais de ses outils par le pass\u00e9 (par exemple en classifiant des hommes noirs comme des gorilles ou en confondant des armes \u00e0 feu thermiques avec des armes dans les mains de personnes noires), est d\u00e9sesp\u00e9r\u00e9 d\u2019\u00e9viter que l\u2019histoire se r\u00e9p\u00e8te en manifestant un monde moins biais\u00e9 dans ses mod\u00e8les de g\u00e9n\u00e9ration d\u2019images, m\u00eame si cela est erron\u00e9.<\/p>\n<p>Dans son livre \u00e0 succ\u00e8s \u00ab\u00a0White Fragility\u00a0\u00bb, l\u2019\u00e9ducatrice anti-raciste Robin DiAngelo explique comment la suppression de la race \u2013 la \u00ab\u00a0c\u00e9cit\u00e9 \u00e0 la couleur\u00a0\u00bb, pour utiliser une autre expression \u2013 contribue aux d\u00e9s\u00e9quilibres de pouvoir raciaux syst\u00e9miques au lieu de les att\u00e9nuer. En pr\u00e9tendant \u00ab\u00a0ne pas voir la couleur\u00a0\u00bb ou en renfor\u00e7ant l\u2019id\u00e9e que simplement reconna\u00eetre les difficult\u00e9s des personnes d\u2019autres races suffit \u00e0 se consid\u00e9rer comme \u00ab\u00a0\u00e9veill\u00e9\u00a0\u00bb, les gens perp\u00e9tuent des pr\u00e9judices en \u00e9vitant toute conversation substantielle sur le sujet, affirme DiAngelo.<\/p>\n<p>Le traitement prudent de Google envers les demandes bas\u00e9es sur la race dans Gemini n\u2019\u00e9vitait pas r\u00e9ellement le probl\u00e8me, mais tentait plut\u00f4t de dissimuler les pires biais du mod\u00e8le. On pourrait soutenir (et beaucoup l\u2019ont fait) que ces biais ne devraient pas \u00eatre ignor\u00e9s ou pass\u00e9s sous silence, mais qu\u2019ils devraient \u00eatre abord\u00e9s dans le contexte plus large des donn\u00e9es d\u2019entra\u00eenement d\u2019o\u00f9 ils proviennent, c\u2019est-\u00e0-dire la soci\u00e9t\u00e9 sur Internet.<\/p>\n<p>En effet, les ensembles de donn\u00e9es utilis\u00e9s pour former les g\u00e9n\u00e9rateurs d\u2019images contiennent g\u00e9n\u00e9ralement plus de personnes blanches que de personnes noires, et les images de personnes noires dans ces ensembles de donn\u00e9es renforcent des st\u00e9r\u00e9otypes n\u00e9gatifs. C\u2019est pourquoi les g\u00e9n\u00e9rateurs d\u2019images sexualisent certaines femmes de couleur, d\u00e9peignent des hommes blancs dans des postes d\u2019autorit\u00e9 et favorisent g\u00e9n\u00e9ralement les perspectives occidentales et ais\u00e9es.<\/p>\n<p>Certains pourraient soutenir qu\u2019il est impossible pour les fournisseurs d\u2019IA de gagner. Qu\u2019ils s\u2019attaquent ou choisissent de ne pas s\u2019attaquer aux biais des mod\u00e8les, ils seront critiqu\u00e9s. Et c\u2019est vrai. Mais je soutiens que, dans tous les cas, ces mod\u00e8les manquent d\u2019explications \u2013 ils sont pr\u00e9sent\u00e9s de mani\u00e8re \u00e0 minimiser la fa\u00e7on dont leurs biais se manifestent.<\/p>\n<p>Si les fournisseurs d\u2019IA s\u2019attaquaient directement aux lacunes de leurs mod\u00e8les, en utilisant un langage humble et transparent, cela irait beaucoup plus loin que les tentatives d\u00e9sordonn\u00e9es de \u00ab\u00a0corriger\u00a0\u00bb les biais qui sont essentiellement impossibles \u00e0 corriger. La v\u00e9rit\u00e9 est que nous avons tous des biais \u2013 et nous ne traitons pas les gens de la m\u00eame mani\u00e8re en cons\u00e9quence. Et nos mod\u00e8les que nous construisons non plus. Et il serait bon de le reconna\u00eetre.<\/p>\n<h2>D\u2019autres histoires sur l\u2019IA de ces derniers jours :<\/h2>\n<p><\/p>\n<p><strong>Les femmes dans le domaine de l\u2019IA :<\/strong> Toukiela a lanc\u00e9 une s\u00e9rie mettant en avant des femmes remarquables dans le domaine de l\u2019IA. Lisez la liste ici.<\/p>\n<p><\/p>\n<p><strong>Stable Diffusion v3 :<\/strong> Stability AI a annonc\u00e9 Stable Diffusion 3, la derni\u00e8re et la plus puissante version du mod\u00e8le d\u2019IA de g\u00e9n\u00e9ration d\u2019images de l\u2019entreprise, bas\u00e9e sur une nouvelle architecture.<\/p>\n<p><\/p>\n<p><strong>Chrome adopte GenAI :<\/strong> La nouvelle fonctionnalit\u00e9 de Google, aliment\u00e9e par Gemini, permet aux utilisateurs de modifier du texte existant sur le web ou de g\u00e9n\u00e9rer quelque chose de compl\u00e8tement nouveau.<\/p>\n<p><\/p>\n<p><b>Plus noir que ChatGPT :<\/b> L\u2019agence de publicit\u00e9 cr\u00e9ative McKinney a d\u00e9velopp\u00e9 un jeu-questionnaire, \u00ab\u00a0Are You Blacker than ChatGPT?\u00a0\u00bb, pour mettre en lumi\u00e8re les biais de l\u2019IA.<\/p>\n<p><\/p>\n<p><strong>Appels \u00e0 une l\u00e9gislation :<\/strong> Des centaines de personnalit\u00e9s de l\u2019IA ont sign\u00e9 une lettre ouverte cette semaine appelant \u00e0 une l\u00e9gislation contre les deepfakes aux \u00c9tats-Unis.<\/p>\n<p><\/p>\n<p><strong>Une rencontre entre l\u2019IA et Match Group :<\/strong> OpenAI a un nouveau client en la personne de Match Group, propri\u00e9taire d\u2019applications comme Hinge, Tinder et Match, dont les employ\u00e9s utiliseront la technologie d\u2019IA d\u2019OpenAI pour accomplir des t\u00e2ches li\u00e9es au travail.<\/p>\n<p><\/p>\n<p><strong>S\u00e9curit\u00e9 de DeepMind :<\/strong> DeepMind, la division de recherche en IA de Google, a cr\u00e9\u00e9 une nouvelle organisation, AI Safety and Alignment, qui regroupe des \u00e9quipes existantes travaillant sur la s\u00e9curit\u00e9 de l\u2019IA, mais aussi de nouvelles cohortes sp\u00e9cialis\u00e9es de chercheurs et d\u2019ing\u00e9nieurs en IA.<\/p>\n<p><\/p>\n<p><strong>Mod\u00e8les ouverts :<\/strong> \u00c0 peine une semaine apr\u00e8s le lancement de la derni\u00e8re version de ses mod\u00e8les Gemini, Google a publi\u00e9 Gemma, une nouvelle famille de mod\u00e8les ouverts et l\u00e9gers.<\/p>\n<p><\/p>\n<p><strong>Groupe de travail de la Chambre :<\/strong> La Chambre des repr\u00e9sentants des \u00c9tats-Unis a cr\u00e9\u00e9 un groupe de travail sur l\u2019IA qui, comme l\u2019a \u00e9crit Devin, semble \u00eatre un moyen de contourner l\u2019absence de d\u00e9cision apr\u00e8s des ann\u00e9es d\u2019ind\u00e9cision qui ne montrent aucun signe d\u2019aboutissement.<\/p>\n<h2>Plus d\u2019apprentissages automatiques<\/h2>\n<p><\/p>\n<p>Les mod\u00e8les d\u2019IA semblent en savoir beaucoup, mais qu\u2019est-ce qu\u2019ils connaissent r\u00e9ellement ? Eh bien, la r\u00e9ponse est rien. Mais si on formule la question l\u00e9g\u00e8rement diff\u00e9remment\u2026 ils semblent avoir int\u00e9rioris\u00e9 certaines \u00ab\u00a0significations\u00a0\u00bb similaires \u00e0 ce que les humains savent. Bien qu\u2019aucune IA ne comprenne vraiment ce qu\u2019est un chat ou un chien, pourrait-elle avoir une certaine notion de similarit\u00e9 encod\u00e9e dans ses embeddings de ces deux mots, diff\u00e9rente, par exemple, de celle entre chat et bouteille ? Des chercheurs d\u2019Amazon le croient.<\/p>\n<p>Leur recherche a compar\u00e9 les \u00ab\u00a0trajectoires\u00a0\u00bb de phrases similaires mais distinctes, comme \u00ab\u00a0le chien a aboy\u00e9 sur le cambrioleur\u00a0\u00bb et \u00ab\u00a0le cambrioleur a fait aboyer le chien\u00a0\u00bb, avec celles de phrases grammaticalement similaires mais diff\u00e9rentes, comme \u00ab\u00a0un chat dort toute la journ\u00e9e\u00a0\u00bb et \u00ab\u00a0une fille court toute l\u2019apr\u00e8s-midi\u00a0\u00bb. Ils ont constat\u00e9 que celles que les humains trouveraient similaires \u00e9taient effectivement trait\u00e9es en interne comme \u00e9tant plus similaires malgr\u00e9 des diff\u00e9rences grammaticales, et vice versa pour celles grammaticalement similaires. Bon, je trouve que ce paragraphe est un peu confus, mais disons simplement que les significations encod\u00e9es dans les LLM semblent \u00eatre plus robustes et sophistiqu\u00e9es que pr\u00e9vu, pas totalement na\u00efves.<\/p>\n<p>Le codage neural s\u2019av\u00e8re utile dans la vision proth\u00e9tique, selon des chercheurs suisses de l\u2019EPFL. Les r\u00e9tines artificielles et autres moyens de remplacer des parties du syst\u00e8me visuel humain ont g\u00e9n\u00e9ralement une r\u00e9solution tr\u00e8s limit\u00e9e en raison des limitations des matrices de micro\u00e9lectrodes. Ainsi, quelle que soit la pr\u00e9cision de l\u2019image entrante, elle doit \u00eatre transmise avec une tr\u00e8s faible fid\u00e9lit\u00e9. Mais il existe diff\u00e9rentes fa\u00e7ons de r\u00e9duire la r\u00e9solution, et cette \u00e9quipe a d\u00e9couvert que l\u2019apprentissage automatique le fait tr\u00e8s bien.<\/p>\n<div id=\"attachment_2670034\" style=\"width: 1034px\" class=\"wp-caption aligncenter\">\n<p id=\"caption-attachment-2670034\" class=\"wp-caption-text\"><strong>Cr\u00e9ditos de las im\u00e1genes :<\/strong> EPFL<\/p>\n<\/div>\n<p>\u00ab\u00a0Nous avons constat\u00e9 que si nous appliquions une approche bas\u00e9e sur l\u2019apprentissage, nous obtenions de meilleurs r\u00e9sultats en termes de codage sensoriel optimis\u00e9. Mais ce qui \u00e9tait encore plus surprenant, c\u2019est que lorsque nous utilisions un r\u00e9seau neuronal non contraint, il apprenait \u00e0 reproduire certains aspects du traitement r\u00e9tinien de mani\u00e8re autonome\u00a0\u00bb, a d\u00e9clar\u00e9 Diego Ghezzi dans un communiqu\u00e9 de presse. Il fait essentiellement de la compression perceptuelle. Ils l\u2019ont test\u00e9 sur des r\u00e9tines de souris, donc ce n\u2019est pas seulement th\u00e9orique.<\/p>\n<p>Une application int\u00e9ressante de la vision par ordinateur par des chercheurs de Stanford \u00e9voque un myst\u00e8re sur la mani\u00e8re dont les enfants d\u00e9veloppent leurs comp\u00e9tences en dessin. L\u2019\u00e9quipe a sollicit\u00e9 et analys\u00e9 37 000 dessins d\u2019enfants repr\u00e9sentant diff\u00e9rents objets et animaux, ainsi que (selon les r\u00e9ponses des enfants) le degr\u00e9 de reconnaissance de chaque dessin. Il est int\u00e9ressant de noter que ce n\u2019\u00e9tait pas seulement l\u2019inclusion de caract\u00e9ristiques distinctives comme les oreilles d\u2019un lapin qui rendait les dessins plus reconnaissables par d\u2019autres enfants.<\/p>\n<div id=\"attachment_2670051\" style=\"width: 1034px\" class=\"wp-caption aligncenter\">\n<p id=\"caption-attachment-2670051\" class=\"wp-caption-text\"><strong>Cr\u00e9ditos de las im\u00e1genes :<\/strong> Stanford<\/p>\n<\/div>\n<p>\u00ab\u00a0Les types de caract\u00e9ristiques qui rendent les dessins des enfants plus reconnaissables ne semblent pas \u00eatre d\u00e9termin\u00e9s par une seule caract\u00e9ristique que tous les enfants plus \u00e2g\u00e9s apprennent \u00e0 inclure dans leurs dessins. C\u2019est quelque chose de beaucoup plus complexe que ces syst\u00e8mes d\u2019apprentissage automatique sont en train de d\u00e9couvrir\u00a0\u00bb, a d\u00e9clar\u00e9 la chercheuse principale Judith Fan.<\/p>\n<p>Des chimistes (\u00e9galement \u00e0 l\u2019EPFL) ont d\u00e9couvert que les LLM \u00e9taient \u00e9tonnamment dou\u00e9es pour les aider dans leur travail apr\u00e8s un minimum d\u2019entra\u00eenement. Il ne s\u2019agit pas seulement de faire de la chimie directement, mais plut\u00f4t d\u2019\u00eatre affin\u00e9es sur un corpus de travail que les chimistes individuellement ne peuvent pas conna\u00eetre dans son int\u00e9gralit\u00e9. Par exemple, dans des milliers d\u2019articles, il peut y avoir quelques centaines d\u2019affirmations sur le fait qu\u2019un alliage \u00e0 haute entropie est monophas\u00e9 ou pluriphas\u00e9 (vous n\u2019avez pas besoin de savoir ce que cela signifie \u2013 eux le savent). Le syst\u00e8me (bas\u00e9 sur GPT-3) peut \u00eatre form\u00e9 sur ce type de questions-r\u00e9ponses \u00e0 choix binaire, et il est bient\u00f4t capable d\u2019extrapoler \u00e0 partir de l\u00e0.<\/p>\n<p>Ce n\u2019est pas une \u00e9norme avanc\u00e9e, juste une preuve suppl\u00e9mentaire que les LLM sont un outil utile dans ce sens. \u00ab\u00a0L\u2019essentiel est que cela soit aussi facile que de faire une recherche documentaire, ce qui fonctionne pour de nombreux probl\u00e8mes chimiques\u00a0\u00bb, a d\u00e9clar\u00e9 le chercheur Berend Smit. \u00ab\u00a0Interroger un mod\u00e8le fondamental pourrait devenir une m\u00e9thode courante pour amorcer un projet.\u00a0\u00bb<\/p>\n<p>Enfin, une mise en garde des chercheurs de Berkeley (bien que maintenant que je relis le billet, je vois que l\u2019EPFL \u00e9tait \u00e9galement impliqu\u00e9 dans celui-ci). Bravo Lausanne ! Le groupe a constat\u00e9 que les images trouv\u00e9es via Google \u00e9taient beaucoup plus susceptibles de renforcer les st\u00e9r\u00e9otypes de genre pour certains emplois et mots que le texte mentionnant la m\u00eame chose. De plus, il y avait beaucoup plus d\u2019hommes pr\u00e9sents dans les deux cas.<\/p>\n<p>Non seulement cela, mais lors d\u2019une exp\u00e9rience, ils ont constat\u00e9 que les personnes qui regardaient des images plut\u00f4t que de lire du texte lorsqu\u2019elles recherchaient un r\u00f4le associaient ces r\u00f4les \u00e0 un genre de mani\u00e8re plus fiable, m\u00eame plusieurs jours plus tard. \u00ab\u00a0Il ne s\u2019agit pas seulement de la fr\u00e9quence des pr\u00e9jug\u00e9s de genre en ligne\u00a0\u00bb, a d\u00e9clar\u00e9 le chercheur Douglas Guilbeault. \u00ab\u00a0Une partie de l\u2019histoire ici est qu\u2019il y a quelque chose de tr\u00e8s tenace, de tr\u00e8s puissant dans la repr\u00e9sentation des gens par les images que le texte n\u2019a tout simplement pas.\u00a0\u00bb<\/p>\n<p>Avec des probl\u00e8mes tels que la pol\u00e9mique sur la diversit\u00e9 du g\u00e9n\u00e9rateur d\u2019images de Google, il est facile de perdre de vue le fait \u00e9tabli et fr\u00e9quemment v\u00e9rifi\u00e9 que la source de donn\u00e9es de nombreux mod\u00e8les d\u2019IA montre de graves biais, et que ces biais ont un v\u00e9ritable impact sur les personnes.<\/p>","protected":false},"excerpt":{"rendered":"","protected":false},"author":1,"featured_media":11077,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_seopress_robots_primary_cat":"","_seopress_titles_title":"","_seopress_titles_desc":"","_seopress_robots_index":"","footnotes":""},"categories":[608],"tags":[],"class_list":["post-11075","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-actualite-intelligence-artificielle","generate-columns","tablet-grid-50","mobile-grid-100","grid-parent","grid-50"],"_links":{"self":[{"href":"https:\/\/toukiela.com\/es\/wp-json\/wp\/v2\/posts\/11075","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/toukiela.com\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/toukiela.com\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/toukiela.com\/es\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/toukiela.com\/es\/wp-json\/wp\/v2\/comments?post=11075"}],"version-history":[{"count":1,"href":"https:\/\/toukiela.com\/es\/wp-json\/wp\/v2\/posts\/11075\/revisions"}],"predecessor-version":[{"id":11076,"href":"https:\/\/toukiela.com\/es\/wp-json\/wp\/v2\/posts\/11075\/revisions\/11076"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/toukiela.com\/es\/wp-json\/wp\/v2\/media\/11077"}],"wp:attachment":[{"href":"https:\/\/toukiela.com\/es\/wp-json\/wp\/v2\/media?parent=11075"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/toukiela.com\/es\/wp-json\/wp\/v2\/categories?post=11075"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/toukiela.com\/es\/wp-json\/wp\/v2\/tags?post=11075"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}