{"id":7373,"date":"2023-11-01T02:26:21","date_gmt":"2023-11-01T00:26:21","guid":{"rendered":"https:\/\/toukiela.com\/une-ia-detectant-les-emotions-bientot-en-open-source-decouvrez-le-groupe-revolutionnaire-derriere-stable-diffusion\/"},"modified":"2023-11-01T02:26:22","modified_gmt":"2023-11-01T00:26:22","slug":"une-ia-detectant-les-emotions-bientot-en-open-source-decouvrez-le-groupe-revolutionnaire-derriere-stable-diffusion","status":"publish","type":"post","link":"https:\/\/toukiela.com\/fr_ca\/une-ia-detectant-les-emotions-bientot-en-open-source-decouvrez-le-groupe-revolutionnaire-derriere-stable-diffusion\/","title":{"rendered":"Une IA d\u00e9tectant les \u00e9motions bient\u00f4t en open source ! D\u00e9couvrez le groupe r\u00e9volutionnaire derri\u00e8re Stable Diffusion !"},"content":{"rendered":"<p><em><\/em><\/p>\n<div id=\"ez-toc-container\" class=\"ez-toc-v2_0_82_2 counter-hierarchy ez-toc-counter ez-toc-grey ez-toc-container-direction\">\n<p class=\"ez-toc-title\" style=\"cursor:inherit\">Sommaire<\/p>\n<label for=\"ez-toc-cssicon-toggle-item-69f1f1618cc23\" class=\"ez-toc-cssicon-toggle-label\"><span class=\"\"><span class=\"eztoc-hide\" style=\"display:none;\">Toggle<\/span><span class=\"ez-toc-icon-toggle-span\"><svg style=\"fill: #999;color:#999\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" class=\"list-377408\" width=\"20px\" height=\"20px\" viewbox=\"0 0 24 24\" fill=\"none\"><path d=\"M6 6H4v2h2V6zm14 0H8v2h12V6zM4 11h2v2H4v-2zm16 0H8v2h12v-2zM4 16h2v2H4v-2zm16 0H8v2h12v-2z\" fill=\"currentColor\"><\/path><\/svg><svg style=\"fill: #999;color:#999\" class=\"arrow-unsorted-368013\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"10px\" height=\"10px\" viewbox=\"0 0 24 24\" version=\"1.2\" baseprofile=\"tiny\"><path d=\"M18.2 9.3l-6.2-6.3-6.2 6.3c-.2.2-.3.4-.3.7s.1.5.3.7c.2.2.4.3.7.3h11c.3 0 .5-.1.7-.3.2-.2.3-.5.3-.7s-.1-.5-.3-.7zM5.8 14.7l6.2 6.3 6.2-6.3c.2-.2.3-.5.3-.7s-.1-.5-.3-.7c-.2-.2-.4-.3-.7-.3h-11c-.3 0-.5.1-.7.3-.2.2-.3.5-.3.7s.1.5.3.7z\"\/><\/svg><\/span><\/span><\/label><input type=\"checkbox\"  id=\"ez-toc-cssicon-toggle-item-69f1f1618cc23\"  aria-label=\"Toggle\" \/><nav><ul class='ez-toc-list ez-toc-list-level-1' ><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-1\" href=\"https:\/\/toukiela.com\/fr_ca\/une-ia-detectant-les-emotions-bientot-en-open-source-decouvrez-le-groupe-revolutionnaire-derriere-stable-diffusion\/#Un_projet_pour_rendre_lIA_empathique_accessible_a_tous\" >Un projet pour rendre l\u2019IA empathique accessible \u00e0 tous<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-2\" href=\"https:\/\/toukiela.com\/fr_ca\/une-ia-detectant-les-emotions-bientot-en-open-source-decouvrez-le-groupe-revolutionnaire-derriere-stable-diffusion\/#Collecte_des_donnees_et_detection_des_emotions\" >Collecte des donn\u00e9es et d\u00e9tection des \u00e9motions<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-3\" href=\"https:\/\/toukiela.com\/fr_ca\/une-ia-detectant-les-emotions-bientot-en-open-source-decouvrez-le-groupe-revolutionnaire-derriere-stable-diffusion\/#Les_defis_de_la_detection_des_emotions\" >Les d\u00e9fis de la d\u00e9tection des \u00e9motions<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-4\" href=\"https:\/\/toukiela.com\/fr_ca\/une-ia-detectant-les-emotions-bientot-en-open-source-decouvrez-le-groupe-revolutionnaire-derriere-stable-diffusion\/#Respecter_le_processus\" >Respecter le processus<\/a><\/li><\/ul><\/nav><\/div>\n<h2><span class=\"ez-toc-section\" id=\"Un_projet_pour_rendre_lIA_empathique_accessible_a_tous\"><\/span>Un projet pour rendre l\u2019IA empathique accessible \u00e0 tous<span class=\"ez-toc-section-end\"><\/span><\/h2>\n<p>En 2019, Amazon a am\u00e9lior\u00e9 son assistant Alexa en lui permettant de d\u00e9tecter quand un client \u00e9tait susceptible d\u2019\u00eatre frustr\u00e9 et de r\u00e9pondre avec plus de sympathie en cons\u00e9quence. Par exemple, si un client demandait \u00e0 Alexa de jouer une chanson et qu\u2019elle en mettait une autre en file d\u2019attente, puis que le client disait \u00ab\u00a0Non, Alexa\u00a0\u00bb d\u2019un ton contrari\u00e9, Alexa pouvait s\u2019excuser et demander une clarification.<\/p>\n<p>Maintenant, le groupe derri\u00e8re l\u2019un des ensembles de donn\u00e9es utilis\u00e9s pour former le mod\u00e8le texte-image Stable Diffusion souhaite apporter des capacit\u00e9s similaires de d\u00e9tection des \u00e9motions \u00e0 tous les d\u00e9veloppeurs, et ce gratuitement.<\/p>\n<p>Cette semaine, LAION, une organisation \u00e0 but non lucratif qui construit des ensembles de donn\u00e9es d\u2019images et de textes pour former l\u2019IA g\u00e9n\u00e9rative, y compris Stable Diffusion, a annonc\u00e9 le projet Open Empathic. Open Empathic vise \u00e0 \u00ab\u00a0\u00e9quiper les syst\u00e8mes d\u2019IA open source d\u2019empathie et d\u2019intelligence \u00e9motionnelle\u00a0\u00bb, selon les mots du groupe.<\/p>\n<p>\u00ab\u00a0L\u2019\u00e9quipe de LAION, compos\u00e9e de professionnels de la sant\u00e9, de l\u2019\u00e9ducation et de la recherche en apprentissage automatique, a constat\u00e9 un manque dans la communaut\u00e9 open source : l\u2019IA \u00e9motionnelle \u00e9tait largement n\u00e9glig\u00e9e\u00a0\u00bb, a d\u00e9clar\u00e9 Christoph Schuhmann, co-fondateur de LAION, dans un e-mail \u00e0 Toukiela. \u00ab\u00a0Tout comme nos pr\u00e9occupations concernant les monopoles d\u2019IA non transparents qui ont conduit \u00e0 la cr\u00e9ation de LAION, nous avons ressenti une urgence similaire ici.\u00a0\u00bb<\/p>\n<p>A travers Open Empathic, LAION recrute des volontaires pour soumettre des extraits audio \u00e0 une base de donn\u00e9es pouvant \u00eatre utilis\u00e9e pour cr\u00e9er des IA, y compris des chatbots et des mod\u00e8les de synth\u00e8se vocale, qui \u00ab\u00a0comprennent\u00a0\u00bb les \u00e9motions humaines.<\/p>\n<p>\u00ab\u00a0Avec Open Empathic, notre objectif est de cr\u00e9er une IA qui va au-del\u00e0 de la simple compr\u00e9hension des mots\u00a0\u00bb, ajoute Schuhmann. \u00ab\u00a0Nous visons \u00e0 saisir les nuances des expressions et des variations de ton, rendant les interactions entre l\u2019homme et l\u2019IA plus authentiques et empathiques.\u00a0\u00bb<\/p>\n<p>LAION, acronyme de \u00ab\u00a0Large-scale Artificial Intelligence Open Network\u00a0\u00bb, a \u00e9t\u00e9 fond\u00e9 au d\u00e9but de l\u2019ann\u00e9e 2021 par Schuhmann, qui est enseignant dans un lyc\u00e9e allemand, et plusieurs membres d\u2019un serveur Discord pour les passionn\u00e9s d\u2019IA. Financ\u00e9 par des dons et des subventions de recherche publique, notamment de la start-up d\u2019IA Hugging Face et de Stability AI, le fournisseur derri\u00e8re Stable Diffusion, la mission d\u00e9clar\u00e9e de LAION est de d\u00e9mocratiser la recherche et le d\u00e9veloppement de l\u2019IA, en commen\u00e7ant par les donn\u00e9es d\u2019entra\u00eenement.<\/p>\n<p>\u00ab\u00a0Nous sommes anim\u00e9s par une mission claire : exploiter le pouvoir de l\u2019IA de mani\u00e8re \u00e0 b\u00e9n\u00e9ficier v\u00e9ritablement \u00e0 la soci\u00e9t\u00e9\u00a0\u00bb, d\u00e9clare Kari Noriy, contributeur open source \u00e0 LAION et doctorant \u00e0 l\u2019universit\u00e9 de Bournemouth, dans un e-mail \u00e0 Toukiela. \u00ab\u00a0Nous sommes passionn\u00e9s par la transparence et nous pensons que la meilleure fa\u00e7on de fa\u00e7onner l\u2019IA est de le faire ouvertement.\u00a0\u00bb<\/p>\n<p>C\u2019est ainsi qu\u2019est n\u00e9 Open Empathic.<\/p>\n<h2><span class=\"ez-toc-section\" id=\"Collecte_des_donnees_et_detection_des_emotions\"><\/span>Collecte des donn\u00e9es et d\u00e9tection des \u00e9motions<span class=\"ez-toc-section-end\"><\/span><\/h2>\n<p>Pour la phase initiale du projet, LAION a cr\u00e9\u00e9 un site web qui demande aux volontaires d\u2019annoter des extraits YouTube \u2013 certains pr\u00e9-s\u00e9lectionn\u00e9s par l\u2019\u00e9quipe de LAION, d\u2019autres par les volontaires \u2013 d\u2019une personne en train de parler. Pour chaque extrait, les volontaires peuvent remplir une liste d\u00e9taill\u00e9e de champs, comprenant une transcription de l\u2019extrait, une description audio et vid\u00e9o, l\u2019\u00e2ge, le genre, l\u2019accent (par exemple \u00ab\u00a0anglais britannique\u00a0\u00bb), le niveau d\u2019excitation et le niveau de valence (agr\u00e9able ou d\u00e9sagr\u00e9able) de la personne dans l\u2019extrait.<\/p>\n<p>Les autres champs du formulaire concernent la qualit\u00e9 audio de l\u2019extrait et la pr\u00e9sence (ou l\u2019absence) de bruits de fond forts. Mais l\u2019accent est principalement mis sur les \u00e9motions de la personne, du moins les \u00e9motions que les volontaires per\u00e7oivent.<\/p>\n<p>\u00c0 partir d\u2019une s\u00e9rie de menus d\u00e9roulants, les volontaires peuvent s\u00e9lectionner des \u00e9motions individuelles ou multiples, allant de \u00ab\u00a0joyeux\u00a0\u00bb et \u00ab\u00a0dynamique\u00a0\u00bb \u00e0 \u00ab\u00a0r\u00e9fl\u00e9chi\u00a0\u00bb et \u00ab\u00a0captivant\u00a0\u00bb. Selon Noriy, l\u2019id\u00e9e \u00e9tait de solliciter des annotations \u00ab\u00a0riches\u00a0\u00bb et \u00ab\u00a0\u00e9motives\u00a0\u00bb tout en capturant des expressions dans diff\u00e9rentes langues et cultures.<\/p>\n<p>\u00ab\u00a0Nous nous concentrons sur la formation de mod\u00e8les d\u2019IA capables de comprendre une grande vari\u00e9t\u00e9 de langues et de v\u00e9ritablement saisir les diff\u00e9rentes cultures\u00a0\u00bb, explique Noriy. \u00ab\u00a0Nous travaillons \u00e0 la cr\u00e9ation de mod\u00e8les qui comprennent les langues et les cultures en utilisant des vid\u00e9os montrant de vraies \u00e9motions et expressions.\u00a0\u00bb<\/p>\n<p>Une fois que les volontaires soumettent un extrait \u00e0 la base de donn\u00e9es de LAION, ils peuvent recommencer le processus \u2013 il n\u2019y a pas de limite au nombre d\u2019extraits qu\u2019un volontaire peut annoter. LAION esp\u00e8re recueillir environ 10 000 \u00e9chantillons au cours des prochains mois, et entre 100 000 et 1 million d\u2019ici l\u2019ann\u00e9e prochaine.<\/p>\n<p>\u00ab\u00a0Nous avons des membres de la communaut\u00e9 passionn\u00e9s qui contribuent volontairement \u00e0 nos ensembles de donn\u00e9es lors de leur temps libre\u00a0\u00bb, explique Noriy. \u00ab\u00a0Leur motivation est le r\u00eave partag\u00e9 de cr\u00e9er une IA empathique et \u00e9motionnellement intelligente en open source, accessible \u00e0 tous.\u00a0\u00bb<\/p>\n<h2><span class=\"ez-toc-section\" id=\"Les_defis_de_la_detection_des_emotions\"><\/span>Les d\u00e9fis de la d\u00e9tection des \u00e9motions<span class=\"ez-toc-section-end\"><\/span><\/h2>\n<p>Outre les tentatives d\u2019Amazon avec Alexa, les start-ups et les g\u00e9ants de la technologie ont explor\u00e9 le d\u00e9veloppement d\u2019IA capable de d\u00e9tecter les \u00e9motions, dans des domaines allant de la formation commerciale \u00e0 la pr\u00e9vention des accidents li\u00e9s \u00e0 la somnolence.<\/p>\n<p>En 2016, Apple a acquis Emotient, une entreprise de San Diego travaillant sur des algorithmes d\u2019IA analysant les expressions faciales. Rachet\u00e9e par Smart Eye, bas\u00e9e en Su\u00e8de, en mai dernier, Affectiva \u2013 une spin-off du MIT \u2013 pr\u00e9tendait autrefois que sa technologie pouvait d\u00e9tecter la col\u00e8re ou la frustration dans la parole en 1,2 seconde. Et Nuance, une plateforme de reconnaissance vocale rachet\u00e9e par Microsoft en avril 2021, a pr\u00e9sent\u00e9 un produit pour les voitures qui analyse les \u00e9motions des conducteurs \u00e0 partir de leurs indices faciaux.<\/p>\n<p>D\u2019autres acteurs dans le domaine de la d\u00e9tection et de la reconnaissance des \u00e9motions incluent Hume, HireVue et Realeyes, dont la technologie est utilis\u00e9e pour \u00e9valuer la r\u00e9action de certains segments de spectateurs \u00e0 certaines publicit\u00e9s. Certaines entreprises utilisent \u00e9galement une technologie de d\u00e9tection des \u00e9motions pour \u00e9valuer les candidats potentiels en fonction de leur empathie et de leur intelligence \u00e9motionnelle. Les \u00e9coles l\u2019utilisent pour surveiller l\u2019engagement des \u00e9l\u00e8ves en classe, que ce soit sur place ou \u00e0 distance. Et les gouvernements l\u2019utilisent pour identifier les \u00ab\u00a0personnes dangereuses\u00a0\u00bb et l\u2019ont test\u00e9e aux points de contr\u00f4le frontaliers aux \u00c9tats-Unis, en Hongrie, en Lettonie et en Gr\u00e8ce.<\/p>\n<p>Pour sa part, l\u2019\u00e9quipe de LAION imagine des applications utiles et sans probl\u00e8me de cette technologie dans les domaines de la robotique, de la psychologie, de la formation professionnelle, de l\u2019\u00e9ducation et m\u00eame des jeux. Schuhmann d\u00e9crit des robots offrant un soutien et une compagnie, des assistants virtuels qui d\u00e9tectent quand quelqu\u2019un se sent seul ou anxieux, et des outils d\u2019aide au diagnostic des troubles psychologiques.<\/p>\n<p>Il s\u2019agit d\u2019une utopie technologique. Le probl\u00e8me, c\u2019est que la plupart des d\u00e9tections d\u2019\u00e9motions reposent sur des bases scientifiques incertaines.<\/p>\n<p>Il n\u2019existe que peu, voire aucun, marqueur universel des \u00e9motions, remettant ainsi en question la pr\u00e9cision des IA de d\u00e9tection des \u00e9motions. La plupart des syst\u00e8mes de d\u00e9tection des \u00e9motions ont \u00e9t\u00e9 construits sur le travail du psychologue Paul Ekman, publi\u00e9 dans les ann\u00e9es 70. Mais des recherches ult\u00e9rieures, y compris celles d\u2019Ekman lui-m\u00eame, soutiennent l\u2019id\u00e9e de bon sens selon laquelle il existe de grandes diff\u00e9rences dans la fa\u00e7on dont les personnes de diff\u00e9rents milieux expriment ce qu\u2019elles ressentent.<\/p>\n<p>Par exemple, l\u2019expression suppos\u00e9ment universelle de la peur est un st\u00e9r\u00e9otype pour une menace ou de la col\u00e8re en Malaisie. Dans l\u2019une de ses \u0153uvres ult\u00e9rieures, Ekman a sugg\u00e9r\u00e9 que les \u00e9tudiants am\u00e9ricains et japonais r\u00e9agissent diff\u00e9remment aux films violents, les \u00e9tudiants japonais adoptant \u00ab\u00a0un tout autre ensemble d\u2019expressions\u00a0\u00bb si quelqu\u2019un d\u2019autre est dans la pi\u00e8ce, en particulier une figure d\u2019autorit\u00e9.<\/p>\n<p>Les voix, elles aussi, pr\u00e9sentent un large \u00e9ventail de caract\u00e9ristiques, y compris celles des personnes handicap\u00e9es, celles qui ont des troubles comme l\u2019autisme et celles qui parlent d\u2019autres langues et dialectes tels que l\u2019anglais vernaculaire afro-am\u00e9ricain. Un locuteur natif de fran\u00e7ais qui r\u00e9pond \u00e0 un questionnaire en anglais peut marquer une pause ou prononcer un mot avec une certaine incertitude, ce qui peut \u00eatre mal interpr\u00e9t\u00e9 par quelqu\u2019un de peu familier comme un marqueur \u00e9motionnel.<\/p>\n<p>En effet, une grande partie du probl\u00e8me avec les IA de d\u00e9tection des \u00e9motions est le biais \u2013 implicite et explicite \u2013 apport\u00e9 par les annotateurs dont les contributions sont utilis\u00e9es pour entra\u00eener les mod\u00e8les de d\u00e9tection des \u00e9motions.<\/p>\n<p>Dans une \u00e9tude r\u00e9alis\u00e9e en 2019, par exemple, des scientifiques ont constat\u00e9 que les annotateurs avaient tendance \u00e0 annoter les phrases en anglais vernaculaire afro-am\u00e9ricain comme \u00e9tant plus toxiques que leurs \u00e9quivalents en anglais am\u00e9ricain g\u00e9n\u00e9ral. L\u2019orientation sexuelle et l\u2019identit\u00e9 de genre peuvent \u00e9galement influencer fortement les mots et les phrases qu\u2019un annotateur per\u00e7oit comme toxiques, de m\u00eame que les pr\u00e9jug\u00e9s manifestes. Plusieurs ensembles de donn\u00e9es d\u2019images open source couramment utilis\u00e9s ont \u00e9t\u00e9 trouv\u00e9s pour contenir des annotations racistes, sexistes et offensantes.<\/p>\n<p>Les effets indirects peuvent \u00eatre assez dramatiques.<\/p>\n<p>Retorio, une plateforme d\u2019embauche bas\u00e9e sur l\u2019IA, a r\u00e9agi diff\u00e9remment au m\u00eame candidat avec des tenues diff\u00e9rentes, comme des lunettes et des foulards. Dans une \u00e9tude du MIT r\u00e9alis\u00e9e en 2020, les chercheurs ont montr\u00e9 que les algorithmes d\u2019analyse faciale pouvaient d\u00e9velopper un biais en faveur de certaines expressions faciales, comme le sourire, r\u00e9duisant ainsi leur pr\u00e9cision. Des travaux plus r\u00e9cents sugg\u00e8rent que les outils d\u2019analyse \u00e9motionnelle populaires ont tendance \u00e0 attribuer des \u00e9motions plus n\u00e9gatives aux visages des hommes noirs qu\u2019aux visages blancs.<\/p>\n<h2><span class=\"ez-toc-section\" id=\"Respecter_le_processus\"><\/span>Respecter le processus<span class=\"ez-toc-section-end\"><\/span><\/h2>\n<p>Comment l\u2019\u00e9quipe de LAION compte-t-elle lutter contre ces biais, en veillant par exemple \u00e0 ce que les personnes blanches ne soient pas plus nombreuses que les personnes noires dans l\u2019ensemble de donn\u00e9es, \u00e0 ce que les personnes non binaires ne soient pas assign\u00e9es au mauvais genre, et \u00e0 ce que les personnes atteintes de troubles de l\u2019humeur ne soient pas \u00e9tiquet\u00e9es avec des \u00e9motions qu\u2019elles n\u2019ont pas l\u2019intention d\u2019exprimer ?<\/p>\n<p>Ce n\u2019est pas tout \u00e0 fait clair.<\/p>\n<p>Schuhmann affirme que le processus de soumission des donn\u00e9es d\u2019entra\u00eenement pour Open Empathic n\u2019est pas une \u00ab\u00a0porte ouverte\u00a0\u00bb et que LAION a mis en place des syst\u00e8mes pour \u00ab\u00a0garantir l\u2019int\u00e9grit\u00e9 des contributions\u00a0\u00bb.<\/p>\n<p>\u00ab\u00a0Nous pouvons valider l\u2019intention d\u2019un utilisateur et v\u00e9rifier syst\u00e9matiquement la qualit\u00e9 des annotations\u00a0\u00bb, ajoute-t-il.<\/p>\n<p>Mais les ensembles de donn\u00e9es pr\u00e9c\u00e9dents de LAION n\u2019ont pas \u00e9t\u00e9 exactement parfaits.<\/p>\n<p>Des analyses de LAION ~400M, un ensemble de donn\u00e9es d\u2019images de LAION, que le groupe a tent\u00e9 de cr\u00e9er avec des outils automatis\u00e9s, ont r\u00e9v\u00e9l\u00e9 des photos repr\u00e9sentant des agressions sexuelles, des viols, des symboles de haine et de la violence graphique. De plus, LAION ~400M est \u00e9galement truff\u00e9 de biais, renvoyant par exemple des images d\u2019hommes mais pas de femmes pour des mots comme \u00ab\u00a0PDG\u00a0\u00bb et des images d\u2019hommes du Moyen-Orient pour \u00ab\u00a0terroriste\u00a0\u00bb.<\/p>\n<p>Schuhmann fait confiance \u00e0 la communaut\u00e9 pour servir de contr\u00f4le cette fois-ci.<\/p>\n<p>\u00ab\u00a0Nous croyons en la puissance des scientifiques amateurs et des passionn\u00e9s du monde entier qui se r\u00e9unissent et contribuent \u00e0 nos ensembles de donn\u00e9es\u00a0\u00bb, dit-il. \u00ab\u00a0Bien que nous soyons ouverts et collaboratifs, nous accordons la priorit\u00e9 \u00e0 la qualit\u00e9 et \u00e0 l\u2019authenticit\u00e9 de nos donn\u00e9es.\u00a0\u00bb<\/p>\n<p>En ce qui concerne l\u2019utilisation de l\u2019IA form\u00e9e sur l\u2019ensemble de donn\u00e9es Open Empathic, biais\u00e9e ou non, LAION s\u2019engage \u00e0 respecter sa philosophie open source, m\u00eame si cela signifie que l\u2019IA pourrait \u00eatre utilis\u00e9e de mani\u00e8re abusive.<\/p>\n<p>\u00ab\u00a0Utiliser l\u2019IA pour comprendre les \u00e9motions est une entreprise puissante, mais elle n\u2019est pas sans d\u00e9fis\u00a0\u00bb, d\u00e9clare Robert Kaczmarczyk, co-fondateur de LAION et m\u00e9decin \u00e0 l\u2019Universit\u00e9 technique de Munich, par e-mail. \u00ab\u00a0Comme tout outil, elle peut \u00eatre utilis\u00e9e \u00e0 la fois pour le bien et pour le mal. Imaginez si seul un petit groupe avait acc\u00e8s \u00e0 des technologies avanc\u00e9es, tandis que la plupart du public \u00e9tait dans l\u2019ignorance. Ce d\u00e9s\u00e9quilibre pourrait conduire \u00e0 une mauvaise utilisation ou m\u00eame \u00e0 une manipulation par les quelques personnes qui contr\u00f4lent cette technologie.\u00a0\u00bb<\/p>\n<p>En ce qui concerne l\u2019IA, les approches de type \u00ab\u00a0laisser-faire\u00a0\u00bb reviennent parfois hanter les cr\u00e9ateurs des mod\u00e8les, comme en t\u00e9moigne l\u2019utilisation de Stable Diffusion pour cr\u00e9er du mat\u00e9riel p\u00e9dopornographique et des deepfakes non consentis.<\/p>\n<p>Certains d\u00e9fenseurs de la vie priv\u00e9e et des droits de l\u2019homme, dont European Digital Rights et Access Now, ont demand\u00e9 une interdiction totale de la reconnaissance des \u00e9motions. La loi de l\u2019UE sur l\u2019IA, r\u00e9cemment promulgu\u00e9e, interdit l\u2019utilisation de la reconnaissance des \u00e9motions dans la police, la gestion des fronti\u00e8res, les lieux de travail et les \u00e9coles. Et certaines entreprises ont volontairement retir\u00e9 leur IA de d\u00e9tection des \u00e9motions, comme Microsoft, face aux critiques du public.<\/p>\n<p>LAION semble \u00e0 l\u2019aise avec le niveau de risque en jeu et a confiance dans le processus de d\u00e9veloppement ouvert.<\/p>\n<p>\u00ab\u00a0Nous invitons les chercheurs \u00e0 examiner de pr\u00e8s, \u00e0 proposer des modifications et \u00e0 rep\u00e9rer les probl\u00e8mes\u00a0\u00bb, d\u00e9clare Kaczmarczyk. \u00ab\u00a0Et tout comme Wikip\u00e9dia prosp\u00e8re gr\u00e2ce aux contributions de la communaut\u00e9, Open Empathic est aliment\u00e9 par l\u2019implication de la communaut\u00e9, en veillant \u00e0 ce qu\u2019il soit transparent et s\u00fbr.\u00a0\u00bb<\/p>\n<p>Transparent ? Certainement. S\u00fbr ? Le temps le dira.<\/p>","protected":false},"excerpt":{"rendered":"","protected":false},"author":1,"featured_media":7375,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_seopress_robots_primary_cat":"","_seopress_titles_title":"","_seopress_titles_desc":"","_seopress_robots_index":"","footnotes":""},"categories":[608],"tags":[],"class_list":["post-7373","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-actualite-intelligence-artificielle","generate-columns","tablet-grid-50","mobile-grid-100","grid-parent","grid-50"],"_links":{"self":[{"href":"https:\/\/toukiela.com\/fr_ca\/wp-json\/wp\/v2\/posts\/7373","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/toukiela.com\/fr_ca\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/toukiela.com\/fr_ca\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/toukiela.com\/fr_ca\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/toukiela.com\/fr_ca\/wp-json\/wp\/v2\/comments?post=7373"}],"version-history":[{"count":1,"href":"https:\/\/toukiela.com\/fr_ca\/wp-json\/wp\/v2\/posts\/7373\/revisions"}],"predecessor-version":[{"id":7374,"href":"https:\/\/toukiela.com\/fr_ca\/wp-json\/wp\/v2\/posts\/7373\/revisions\/7374"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/toukiela.com\/fr_ca\/wp-json\/wp\/v2\/media\/7375"}],"wp:attachment":[{"href":"https:\/\/toukiela.com\/fr_ca\/wp-json\/wp\/v2\/media?parent=7373"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/toukiela.com\/fr_ca\/wp-json\/wp\/v2\/categories?post=7373"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/toukiela.com\/fr_ca\/wp-json\/wp\/v2\/tags?post=7373"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}