{"id":12439,"date":"2024-04-19T10:05:42","date_gmt":"2024-04-19T08:05:42","guid":{"rendered":"https:\/\/toukiela.com\/scandale-le-conseil-de-surveillance-de-meta-enquete-sur-les-images-explicites-generees-par-une-ia-publiees-sur-instagram-et-facebook\/"},"modified":"2024-04-19T10:05:43","modified_gmt":"2024-04-19T08:05:43","slug":"scandale-le-conseil-de-surveillance-de-meta-enquete-sur-les-images-explicites-generees-par-une-ia-publiees-sur-instagram-et-facebook","status":"publish","type":"post","link":"https:\/\/toukiela.com\/fr_be\/scandale-le-conseil-de-surveillance-de-meta-enquete-sur-les-images-explicites-generees-par-une-ia-publiees-sur-instagram-et-facebook\/","title":{"rendered":"Scandale ! Le Conseil de surveillance de Meta enqu\u00eate sur les images explicites g\u00e9n\u00e9r\u00e9es par une IA publi\u00e9es sur Instagram et Facebook"},"content":{"rendered":"<p><em><\/em><\/p>\n<div id=\"ez-toc-container\" class=\"ez-toc-v2_0_82_2 counter-hierarchy ez-toc-counter ez-toc-grey ez-toc-container-direction\">\n<p class=\"ez-toc-title\" style=\"cursor:inherit\">Sommaire<\/p>\n<label for=\"ez-toc-cssicon-toggle-item-69f4f9a4e602a\" class=\"ez-toc-cssicon-toggle-label\"><span class=\"\"><span class=\"eztoc-hide\" style=\"display:none;\">Toggle<\/span><span class=\"ez-toc-icon-toggle-span\"><svg style=\"fill: #999;color:#999\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" class=\"list-377408\" width=\"20px\" height=\"20px\" viewbox=\"0 0 24 24\" fill=\"none\"><path d=\"M6 6H4v2h2V6zm14 0H8v2h12V6zM4 11h2v2H4v-2zm16 0H8v2h12v-2zM4 16h2v2H4v-2zm16 0H8v2h12v-2z\" fill=\"currentColor\"><\/path><\/svg><svg style=\"fill: #999;color:#999\" class=\"arrow-unsorted-368013\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"10px\" height=\"10px\" viewbox=\"0 0 24 24\" version=\"1.2\" baseprofile=\"tiny\"><path d=\"M18.2 9.3l-6.2-6.3-6.2 6.3c-.2.2-.3.4-.3.7s.1.5.3.7c.2.2.4.3.7.3h11c.3 0 .5-.1.7-.3.2-.2.3-.5.3-.7s-.1-.5-.3-.7zM5.8 14.7l6.2 6.3 6.2-6.3c.2-.2.3-.5.3-.7s-.1-.5-.3-.7c-.2-.2-.4-.3-.7-.3h-11c-.3 0-.5.1-.7.3-.2.2-.3.5-.3.7s.1.5.3.7z\"\/><\/svg><\/span><\/span><\/label><input type=\"checkbox\"  id=\"ez-toc-cssicon-toggle-item-69f4f9a4e602a\"  aria-label=\"Toggle\" \/><nav><ul class='ez-toc-list ez-toc-list-level-1' ><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-1\" href=\"https:\/\/toukiela.com\/fr_be\/scandale-le-conseil-de-surveillance-de-meta-enquete-sur-les-images-explicites-generees-par-une-ia-publiees-sur-instagram-et-facebook\/#Le_Conseil_de_surveillance_de_Meta_enquete_sur_la_gestion_des_images_generees_par_lIA_sur_ses_plateformes_sociales\" >Le Conseil de surveillance de Meta enqu\u00eate sur la gestion des images g\u00e9n\u00e9r\u00e9es par l\u2019IA sur ses plateformes sociales<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-2\" href=\"https:\/\/toukiela.com\/fr_be\/scandale-le-conseil-de-surveillance-de-meta-enquete-sur-les-images-explicites-generees-par-une-ia-publiees-sur-instagram-et-facebook\/#Les_cas\" >Les cas<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-3\" href=\"https:\/\/toukiela.com\/fr_be\/scandale-le-conseil-de-surveillance-de-meta-enquete-sur-les-images-explicites-generees-par-une-ia-publiees-sur-instagram-et-facebook\/#Le_probleme_de_la_pornographie_deepfake_et_de_la_violence_en_ligne_fondee_sur_le_genre\" >Le probl\u00e8me de la pornographie deepfake et de la violence en ligne fond\u00e9e sur le genre<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-4\" href=\"https:\/\/toukiela.com\/fr_be\/scandale-le-conseil-de-surveillance-de-meta-enquete-sur-les-images-explicites-generees-par-une-ia-publiees-sur-instagram-et-facebook\/#La_reponse_de_Meta_et_les_prochaines_etapes\" >La r\u00e9ponse de Meta et les prochaines \u00e9tapes<\/a><\/li><\/ul><\/nav><\/div>\n<h2><span class=\"ez-toc-section\" id=\"Le_Conseil_de_surveillance_de_Meta_enquete_sur_la_gestion_des_images_generees_par_lIA_sur_ses_plateformes_sociales\"><\/span>Le Conseil de surveillance de Meta enqu\u00eate sur la gestion des images g\u00e9n\u00e9r\u00e9es par l\u2019IA sur ses plateformes sociales<span class=\"ez-toc-section-end\"><\/span><\/h2>\n<p><\/p>\n<p>Le Conseil de surveillance, l\u2019organe semi-ind\u00e9pendant de Meta charg\u00e9 des politiques, se penche sur la mani\u00e8re dont les plateformes sociales de l\u2019entreprise g\u00e8rent les images explicites g\u00e9n\u00e9r\u00e9es par l\u2019IA. Mardi, il a annonc\u00e9 l\u2019ouverture d\u2019enqu\u00eates sur deux affaires distinctes concernant la mani\u00e8re dont Instagram en Inde et Facebook aux \u00c9tats-Unis ont g\u00e9r\u00e9 des images g\u00e9n\u00e9r\u00e9es par l\u2019IA de personnalit\u00e9s publiques, apr\u00e8s que les syst\u00e8mes de Meta n\u2019aient pas r\u00e9ussi \u00e0 d\u00e9tecter et \u00e0 r\u00e9pondre au contenu explicite.<\/p>\n<p><\/p>\n<p>Dans les deux cas, les sites ont maintenant retir\u00e9 les m\u00e9dias. Le Conseil ne nomme pas les personnes cibl\u00e9es par les images g\u00e9n\u00e9r\u00e9es par l\u2019IA \u00ab\u00a0afin d\u2019\u00e9viter le harc\u00e8lement fond\u00e9 sur le genre\u00a0\u00bb, selon un e-mail envoy\u00e9 par Meta \u00e0 Toukiela.<\/p>\n<p><\/p>\n<p>Le Conseil examine les cas li\u00e9s aux d\u00e9cisions de mod\u00e9ration de Meta. Les utilisateurs doivent d\u2019abord faire appel \u00e0 Meta concernant une d\u00e9cision de mod\u00e9ration avant de s\u2019adresser au Conseil de surveillance. Le Conseil doit publier ses conclusions compl\u00e8tes \u00e0 l\u2019avenir.<\/p>\n<h2><span class=\"ez-toc-section\" id=\"Les_cas\"><\/span>Les cas<span class=\"ez-toc-section-end\"><\/span><\/h2>\n<p><\/p>\n<p>D\u00e9crivant le premier cas, le Conseil a d\u00e9clar\u00e9 qu\u2019un utilisateur avait signal\u00e9 comme pornographique une image nue g\u00e9n\u00e9r\u00e9e par l\u2019IA d\u2019une personnalit\u00e9 publique indienne sur Instagram. L\u2019image avait \u00e9t\u00e9 publi\u00e9e par un compte qui ne publie exclusivement que des images de femmes indiennes cr\u00e9\u00e9es par l\u2019IA, et la majorit\u00e9 des utilisateurs qui r\u00e9agissent \u00e0 ces images sont bas\u00e9s en Inde.<\/p>\n<p><\/p>\n<p>Meta n\u2019a pas supprim\u00e9 l\u2019image apr\u00e8s le premier signalement, et le ticket pour le signalement a \u00e9t\u00e9 automatiquement ferm\u00e9 apr\u00e8s 48 heures, car l\u2019entreprise n\u2019a pas examin\u00e9 le signalement plus en d\u00e9tail. Lorsque le plaignant initial a fait appel de la d\u00e9cision, le signalement a \u00e0 nouveau \u00e9t\u00e9 automatiquement clos sans aucune supervision de la part de Meta. En d\u2019autres termes, apr\u00e8s deux signalements, l\u2019image explicite g\u00e9n\u00e9r\u00e9e par l\u2019IA est rest\u00e9e sur Instagram.<\/p>\n<p><\/p>\n<p>L\u2019utilisateur a alors enfin fait appel au Conseil de surveillance. L\u2019entreprise n\u2019a agi qu\u2019\u00e0 ce moment-l\u00e0 pour supprimer le contenu objet de l\u2019objection et a retir\u00e9 l\u2019image pour avoir enfreint ses normes communautaires en mati\u00e8re d\u2019intimidation et de harc\u00e8lement.<\/p>\n<p><\/p>\n<p>Le deuxi\u00e8me cas concerne Facebook, o\u00f9 un utilisateur a publi\u00e9 une image explicite g\u00e9n\u00e9r\u00e9e par l\u2019IA qui ressemblait \u00e0 une personnalit\u00e9 publique am\u00e9ricaine dans un groupe ax\u00e9 sur les cr\u00e9ations d\u2019IA. Dans ce cas, le r\u00e9seau social a supprim\u00e9 l\u2019image car elle avait \u00e9t\u00e9 publi\u00e9e par un autre utilisateur auparavant, et Meta l\u2019avait ajout\u00e9e \u00e0 une banque de correspondance de m\u00e9dias sous la cat\u00e9gorie \u00ab\u00a0photoshop ou dessins sexualis\u00e9s et d\u00e9rogatoires\u00a0\u00bb.<\/p>\n<p><\/p>\n<p>Lorsque Toukiela a demand\u00e9 pourquoi le Conseil avait choisi un cas o\u00f9 l\u2019entreprise avait r\u00e9ussi \u00e0 supprimer une image explicite g\u00e9n\u00e9r\u00e9e par l\u2019IA, le Conseil a d\u00e9clar\u00e9 qu\u2019il s\u00e9lectionnait des cas \u00ab\u00a0qui sont embl\u00e9matiques de probl\u00e8mes plus larges sur les plateformes de Meta\u00a0\u00bb. Il a ajout\u00e9 que ces cas permettaient au Conseil consultatif d\u2019examiner l\u2019efficacit\u00e9 mondiale de la politique et des processus de Meta pour diff\u00e9rents sujets.<\/p>\n<p><\/p>\n<p>\u00ab\u00a0Nous savons que Meta est plus rapide et plus efficace pour mod\u00e9rer le contenu dans certains march\u00e9s et langues que dans d\u2019autres. En prenant un cas des \u00c9tats-Unis et un cas de l\u2019Inde, nous voulons examiner si Meta prot\u00e8ge toutes les femmes du monde de mani\u00e8re \u00e9quitable\u00a0\u00bb, a d\u00e9clar\u00e9 la co-pr\u00e9sidente du Conseil de surveillance, Helle Thorning-Schmidt, dans un communiqu\u00e9.<\/p>\n<p><\/p>\n<p>\u00ab\u00a0Le Conseil estime qu\u2019il est important d\u2019examiner si les politiques et les pratiques d\u2019application de Meta sont efficaces pour r\u00e9soudre ce probl\u00e8me\u00a0\u00bb, a ajout\u00e9 Thorning-Schmidt.<\/p>\n<h2><span class=\"ez-toc-section\" id=\"Le_probleme_de_la_pornographie_deepfake_et_de_la_violence_en_ligne_fondee_sur_le_genre\"><\/span>Le probl\u00e8me de la pornographie deepfake et de la violence en ligne fond\u00e9e sur le genre<span class=\"ez-toc-section-end\"><\/span><\/h2>\n<p><\/p>\n<p>Certaines \u2013 pas toutes \u2013 des outils d\u2019IA g\u00e9n\u00e9rative ces derni\u00e8res ann\u00e9es ont \u00e9t\u00e9 \u00e9tendus pour permettre aux utilisateurs de g\u00e9n\u00e9rer du contenu pornographique. Comme le rapportait pr\u00e9c\u00e9demment Toukiela, des groupes tels que Unstable Diffusion cherchent \u00e0 mon\u00e9tiser la pornographie bas\u00e9e sur l\u2019IA avec des lignes \u00e9thiques troubles et des biais dans les donn\u00e9es.<\/p>\n<p><\/p>\n<p>Dans des r\u00e9gions comme l\u2019Inde, les deepfakes sont \u00e9galement un probl\u00e8me pr\u00e9occupant. L\u2019ann\u00e9e derni\u00e8re, un rapport de la BBC a not\u00e9 que le nombre de vid\u00e9os deepfakes d\u2019actrices indiennes avait explos\u00e9 ces derniers temps. Des donn\u00e9es sugg\u00e8rent que les femmes sont plus souvent les sujets de vid\u00e9os deepfakes.<\/p>\n<p><\/p>\n<p>Plus t\u00f4t cette ann\u00e9e, le ministre adjoint de l\u2019Informatique Rajeev Chandrasekhar s\u2019est dit insatisfait de l\u2019approche des entreprises technologiques pour lutter contre les deepfakes.<\/p>\n<p><\/p>\n<p>\u00ab\u00a0Si une plateforme pense qu\u2019elle peut s\u2019en tirer sans supprimer les vid\u00e9os deepfake, ou qu\u2019elle adopte simplement une approche n\u00e9gligente, nous avons le pouvoir de prot\u00e9ger nos citoyens en bloquant de telles plateformes\u00a0\u00bb, a d\u00e9clar\u00e9 Chandrasekhar lors d\u2019une conf\u00e9rence de presse \u00e0 ce moment-l\u00e0.<\/p>\n<p><\/p>\n<p>Alors que l\u2019Inde envisage d\u2019introduire des r\u00e8gles sp\u00e9cifiques concernant les deepfakes dans la loi, rien n\u2019est encore grav\u00e9 dans le marbre.<\/p>\n<p><\/p>\n<p>Si le pays dispose de dispositions permettant de signaler la violence en ligne fond\u00e9e sur le genre en vertu de la loi, les experts notent que le processus peut \u00eatre fastidieux et qu\u2019il y a souvent peu de soutien. Dans une \u00e9tude publi\u00e9e l\u2019ann\u00e9e derni\u00e8re, le groupe de d\u00e9fense indien IT for Change a soulign\u00e9 que les tribunaux en Inde doivent disposer de processus solides pour traiter la violence en ligne fond\u00e9e sur le genre et ne pas banaliser ces affaires.<\/p>\n<p><\/p>\n<p>Aparajita Bharti, co-fondatrice de The Quantum Hub, un cabinet de conseil en politiques publiques bas\u00e9 en Inde, a d\u00e9clar\u00e9 qu\u2019il devrait y avoir des limites aux mod\u00e8les d\u2019IA pour les emp\u00eacher de cr\u00e9er du contenu explicite qui cause du tort.<\/p>\n<p><\/p>\n<p>\u00ab\u00a0Le principal risque de l\u2019IA g\u00e9n\u00e9ratrice est que le volume de ce contenu augmentera car il est facile de g\u00e9n\u00e9rer un tel contenu avec un degr\u00e9 \u00e9lev\u00e9 de sophistication. Par cons\u00e9quent, nous devons d\u2019abord emp\u00eacher la cr\u00e9ation de ce contenu en formant les mod\u00e8les d\u2019IA \u00e0 limiter leur production en cas d\u2019intention de nuire d\u00e9j\u00e0 clairement \u00e9tablie. Nous devrions \u00e9galement introduire un \u00e9tiquetage par d\u00e9faut pour une d\u00e9tection facile\u00a0\u00bb, a d\u00e9clar\u00e9 Bharti \u00e0 Toukiela par e-mail.<\/p>\n<p><\/p>\n<p>Devika Malik, experte en politiques de plateforme qui a travaill\u00e9 auparavant dans l\u2019\u00e9quipe des politiques du sud de l\u2019Asie de Meta, a d\u00e9clar\u00e9 que si les r\u00e9seaux sociaux disposent de politiques contre les images intimes non consensuelles, leur application repose largement sur les signalements des utilisateurs.<\/p>\n<p><\/p>\n<p>\u00ab\u00a0Cela place un fardeau injuste sur l\u2019utilisateur affect\u00e9 pour prouver son identit\u00e9 et le manque de consentement (comme c\u2019est le cas avec la politique de Meta). Cela peut devenir encore plus propice aux erreurs lorsqu\u2019il s\u2019agit de m\u00e9dias synth\u00e9tiques, et le temps n\u00e9cessaire pour capturer et v\u00e9rifier ces signaux externes permet au contenu de gagner une traction nuisible\u00a0\u00bb, a d\u00e9clar\u00e9 Malik.<\/p>\n<p><\/p>\n<p>Il existe actuellement peu de lois dans le monde qui traitent de la production et de la distribution de pornographie g\u00e9n\u00e9r\u00e9e \u00e0 l\u2019aide d\u2019outils d\u2019IA. Quelques \u00c9tats am\u00e9ricains disposent de lois contre les deepfakes. Le Royaume-Uni a adopt\u00e9 une loi cette semaine pour criminaliser la cr\u00e9ation d\u2019images \u00e0 caract\u00e8re sexuellement explicite g\u00e9n\u00e9r\u00e9es par l\u2019IA.<\/p>\n<h2><span class=\"ez-toc-section\" id=\"La_reponse_de_Meta_et_les_prochaines_etapes\"><\/span>La r\u00e9ponse de Meta et les prochaines \u00e9tapes<span class=\"ez-toc-section-end\"><\/span><\/h2>\n<p><\/p>\n<p>En r\u00e9ponse aux affaires du Conseil de surveillance, Meta a d\u00e9clar\u00e9 qu\u2019il avait supprim\u00e9 les deux contenus. Cependant, l\u2019entreprise de m\u00e9dias sociaux n\u2019a pas abord\u00e9 le fait qu\u2019elle n\u2019avait pas r\u00e9ussi \u00e0 supprimer le contenu sur Instagram apr\u00e8s les premiers signalements des utilisateurs ni combien de temps le contenu est rest\u00e9 sur la plateforme.<\/p>\n<p><\/p>\n<p>Meta a d\u00e9clar\u00e9 qu\u2019il utilise un m\u00e9lange d\u2019intelligence artificielle et d\u2019examen humain pour d\u00e9tecter les contenus \u00e0 connotation sexuelle. Le g\u00e9ant des m\u00e9dias sociaux a d\u00e9clar\u00e9 qu\u2019il ne recommande pas ce type de contenu dans des endroits comme les recommandations d\u2019Instagram Explore ou Reels.<\/p>\n<p><\/p>\n<p>Le Conseil de surveillance a sollicit\u00e9 des <a rel=\"nofollow noopener\" target=\"_blank\" href=\"https:\/\/communications.oversightboard.com\/explicit-ai-images-of-female-public-figures\">commentaires du public<\/a> \u2013 avec une date limite fix\u00e9e au 30 avril \u2013 sur la question qui aborde les pr\u00e9judices caus\u00e9s par la pornographie deepfake, des informations contextuelles sur la prolif\u00e9ration de ce contenu dans des r\u00e9gions comme les \u00c9tats-Unis et l\u2019Inde, et les \u00e9ventuels \u00e9cueils de l\u2019approche de Meta dans la d\u00e9tection d\u2019images explicites g\u00e9n\u00e9r\u00e9es par l\u2019IA.<\/p>\n<p><\/p>\n<p>Le Conseil examinera les affaires et les commentaires du public et publiera sa d\u00e9cision sur le site dans quelques semaines.<\/p>\n<p><\/p>\n<p>Ces affaires indiquent que les grandes plateformes luttent encore avec d\u2019anciens processus de mod\u00e9ration alors que les outils aliment\u00e9s par l\u2019IA ont permis aux utilisateurs de cr\u00e9er et de diffuser rapidement et facilement diff\u00e9rents types de contenus. Des entreprises comme Meta exp\u00e9rimentent des outils qui utilisent l\u2019IA pour la g\u00e9n\u00e9ration de contenu, avec certains efforts pour d\u00e9tecter de telles images. En avril, l\u2019entreprise a annonc\u00e9 qu\u2019elle apposerait des badges \u00ab\u00a0Fabriqu\u00e9 avec IA\u00a0\u00bb sur les deepfakes si elle pouvait d\u00e9tecter le contenu \u00e0 l\u2019aide de \u00ab\u00a0signaux d\u2019image IA standard de l\u2019industrie\u00a0\u00bb ou de divulgations de l\u2019utilisateur.<\/p>\n<p><\/p>\n<p>L\u2019experte en politiques de plateforme Malik a d\u00e9clar\u00e9 que l\u2019\u00e9tiquetage \u00e9tait souvent inefficace car le syst\u00e8me de d\u00e9tection des images g\u00e9n\u00e9r\u00e9es par l\u2019IA n\u2019est pas encore fiable.<\/p>\n<p><\/p>\n<p>\u00ab\u00a0L\u2019\u00e9tiquetage s\u2019est av\u00e9r\u00e9 avoir un impact limit\u00e9 en ce qui concerne la limitation de la diffusion de contenu pr\u00e9judiciable. Si nous revenons au cas des images g\u00e9n\u00e9r\u00e9es par l\u2019IA de Taylor Swift, des millions d\u2019utilisateurs ont \u00e9t\u00e9 dirig\u00e9s vers ces images gr\u00e2ce au propre sujet tendance de X \u2018Taylor Swift IA\u2019. Donc, les gens et la plateforme savaient que le contenu n\u2019\u00e9tait pas authentique, et il a quand m\u00eame \u00e9t\u00e9 amplifi\u00e9 de mani\u00e8re algorithmique\u00a0\u00bb, a not\u00e9 Malik.<\/p>\n<p><\/p>\n<p>Cependant, les auteurs trouvent constamment des moyens d\u2019\u00e9viter ces syst\u00e8mes de d\u00e9tection et de publier du contenu probl\u00e9matique sur les plateformes sociales.<\/p>\n<p><\/p>\n<p>Vous pouvez contacter Ivan Mehta \u00e0 l\u2019adresse im@ivanmehta.com par email et <a rel=\"nofollow noopener\" target=\"_blank\" href=\"https:\/\/signal.me\/#eu\/dM1XqnARAvnwv9L0Hj3PLkuhyzBjyTLYHhZU7kVp6bAfDf5kAnJOXbB+HTPYH0uQ\" data-mrf-link=\"https:\/\/signal.me\/#eu\/dM1XqnARAvnwv9L0Hj3PLkuhyzBjyTLYHhZU7kVp6bAfDf5kAnJOXbB+HTPYH0uQ\">via ce lien sur Signal<\/a>.<\/p>","protected":false},"excerpt":{"rendered":"","protected":false},"author":1,"featured_media":12441,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_seopress_robots_primary_cat":"","_seopress_titles_title":"","_seopress_titles_desc":"","_seopress_robots_index":"","footnotes":""},"categories":[608],"tags":[],"class_list":["post-12439","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-actualite-intelligence-artificielle","generate-columns","tablet-grid-50","mobile-grid-100","grid-parent","grid-50"],"_links":{"self":[{"href":"https:\/\/toukiela.com\/fr_be\/wp-json\/wp\/v2\/posts\/12439","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/toukiela.com\/fr_be\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/toukiela.com\/fr_be\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/toukiela.com\/fr_be\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/toukiela.com\/fr_be\/wp-json\/wp\/v2\/comments?post=12439"}],"version-history":[{"count":1,"href":"https:\/\/toukiela.com\/fr_be\/wp-json\/wp\/v2\/posts\/12439\/revisions"}],"predecessor-version":[{"id":12440,"href":"https:\/\/toukiela.com\/fr_be\/wp-json\/wp\/v2\/posts\/12439\/revisions\/12440"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/toukiela.com\/fr_be\/wp-json\/wp\/v2\/media\/12441"}],"wp:attachment":[{"href":"https:\/\/toukiela.com\/fr_be\/wp-json\/wp\/v2\/media?parent=12439"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/toukiela.com\/fr_be\/wp-json\/wp\/v2\/categories?post=12439"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/toukiela.com\/fr_be\/wp-json\/wp\/v2\/tags?post=12439"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}