{"id":12439,"date":"2024-04-19T10:05:42","date_gmt":"2024-04-19T08:05:42","guid":{"rendered":"https:\/\/toukiela.com\/scandale-le-conseil-de-surveillance-de-meta-enquete-sur-les-images-explicites-generees-par-une-ia-publiees-sur-instagram-et-facebook\/"},"modified":"2024-04-19T10:05:43","modified_gmt":"2024-04-19T08:05:43","slug":"scandale-le-conseil-de-surveillance-de-meta-enquete-sur-les-images-explicites-generees-par-une-ia-publiees-sur-instagram-et-facebook","status":"publish","type":"post","link":"https:\/\/toukiela.com\/es\/scandal-the-meta-supervision-board-investigates-explicit-pictures-generated-by-ia-published-on-instagram-and-facebook\/","title":{"rendered":"Scandale ! Le Conseil de surveillance de Meta enqu\u00eate sur les images explicites g\u00e9n\u00e9r\u00e9es par une IA publi\u00e9es sur Instagram et Facebook"},"content":{"rendered":"<p><em><\/em><\/p>\n<div id=\"ez-toc-container\" class=\"ez-toc-v2_0_82_2 counter-hierarchy ez-toc-counter ez-toc-grey ez-toc-container-direction\">\n<p class=\"ez-toc-title\" style=\"cursor:inherit\">Contenido<\/p>\n<label for=\"ez-toc-cssicon-toggle-item-69f5b7aff026e\" class=\"ez-toc-cssicon-toggle-label\"><span class=\"\"><span class=\"eztoc-hide\" style=\"display:none;\">Toggle<\/span><span class=\"ez-toc-icon-toggle-span\"><svg style=\"fill: #999;color:#999\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" class=\"list-377408\" width=\"20px\" height=\"20px\" viewbox=\"0 0 24 24\" fill=\"none\"><path d=\"M6 6H4v2h2V6zm14 0H8v2h12V6zM4 11h2v2H4v-2zm16 0H8v2h12v-2zM4 16h2v2H4v-2zm16 0H8v2h12v-2z\" fill=\"currentColor\"><\/path><\/svg><svg style=\"fill: #999;color:#999\" class=\"arrow-unsorted-368013\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"10px\" height=\"10px\" viewbox=\"0 0 24 24\" version=\"1.2\" baseprofile=\"tiny\"><path d=\"M18.2 9.3l-6.2-6.3-6.2 6.3c-.2.2-.3.4-.3.7s.1.5.3.7c.2.2.4.3.7.3h11c.3 0 .5-.1.7-.3.2-.2.3-.5.3-.7s-.1-.5-.3-.7zM5.8 14.7l6.2 6.3 6.2-6.3c.2-.2.3-.5.3-.7s-.1-.5-.3-.7c-.2-.2-.4-.3-.7-.3h-11c-.3 0-.5.1-.7.3-.2.2-.3.5-.3.7s.1.5.3.7z\"\/><\/svg><\/span><\/span><\/label><input type=\"checkbox\"  id=\"ez-toc-cssicon-toggle-item-69f5b7aff026e\"  aria-label=\"Alternar\" \/><nav><ul class='ez-toc-list ez-toc-list-level-1' ><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-1\" href=\"https:\/\/toukiela.com\/es\/scandal-the-meta-supervision-board-investigates-explicit-pictures-generated-by-ia-published-on-instagram-and-facebook\/#Le_Conseil_de_surveillance_de_Meta_enquete_sur_la_gestion_des_images_generees_par_lIA_sur_ses_plateformes_sociales\" >El Consejo de Supervisi\u00f3n de Meta investiga la gesti\u00f3n de las im\u00e1genes generadas por IA en sus plataformas sociales<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-2\" href=\"https:\/\/toukiela.com\/es\/scandal-the-meta-supervision-board-investigates-explicit-pictures-generated-by-ia-published-on-instagram-and-facebook\/#Les_cas\" >Los casos<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-3\" href=\"https:\/\/toukiela.com\/es\/scandal-the-meta-supervision-board-investigates-explicit-pictures-generated-by-ia-published-on-instagram-and-facebook\/#Le_probleme_de_la_pornographie_deepfake_et_de_la_violence_en_ligne_fondee_sur_le_genre\" >El problema de la pornograf\u00eda deepfake y la violencia de g\u00e9nero en Internet<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-4\" href=\"https:\/\/toukiela.com\/es\/scandal-the-meta-supervision-board-investigates-explicit-pictures-generated-by-ia-published-on-instagram-and-facebook\/#La_reponse_de_Meta_et_les_prochaines_etapes\" >Respuesta de Meta y pr\u00f3ximos pasos<\/a><\/li><\/ul><\/nav><\/div>\n<h2><span class=\"ez-toc-section\" id=\"Le_Conseil_de_surveillance_de_Meta_enquete_sur_la_gestion_des_images_generees_par_lIA_sur_ses_plateformes_sociales\"><\/span>El Consejo de Supervisi\u00f3n de Meta investiga la gesti\u00f3n de las im\u00e1genes generadas por IA en sus plataformas sociales<span class=\"ez-toc-section-end\"><\/span><\/h2>\n<p><\/p>\n<p>El Consejo de Supervisi\u00f3n, \u00f3rgano pol\u00edtico semiindependiente de Meta, est\u00e1 estudiando c\u00f3mo gestionan las plataformas sociales de la empresa las im\u00e1genes expl\u00edcitas generadas por IA. El martes, anunci\u00f3 la investigaci\u00f3n de dos casos distintos sobre c\u00f3mo Instagram en la India y Facebook en Estados Unidos gestionaron las im\u00e1genes generadas por IA de personajes p\u00fablicos, despu\u00e9s de que los sistemas de Meta no detectaran ni respondieran a los contenidos expl\u00edcitos.<\/p>\n<p><\/p>\n<p>En ambos casos, los sitios han retirado ya los soportes. El Consejo no nombra a las personas objeto de las im\u00e1genes generadas por IA \"para evitar el acoso por raz\u00f3n de sexo\", seg\u00fan un correo electr\u00f3nico enviado por Meta a Toukiela.<\/p>\n<p><\/p>\n<p>El Consejo revisa los casos relacionados con las decisiones de moderaci\u00f3n de Meta. Los usuarios deben apelar primero a Meta en relaci\u00f3n con una decisi\u00f3n de moderaci\u00f3n antes de apelar al Consejo de Supervisi\u00f3n. La Junta debe publicar sus conclusiones completas en el futuro.<\/p>\n<h2><span class=\"ez-toc-section\" id=\"Les_cas\"><\/span>Los casos<span class=\"ez-toc-section-end\"><\/span><\/h2>\n<p><\/p>\n<p>Describiendo el primer caso, el Consejo dijo que un usuario hab\u00eda marcado como pornogr\u00e1fica una imagen desnuda generada por IA de una figura p\u00fablica india en Instagram. La imagen hab\u00eda sido publicada por una cuenta que publica exclusivamente im\u00e1genes generadas por IA de mujeres indias, y la mayor\u00eda de los usuarios que reaccionan a estas im\u00e1genes residen en la India.<\/p>\n<p><\/p>\n<p>Meta no elimin\u00f3 la imagen tras la primera denuncia, y el ticket de la denuncia se cerr\u00f3 autom\u00e1ticamente a las 48 horas, ya que la empresa no sigui\u00f3 investigando la denuncia. Cuando el denunciante original recurri\u00f3 la decisi\u00f3n, el informe volvi\u00f3 a cerrarse autom\u00e1ticamente sin ninguna supervisi\u00f3n por parte de Meta. En otras palabras, tras dos denuncias, la imagen expl\u00edcita generada por la IA permaneci\u00f3 en Instagram.<\/p>\n<p><\/p>\n<p>Finalmente, el usuario recurri\u00f3 al Consejo de Supervisi\u00f3n. Solo entonces actu\u00f3 la empresa para retirar el contenido objetado y eliminar la imagen por infringir sus normas comunitarias sobre intimidaci\u00f3n y acoso.<\/p>\n<p><\/p>\n<p>El segundo caso afect\u00f3 a Facebook, donde un usuario public\u00f3 una imagen expl\u00edcita generada por IA que se parec\u00eda a una figura p\u00fablica estadounidense en un grupo centrado en creaciones de IA. En este caso, la red social elimin\u00f3 la imagen porque hab\u00eda sido publicada previamente por otro usuario, y Meta la hab\u00eda a\u00f1adido a un banco de coincidencias de medios bajo la categor\u00eda \"photoshop o dibujos sexualizados y despectivos\".<\/p>\n<p><\/p>\n<p>Cuando Toukiela pregunt\u00f3 por qu\u00e9 el Consejo hab\u00eda elegido un caso en el que la empresa hab\u00eda eliminado con \u00e9xito una imagen expl\u00edcita generada por IA, el Consejo dijo que hab\u00eda seleccionado casos \"que son emblem\u00e1ticos de temas m\u00e1s amplios en las plataformas de Meta\". A\u00f1adi\u00f3 que estos casos permit\u00edan al Consejo Asesor examinar la eficacia global de la pol\u00edtica y los procesos de Meta en relaci\u00f3n con distintos temas.<\/p>\n<p><\/p>\n<p>\"Sabemos que Meta es m\u00e1s r\u00e1pido y eficaz a la hora de moderar contenidos en algunos mercados e idiomas que en otros. Tomando un caso de Estados Unidos y otro de la India, queremos examinar si Meta protege de forma justa a todas las mujeres del mundo\", ha declarado en un comunicado la copresidenta del Consejo de Supervisi\u00f3n, Helle Thorning-Schmidt.<\/p>\n<p><\/p>\n<p>\"El Consejo cree que es importante examinar si las pol\u00edticas y pr\u00e1cticas de aplicaci\u00f3n de Meta son eficaces para resolver este problema\", a\u00f1adi\u00f3 Thorning-Schmidt.<\/p>\n<h2><span class=\"ez-toc-section\" id=\"Le_probleme_de_la_pornographie_deepfake_et_de_la_violence_en_ligne_fondee_sur_le_genre\"><\/span>El problema de la pornograf\u00eda deepfake y la violencia de g\u00e9nero en Internet<span class=\"ez-toc-section-end\"><\/span><\/h2>\n<p><\/p>\n<p>Algunas -no todas- las herramientas de IA generativa de los \u00faltimos a\u00f1os se han ampliado para permitir a los usuarios generar contenidos pornogr\u00e1ficos. Como ya inform\u00f3 Toukiela, grupos como Unstable Diffusion buscan monetizar la pornograf\u00eda basada en IA con turbias l\u00edneas \u00e9ticas y sesgos en los datos.<\/p>\n<p><\/p>\n<p>En regiones como la India, los deepfakes son tambi\u00e9n un problema preocupante. El a\u00f1o pasado, un informe de la BBC se\u00f1alaba que el n\u00famero de v\u00eddeos deepfake de actrices indias se hab\u00eda disparado en los \u00faltimos tiempos. Los datos sugieren que las mujeres son con m\u00e1s frecuencia objeto de deepfakes.<\/p>\n<p><\/p>\n<p>A principios de este a\u00f1o, el Viceministro de Tecnolog\u00edas de la Informaci\u00f3n, Rajeev Chandrasekhar, expres\u00f3 su descontento con el enfoque de las empresas tecnol\u00f3gicas a la hora de abordar las falsificaciones profundas.<\/p>\n<p><\/p>\n<p>\"Si una plataforma cree que puede salirse con la suya al no eliminar v\u00eddeos deepfake, o simplemente adopta un enfoque descuidado, tenemos el poder de proteger a nuestros ciudadanos bloqueando dichas plataformas\", dijo Chandrasekhar en una conferencia de prensa en ese momento.<\/p>\n<p><\/p>\n<p>Aunque la India est\u00e1 estudiando la posibilidad de introducir en su legislaci\u00f3n normas espec\u00edficas sobre las falsificaciones profundas, todav\u00eda no hay nada escrito en piedra.<\/p>\n<p><\/p>\n<p>Aunque el pa\u00eds cuenta con disposiciones legales para denunciar la violencia de g\u00e9nero en l\u00ednea, los expertos se\u00f1alan que el proceso puede ser tedioso y a menudo hay poco apoyo. En un estudio publicado el a\u00f1o pasado, el grupo de defensa indio IT for Change subray\u00f3 que los tribunales de India deben contar con procesos s\u00f3lidos para tratar la violencia de g\u00e9nero en l\u00ednea y no trivializar estos casos.<\/p>\n<p><\/p>\n<p>Aparajita Bharti, cofundadora de The Quantum Hub, una consultora de pol\u00edticas p\u00fablicas con sede en la India, dijo que deber\u00eda haber l\u00edmites a los modelos de IA para evitar que creen contenidos expl\u00edcitos que causen da\u00f1o.<\/p>\n<p><\/p>\n<p>\"El principal riesgo de la IA generativa es que aumente el volumen de estos contenidos porque es f\u00e1cil generarlos con un alto grado de sofisticaci\u00f3n. Por lo tanto, tenemos que prevenir la creaci\u00f3n de estos contenidos en primer lugar, entrenando a los modelos de IA para limitar su producci\u00f3n en caso de que ya haya una intenci\u00f3n maliciosa claramente establecida. Tambi\u00e9n deber\u00edamos introducir un etiquetado por defecto para facilitar la detecci\u00f3n\", dijo Bharti a Toukiela por correo electr\u00f3nico.<\/p>\n<p><\/p>\n<p>Devika Malik, experta en pol\u00edtica de plataformas que anteriormente trabajaba en el equipo de pol\u00edticas de Meta para Asia Meridional, dijo que aunque las redes sociales tienen pol\u00edticas contra las im\u00e1genes \u00edntimas no consentidas, su aplicaci\u00f3n depende en gran medida de las denuncias de los usuarios.<\/p>\n<p><\/p>\n<p>\"Esto supone una carga injusta para el usuario afectado, que debe demostrar su identidad y la falta de consentimiento (como ocurre con la pol\u00edtica de Meta). Esto puede ser a\u00fan m\u00e1s propenso a errores cuando se trata de medios sint\u00e9ticos, y el tiempo necesario para capturar y verificar estas se\u00f1ales externas permite que el contenido gane tracci\u00f3n perjudicial\", dijo Malik.<\/p>\n<p><\/p>\n<p>Actualmente hay pocas leyes en el mundo que se ocupen de la producci\u00f3n y distribuci\u00f3n de pornograf\u00eda generada mediante herramientas de IA. Algunos estados de EE.UU. tienen leyes contra los deepfakes. El Reino Unido ha aprobado esta semana una ley para penalizar la creaci\u00f3n de im\u00e1genes sexualmente expl\u00edcitas generadas por IA.<\/p>\n<h2><span class=\"ez-toc-section\" id=\"La_reponse_de_Meta_et_les_prochaines_etapes\"><\/span>Respuesta de Meta y pr\u00f3ximos pasos<span class=\"ez-toc-section-end\"><\/span><\/h2>\n<p><\/p>\n<p>En respuesta al asunto del Consejo de Supervisi\u00f3n, Meta dijo que hab\u00eda retirado ambos contenidos. Sin embargo, la empresa de medios sociales no abord\u00f3 el hecho de que no hab\u00eda eliminado el contenido en Instagram tras los informes iniciales de los usuarios ni cu\u00e1nto tiempo permaneci\u00f3 el contenido en la plataforma.<\/p>\n<p><\/p>\n<p>Meta dijo que utiliza una mezcla de inteligencia artificial y revisi\u00f3n humana para detectar contenido con connotaciones sexuales. El gigante de las redes sociales dijo que no recomienda este tipo de contenido en lugares como Instagram Explore o las recomendaciones de Reels.<\/p>\n<p><\/p>\n<p>El Consejo de Supervisi\u00f3n ha solicitado <a rel=\"nofollow noopener\" target=\"_blank\" href=\"https:\/\/communications.oversightboard.com\/explicit-ai-images-of-female-public-figures\">comentarios del p\u00fablico<\/a> - con plazo hasta el 30 de abril- sobre el tema, que aborda los perjuicios causados por la pornograf\u00eda deepfake, informaci\u00f3n de fondo sobre la proliferaci\u00f3n de estos contenidos en regiones como Estados Unidos y la India, y los posibles escollos del planteamiento de Meta para detectar im\u00e1genes expl\u00edcitas generadas por IA.<\/p>\n<p><\/p>\n<p>La Junta examinar\u00e1 los casos y los comentarios del p\u00fablico y publicar\u00e1 su decisi\u00f3n en el sitio web dentro de unas semanas.<\/p>\n<p><\/p>\n<p>Estos casos indican que las principales plataformas siguen luchando con los antiguos procesos de moderaci\u00f3n, mientras que las herramientas potenciadas por IA han permitido a los usuarios crear y distribuir de forma r\u00e1pida y sencilla distintos tipos de contenidos. Empresas como Meta est\u00e1n experimentando con herramientas que utilizan IA para la generaci\u00f3n de contenidos, con algunos esfuerzos por detectar este tipo de im\u00e1genes. En abril, la empresa anunci\u00f3 que colocar\u00eda distintivos \"Hecho con IA\" en los deepfakes si pod\u00eda detectar el contenido utilizando \"se\u00f1ales de imagen de IA est\u00e1ndar del sector\" o revelaciones de los usuarios.<\/p>\n<p><\/p>\n<p>El experto en pol\u00edtica de plataformas Malik afirm\u00f3 que el etiquetado suele ser ineficaz porque el sistema de detecci\u00f3n de im\u00e1genes generado por la IA a\u00fan no es fiable.<\/p>\n<p><\/p>\n<p>\"El etiquetado ha demostrado tener un impacto limitado a la hora de limitar la difusi\u00f3n de contenidos nocivos. Si nos remontamos al caso de las im\u00e1genes generadas por IA de Taylor Swift, millones de usuarios fueron dirigidos a estas im\u00e1genes gracias al trending topic de la propia X 'Taylor Swift AI'. As\u00ed que la gente y la plataforma sab\u00edan que el contenido no era aut\u00e9ntico, y de todos modos se amplific\u00f3 algor\u00edtmicamente\", se\u00f1al\u00f3 Malik.<\/p>\n<p><\/p>\n<p>Sin embargo, los autores encuentran constantemente formas de evitar estos sistemas de detecci\u00f3n y publicar contenidos problem\u00e1ticos en las plataformas sociales.<\/p>\n<p><\/p>\n<p>Puede ponerse en contacto con Ivan Mehta en im@ivanmehta.com por correo electr\u00f3nico y <a rel=\"nofollow noopener\" target=\"_blank\" href=\"https:\/\/signal.me\/#eu\/dM1XqnARAvnwv9L0Hj3PLkuhyzBjyTLYHhZU7kVp6bAfDf5kAnJOXbB+HTPYH0uQ\" data-mrf-link=\"https:\/\/signal.me\/#eu\/dM1XqnARAvnwv9L0Hj3PLkuhyzBjyTLYHhZU7kVp6bAfDf5kAnJOXbB+HTPYH0uQ\">a trav\u00e9s de este enlace en Signal<\/a>.<\/p>","protected":false},"excerpt":{"rendered":"","protected":false},"author":1,"featured_media":12441,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_seopress_robots_primary_cat":"","_seopress_titles_title":"","_seopress_titles_desc":"","_seopress_robots_index":"","footnotes":""},"categories":[608],"tags":[],"class_list":["post-12439","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-actualite-intelligence-artificielle","generate-columns","tablet-grid-50","mobile-grid-100","grid-parent","grid-50"],"_links":{"self":[{"href":"https:\/\/toukiela.com\/es\/wp-json\/wp\/v2\/posts\/12439","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/toukiela.com\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/toukiela.com\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/toukiela.com\/es\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/toukiela.com\/es\/wp-json\/wp\/v2\/comments?post=12439"}],"version-history":[{"count":1,"href":"https:\/\/toukiela.com\/es\/wp-json\/wp\/v2\/posts\/12439\/revisions"}],"predecessor-version":[{"id":12440,"href":"https:\/\/toukiela.com\/es\/wp-json\/wp\/v2\/posts\/12439\/revisions\/12440"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/toukiela.com\/es\/wp-json\/wp\/v2\/media\/12441"}],"wp:attachment":[{"href":"https:\/\/toukiela.com\/es\/wp-json\/wp\/v2\/media?parent=12439"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/toukiela.com\/es\/wp-json\/wp\/v2\/categories?post=12439"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/toukiela.com\/es\/wp-json\/wp\/v2\/tags?post=12439"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}