Mundo
Meta debe esforzarse para hacer frente a la pornografía falsa
El informe sugiere que Meta no está aplicando sistemáticamente sus normas contra las imágenes sexuales no consentidas, incluso cuando los avances en inteligencia artificial han hecho que esta forma de acoso sea cada vez más común.
El informe es el resultado de una investigación que el Consejo Asesor de Meta anunció en abril sobre la gestión de la compañía sobre la pornografía deepfake, incluidos dos casos específicos en los que se publicaron imágenes explícitas de una figura pública estadounidense y otra india.
La amenaza de la pornografía generada por IA ha acaparado la atención en los últimos meses, en los que celebridades como Taylor Swift, así como estudiantes de secundaria estadounidenses y otras mujeres de todo el mundo, han sido víctimas de esta forma de abuso en línea.
Las herramientas de IA generativa, ampliamente accesibles, han agilizado, facilitado y abaratado la creación de este tipo de imágenes. Las plataformas de redes sociales, como Meta, donde estas imágenes pueden difundirse rápidamente, se enfrentan a una presión cada vez mayor para combatir el problema.
“Meta determinó que su decisión original de dejar el contenido en Instagram era errónea y la empresa eliminó la publicación por violar la Norma Comunitaria sobre Intimidación y Acoso”, dijo el Consejo Asesor en su informe. “Más tarde, después de que la Junta comenzara sus deliberaciones, Meta desactivó la cuenta que publicó el contenido”.
Meta declaró en un comunicado que acogía con satisfacción la decisión de la junta directiva. Añadió que, si bien las publicaciones específicas identificadas en el informe ya se han eliminado, la empresa “tomará medidas» sobre las imágenes de la figura pública india que sean “idénticas y se encuentren en el mismo contexto” que las señaladas por la Consejo Asesor “cuando sea técnica y operativamente posible hacerlo”.
En su informe, el Consejo Asesor -una entidad casi independiente formada por expertos en áreas como la libertad de expresión y los derechos humanos- formuló recomendaciones adicionales sobre cómo Meta podría mejorar sus esfuerzos para combatir los deepfakes sexualizados.
Instó a la empresa a hacer sus normas más claras mediante la actualización de su prohibición de “photoshop sexualizado despectivo” para incluir específicamente la palabra “no consensual” y para cubrir claramente otras técnicas de manipulación de fotos como la IA.
Meta comunicó a la junta que no había añadido la imagen de la figura pública india a su banco de concordancia de fotos que infringe las normas porque no había habido noticias al respecto, mientras que los medios de comunicación sí se habían hecho eco de las imágenes de la figura pública estadounidense, según el informe.
La lucha contra los deepfakes no consentidos forma parte de los esfuerzos de Meta por prevenir la explotación sexual de sus usuarios. La empresa comunicó que había eliminado unas 63,000 cuentas en Nigeria que se dedicaban a estafas de sextorsión financiera, en las que se engaña a las personas (a menudo adolescentes) para que envíen imágenes de desnudos y luego se les extorsiona.
Via: cnn