El generador de imágenes Meta AI ayuda a los usuarios a crear ilustraciones y fotos con simples indicaciones de texto. Para apostar por la transparencia, Meta incluirá una etiqueta que confirma que la imagen fue creada con IA en los post publicados en sus redes sociales: Facebook, Instagram y Threads.
La detección de estas señales permitirá etiquetar las imágenes generadas por IA que los usuarios publiquen en Facebook, Instagram y
Threads.
Empezarán a etiquetar los contenidos generados por IA en mayo de 2024, y en julio dejarán de eliminar contenidos basados únicamente en su política de videos manipulados.
"Estamos desarrollando esta capacidad y en los próximos meses empezaremos a aplicar etiquetas en todos los idiomas disponibles en cada aplicación. Adoptaremos este enfoque a lo largo del próximo año, durante el cual se llevarán a cabo varias elecciones importantes en todo el mundo. Durante este tiempo, esperamos aprender mucho más sobre cómo la gente crea y comparte contenidos de IA, qué tipo de transparencia considera más valiosa y cómo evolucionan estas tecnologías. Lo que aprendamos servirá como base para definir mejores prácticas en el sector y robustecerá nuestro enfoque de cara al futuro", anunció
Meta en un comunicado.
Aporte del Consejo asesor de contenido
Meta está haciendo cambios en la forma en que trata a los contenidos manipulados en Facebook, Instagram y Threads con base en la retroalimentación que reciben del Consejo asesor de contenido, que apunta a actualizar su enfoque para reflejar una gama más amplia del contenido que existe hoy y proporcionar contexto sobre el contenido a través de etiquetas. Estos cambios también se basan en el proceso de revisión de su política, que incluyó encuestas de opinión pública extensas y consultas con académicos, organizaciones de la sociedad civil y otros.
El Consejo también argumentó que arriesgan de forma innecesaria la libertad de expresión al eliminar los contenidos manipulados que no infringen otras de nuestras políticas. Recomendó un enfoque «menos restrictivo» para los contenidos manipulados, como etiquetas con contexto. Sus etiquetas «Hecho con IA» en video, audio e imágenes generados por IA se basarán en su detección de señales de imágenes de IA y en si las personas indican que están subiendo contenidos generados por IA. Ya añadieron «Imaginado con IA» a las imágenes fotorealistas creadas con la función Meta AI.
Si una imagen, un video o un audio creados o alterados digitalmente representan un riesgo particularmente alto de engañar materialmente al público sobre un asunto de importancia, podrán añadir una etiqueta más destacada para que la gente tenga más información y contexto.
También cuentan con una red de casi 100 verificadores de datos independientes que seguirán revisando los contenidos falsos y engañosos generados por IA.
Marca de agua invisible en imágenes creadas con IA
Cuando se crean imágenes fotorrealistas con
Meta AI, se incluyen
marcadores visibles que se pueden ver en las imágenes, así como marcas de agua invisibles y metadatos incrustados dentro de los archivos de imagen.
El uso de marcas de agua invisibles y metadatos mejora la solidez de estos marcadores invisibles y ayuda a otras plataformas a identificarlos, según Meta.
Dado que los contenidos generados por IA aparecen en todo Internet, se han aliado con otras empresas mediante foros como el Partnership on AI (PAI). Los marcadores invisibles que se usan para las imágenes de Meta AI -metadatos IPTC y marcas de agua invisibles- se ajustan a las mejores prácticas de la PAI.
Eso no es todo. Meta está trabajando en herramientas capaces de identificar marcadores invisibles a escala -en concreto, la información "generada por IA" de los estándares técnicos C2PA e IPTC– para etiquetar imágenes de Google, OpenAI, Microsoft, Adobe, Midjourney y Shutterstock.
Usuarios deben avisar si usan videos o audios con IA
Aunque las empresas están empezando a incluir señales en sus generadores de imágenes, no han empezado a incluirlas en las herramientas de IA que generan audio y video a la misma escala, según Meta, por lo que aún es posible detectar esas señales y etiquetar este contenido de otras empresas.
Es por eso que los usuarios deberán informar cuando compartan video o audio generados por IA, de modo que Meta luego pueda añadirles una etiqueta.
"Si determinamos que el contenido de imagen, video o audio creado o alterado digitalmente crea un riesgo particularmente alto de engañar al público sobre un asunto de importancia, podremos añadir una etiqueta más prominente de ser necesario, para que la gente tenga más información y contexto", agrega Meta.
Proceso de políticas sustentado en opiniones de expertos mundiales y encuestas públicas
El año pasado, empezaron a revaluar sus políticas para ver si necesitaban un nuevo enfoque para seguir el ritmo de los rápidos avances tecnológicos y el uso de la IA generativa. Consultaron a más de 120 partes interesadas en 34 países de las principales regiones del mundo. En general, recibieron un amplio apoyo para etiquetar los contenidos generados por IA y un fuerte respaldo a una etiqueta más prominente en escenarios de alto riesgo. Muchas partes interesadas se mostraron receptivas al concepto de que las personas revelen por sí mismas los contenidos generados por IA.
La mayoría de las partes interesadas coincidieron en que la eliminación debería limitarse únicamente a los casos de mayor riesgo en los que el contenido pueda estar vinculado a un daño, ya que la IA generativa se está convirtiendo en una herramienta de expresión creativa de uso generalizado. Esto está alineado con los principios en los que se basan sus Normas Comunitarias.
También realizaron un estudio de opinión pública con más de 23.000 encuestados en 13 países y preguntaron a la gente cómo deberían abordar las empresas de redes sociales, como Meta, los contenidos generados por IA en sus plataformas. Una gran mayoría (82%) está a favor de las etiquetas de advertencia para los contenidos generados por IA que muestran a personas diciendo cosas que no han dicho.
Además, el Consejo asesor de contenido señaló que sus recomendaciones se basan en consultas con organizaciones de la sociedad civil, académicos, organizaciones intergubernamentales y otros expertos.