Meta Meta Corp. está trabajando para desarrollar herramientas para identificar imágenes generadas sintéticamente por sistemas de IA generativa en sus plataformas de redes sociales, como Facebook, Instagram y Threads, dijo la compañía el martes. “Hemos estado trabajando con socios de la industria para alinearnos en estándares técnicos comunes que indiquen cuándo se crea contenido utilizando IA. Ser capaces de detectar estas señales nos permitirá etiquetar imágenes generadas por IA que los usuarios publiquen en Facebook, Instagram y Threads”, escribió Nick Clegg, presidente de asuntos globales de Meta. En una publicación de blog.

“Actualmente estamos desarrollando esta capacidad y en los próximos meses comenzaremos a aplicar etiquetas en todos los idiomas admitidos por cada aplicación”, agregó Clegg. La medida de detectar imágenes generadas por IA por parte de empresas como Google, OpenAI, Adobe, Shutterstock y Midjourney tiene sentido dado que en 2024 habrá elecciones en varios países, incluidos Estados Unidos, la Unión Europea, India y Sudáfrica. Este año, Meta aprenderá más sobre cómo los usuarios crean y comparten contenido generado por IA y qué tipo de transparencia considera valiosa la gente, dijo Clegg. La declaración de Clegg sobre las elecciones recuerda al escándalo de Cambridge Analytica, descubierto por el New York Times y The Observer en 2018, que vio comprometidos los datos de Facebook de al menos 50 millones de usuarios. El mes pasado, el creador de ChatGPT, OpenAI, suspendió a dos desarrolladores que crearon un bot que imitaba al congresista candidato presidencial demócrata Dean Phillips, lo que marcó la primera acción de la compañía contra el uso indebido de la IA.

Índice
  1. Marcas ya vigentes en la IA de Meta
  2. Cómo contrarrestar los riesgos de la eliminación de marcadores

Marcas ya vigentes en la IA de Meta

Según Nick Clegg, Meta ya marca imágenes creadas por su propio generador de imágenes asistido por IA, que incluye la adición de marcadores visibles y metaetiquetas. Estos últimos están integrados en los metadatos de la imagen. Su combinación permite que otras plataformas identifiquen fácilmente las imágenes generadas por IA, dijo Clegg. Meta también está trabajando con otras empresas para desarrollar estándares comunes para identificar imágenes generadas por IA a través de foros como la Asociación sobre IA (PAI), agregó Clegg. Sin embargo, también señaló que, si bien varias empresas están comenzando a incluir señales para ayudar a identificar las imágenes generadas, la misma política no se está aplicando al audio y al video.

En ausencia de políticas de identificación en torno al audio y el vídeo generados, Clegg dijo que Meta está añadiendo una función que permite a las personas marcar cuándo comparten vídeo o audio generado por IA, para que la empresa pueda etiquetarlo. "Les pediremos a las personas que utilicen esta herramienta de divulgación y etiquetado cuando publiquen contenido orgánico con vídeo fotorrealista o audio creado o alterado digitalmente, y podemos aplicar sanciones si no lo hacen", continuó Clegg.

Cómo contrarrestar los riesgos de la eliminación de marcadores

Meta reconoció que, si bien las herramientas y los estándares que se están desarrollando están a la vanguardia de lo que es posible cuando se trata de etiquetar contenido generado por IA, los actores maliciosos aún podrían encontrar formas de eliminar marcadores invisibles. Para contrarrestar ese riesgo, la compañía dijo que está trabajando en el desarrollo de clasificadores que puedan ayudarla a detectar automáticamente el contenido generado por IA, incluso si el contenido no tiene metaetiquetas. “Al mismo tiempo, estamos buscando formas de dificultar la eliminación o el cambio de metaetiquetas. Por ejemplo, el laboratorio de investigación FAIR AI de Meta compartió recientemente una investigación sobre una tecnología que estamos desarrollando llamada Stable Signature”, escribió Clegg. Stable Signature integra el mecanismo de metadatos directamente en el proceso de generación de imágenes para ciertos tipos de generadores de imágenes, lo que podría ser útil para los modelos de código abierto para que no se pueda desactivar, explicó el funcionario.

Históricamente, la empresa ha utilizado sistemas de IA automatizados para detectar y eliminar el discurso de odio y otras formas de contenido que violan sus políticas. Para el tercer trimestre de 2023, Meta dice que sus sistemas de IA ayudaron a reducir la prevalencia del discurso de odio en Facebook a solo el 0,01-0,02%. Meta planea utilizar IA generativa para eliminar contenido dañino más rápido. Hemos comenzado a probar modelos de lenguaje grandes (LLM) entrenándolos en nuestros Estándares comunitarios para ayudar a determinar si el contenido viola nuestras políticas. "Estas primeras pruebas sugieren que los LLM pueden superar a los modelos de aprendizaje automático existentes", dijo Clegg. Los LLM también ayudan a la empresa a eliminar contenido de las colas de revisión en determinadas circunstancias cuando sus revisores están seguros de que no viola las políticas de la empresa, agregó el ejecutivo.