Con el contenido generado por IA difundiéndose en las redes sociales, Meta anunció ayer planes para agregar nuevas políticas y herramientas de detección para mejorar la transparencia y prevenir contenido dañino. Sin embargo, algunos se preguntan si los esfuerzos surtirán efecto lo suficientemente pronto o si serán lo suficientemente eficaces como para evitar daños.

La empresa matriz de Facebook e Instagram dijo que comenzará a etiquetar el contenido generado por las plataformas de inteligencia artificial de otras empresas. Además de exigir que las personas revelen cuándo el contenido incluye características de IA generativa, Meta también utilizará su propia tecnología de IA para identificar contenido de IA generativa y hacer cumplir las políticas. Los cambios previstos para los “próximos meses” incluyen imágenes de metaetiquetado de empresas como Google, Adobe, Microsoft, OpenAI, Midjourney y Shutterstock.

“A medida que la diferencia entre contenido humano y sintético se vuelve borrosa, la gente quiere saber dónde está el límite”, escribió Nick Clegg, presidente de asuntos globales de Meta, en una publicación de blog. “La gente suele encontrarse por primera vez con contenido generado por IA y nuestros usuarios nos han dicho que aprecian la transparencia en torno a esta nueva tecnología”.

Las propias herramientas de contenido de IA de Meta ya agregan automáticamente marcas de agua visibles que incluyen el texto “Imaginado con IA”. La compañía también agrega marcas de agua invisibles y metadatos integrados. Sin embargo, como señaló Clegg, todavía queda trabajo por hacer para garantizar que las marcas de agua no se puedan eliminar ni modificar. Meta también planea apoyar la creación de nuevos estándares industriales para identificar imágenes, videos y audio generados por IA. También está trabajando con foros como Partnership On AI, Coalition for Content Provenance and Authenticity (C2PA) y International Press Telecommunications Council.

Horas después de la noticia de Meta, OpenAI Anunciado planea comenzar a incluir metadatos utilizando las especificaciones de C2PA para imágenes generadas por ChatGPT y su API que sirve a su modelo DALL-E. OpenAI también reconoció que los metadatos “no son una solución mágica” para abordar la autenticidad del contenido y pueden “eliminarse fácilmente, ya sea accidental o intencionalmente”.

Las actualizaciones de Meta se producen en medio de una creciente preocupación sobre cómo la información errónea generada por la IA podría afectar la política en los EE. UU. y en todo el mundo. Apenas el mes pasado, las llamadas automáticas en New Hampshire incluyeron audio falso de IA que se asemejaba al presidente estadounidense Joe Biden instando a los residentes a no votar en las primarias estatales.

El lunes, la Junta de Supervisión semiindependiente de Meta sugirió que la compañía “reconsidere rápidamente” sus políticas de medios manipulados para el contenido creado con IA e incluso sin IA. Los comentarios de la Junta de Supervisión fueron parte de una opinión relacionada con un video de Biden que no fue editado con IA pero sí de manera engañosa. La junta también destacó la importancia de mejorar las políticas antes de varias elecciones en 2024.

“La Junta está preocupada por la política de Medios Manipulados en su forma actual, considerándola incoherente, carente de justificación persuasiva y enfocada inapropiadamente en cómo se ha creado el contenido, en lugar de qué daños específicos pretende prevenir (por ejemplo, a procesos electorales)”, según la Junta.

Si bien los esfuerzos de Meta comienzan con imágenes, Clegg dijo que el objetivo es incluir video y audio más adelante a medida que otras plataformas de inteligencia artificial comiencen a etiquetar otros tipos de contenido. Sin embargo, por ahora, Meta se basa en divulgaciones voluntarias al etiquetar el contenido de IA más allá de las imágenes. Según Clegg, los usuarios que no etiquetan adecuadamente su contenido podrían incitar a Meta a “aplicar sanciones”.

“Si determinamos que el contenido de imagen, video o audio creado o alterado digitalmente crea un riesgo particularmente alto de engañar materialmente al público en un asunto de importancia, podemos agregar una etiqueta más destacada si corresponde, para que las personas tengan más información y contexto”. Clegg escribió.

En una encuesta de consumidores de 2023 realizada por Gartner, el 89% de los encuestados dijeron que les resultaría difícil identificar el contenido de IA. La avalancha de contenido generativo de IA, combinado con el hecho de que los consumidores no saben qué es real o no, hace que la transparencia sea aún más importante, dijo la analista de Gartner Nicole Greene. También señaló que tres cuartas partes de los encuestados dijeron que es “muy importante” o de “máxima importancia” que las marcas que utilizan contenido de IA generativa lo etiqueten adecuadamente. Eso es más que dos tercios de los encuestados en una encuesta anterior.

“Nos enfrentamos a un entorno desafiante para la confianza a medida que nos acercamos al próximo ciclo electoral y al año de los Juegos Olímpicos, donde personas influyentes, celebridades y marcas probablemente enfrentarán la amenaza de deepfakes a una escala sin precedentes”, dijo. “Descubrir qué es auténtico será aún más importante, ya que a la gente le resultará más difícil saberlo debido a la sofisticación de la tecnología necesaria para hacer que las cosas parezcan tan reales”.

Esta no es la primera vez que Meta anuncia cambios de política relacionados con el contenido de IA generativa. En noviembre, la compañía dijo que comenzaría a exigir a los anunciantes políticos que revelaran contenido creado o editado con herramientas de inteligencia artificial generativa. Sin embargo, los investigadores ya están encontrando evidencia de contenido dañino de IA generativa elaborado con las propias herramientas de Meta. Un nuevo informe mostró ejemplos de utilizar las propias herramientas de Meta para crear anuncios dirigidos a adolescentes con contenido dañino que promueva drogas, alcohol, vapeo, trastornos alimentarios y juegos de azar. El informe, publicado por Tech Transparency Project, parte del organismo de control no partidista Campaign For Accountability, también mostró ejemplos adicionales de cómo hacer anuncios generativos de IA aprobados por Meta que violan las políticas de la plataforma contra la violencia y el discurso de odio.

Según Katie Paul, directora del TPP, los anuncios en cuestión fueron aprobados en menos de cinco minutos. Eso es mucho más rápido que la hora que tardó en aprobarse los anuncios sin IA de TTP cuando realizó una investigación similar en 2021. Dados los problemas anteriores de Meta con el uso de IA para la moderación de contenido y la verificación de hechos, Paul también se preguntó si todavía hay suficiente evidencia para saber si la detección por IA de contenido generativo de IA será efectiva en todos los ámbitos. Dijo que los investigadores de TTP ya han encontrado ejemplos de anuncios políticos creados por IA en la biblioteca de anuncios de Facebook que no están etiquetados correctamente como que utilizan IA.

“Si no podemos confiar en lo que han estado usando todos estos años para abordar estos problemas críticos, ¿cómo podemos confiar en las afirmaciones de empresas como Meta cuando se trata de IA con visión de futuro e IA generativa?” dijo Pablo. “¿Cómo van a hacer que sus plataformas sean más seguras usando ese tipo de etiquetado para su contenido?”


Con información de Digiday

Leer la nota Completa > Meta amplía el etiquetado de imágenes con IA para incluir contenido generado por IA desde otras plataformas

LEAVE A REPLY

Please enter your comment!
Please enter your name here