Los proveedores de IA y las entidades gubernamentales anunciaron una serie de esfuerzos destinados a reforzar las defensas de Internet contra la información errónea generada por la IA.

La semana pasada, los principales actores de la IA anunciaron nuevas herramientas de transparencia y detección para contenido de IA. Horas después de que Meta detallara los planes para etiquetar imágenes de IA desde plataformas externas, OpenAI dijo que comenzará a incluir metadatos para las imágenes generadas por ChatGPT y su API para DALL-E. Días después, Google anunció que se unirá al comité directivo de la Coalición para la Procedencia y Autenticidad del Contenido (C2PA), un grupo clave que establece estándares para varios tipos de contenido de IA. Google también comenzará a admitir Credenciales de Contenido (CC), una especie de “etiqueta nutricional” para contenido de IA creada por C2PA y la Iniciativa de Autenticidad de Contenido (CAI). Adobe, que fundó CAI en 2019, presentó una actualización importante para CC en octubre.

Las actualizaciones fueron especialmente notables en algunos frentes al incorporar las principales plataformas de distribución al proceso de estandarización. Lograr la participación a nivel de plataforma también podría ayudar a impulsar la adopción generalizada de estándares de IA y ayudar a las personas a comprender mejor cómo saber si el contenido es real o falso. Andy Parsons, director senior de CAI, dijo que gigantes como Google ayudan con el “efecto bola de nieve” necesario para mejorar el ecosistema de información de Internet. También requiere alineación entre empresas, investigadores y diversas entidades gubernamentales.

El hecho de que los principales proveedores de modelos de IA estén diseñando y utilizando estándares C2PA también ayuda a impulsar una adopción uniforme en las plataformas de creación y distribución de contenido. Parsons señaló que la propia plataforma Firefly de Adobe ya era compatible con C2PA cuando se lanzó el año pasado.

“Los proveedores de modelos quieren revelar qué modelo se utilizó y asegurarse de que en los casos en que necesiten determinar si su modelo produjo algo (ya sea de interés periodístico, una celebridad o cualquier otra cosa) quieran poder hacerlo”, dijo Parsons a Digiday.

Las agencias gubernamentales también están buscando formas de prevenir la información errónea generada por la IA. La semana pasada, la Comisión Federal de Comunicaciones prohibió las voces generadas por IA en las llamadas automáticas, lo que las hace ilegales según la Ley de Protección al Consumidor Telefónico, luego de recientes llamadas automáticas falsas de IA que se asemejan al presidente Joe Biden. Mientras tanto, la Casa Blanca anunció que más de 200 se han unido a un nuevo consorcio de IA, incluidas numerosas universidades, empresas y otras organizaciones. La Comisión Europea también está recabando opiniones para sus directrices DSA sobre la integridad electoral.

La microfocalización política impulsada por la IA es una preocupación real. Las legislaturas estatales han aprobado nuevas leyes relacionadas con la publicidad política relacionada con la IA. Los miembros del Congreso también han introducido legislación, pero hasta ahora nada ha ganado fuerza. Según un estudio reciente publicado por Tech Policy Press, se pueden utilizar modelos de lenguaje grandes para desarrollar campañas publicitarias políticas microdirigidas fáciles y efectivas en plataformas como Facebook. La semana pasada, incluso la propia junta de supervisión semiindependiente de Meta instó a la empresa a “reconsiderar rápidamente” sus políticas de medios manipulados para el contenido creado con IA, e incluso sin IA.

La autenticación del contenido de IA ayuda a fomentar la confianza y la transparencia, pero los expertos dicen que es aún más importante impedir que los malos actores distribuyan información errónea en las redes sociales y en las búsquedas. Sin embargo, no es fácil detectar con precisión los deepfakes de IA y las estafas basadas en texto.

Frenar la distribución de información errónea sobre IA es fundamental, afirmó Josh Lawson, director de la iniciativa IA y Democracia del Instituto Aspen. Si bien los estándares de creación de contenido de IA son una “gran higiene” para las principales plataformas, dijo que no impiden que los malos actores creen contenido de IA problemático con modelos de IA de código abierto y con jailbreak. Comparó la oferta y la demanda de información errónea con un reloj de arena.

“Consideramos que la IA generativa es una fuerza que aumentará la oferta, pero aún tiene que llegar a las personas”, afirmó Lawson. “Si no se puede hacer llegar a la gente, no podrá afectar las elecciones”.

Las preocupaciones sobre la IA podrían distraer la atención de las preocupaciones actuales sobre la privacidad en línea. en un correo En X la semana pasada, Meredith Whittaker, presidenta de la aplicación de mensajería de privacidad Signal, mencionó que centrarse en los deepfakes del año electoral es “una distracción, que ignora convenientemente el papel documentado de los anuncios de vigilancia”. También señaló que empresas como Meta y Google, que en los últimos años también han eliminado las restricciones a los anuncios políticos, podrían beneficiarse de las distracciones.

“Dicho de otra manera, un deep fake no existe ni aquí ni allá a menos que tengas una plataforma y herramientas para difundirlo estratégicamente”, escribió Whittaker.

Avisos y productos: noticias y anuncios sobre IA

  • Google cambió el nombre de su chatbot Bard a Gemini como parte de una importante expansión de su modelo insignia de lenguaje grande. También anunció nuevas capacidades de inteligencia artificial en varios productos y servicios de Google.
  • Las empresas tecnológicas utilizaron la audiencia general del Super Bowl LVIII para comercializar nuevas funciones de IA, mientras que los anunciantes no tecnológicos utilizaron IA generativa para crear campañas para el Gran Juego en un intento por destacarse. Los anunciantes del Super Bowl con funciones de inteligencia artificial de marketing comercial incluyeron a Microsoft, Google, Samsung, Crowdstrike y Etsy.
  • Las aplicaciones de realidad mixta impulsadas por IA generativa ya están llegando a los auriculares Apple Vision Pro. Los primeros ejemplos incluyen ChatGPT, Wayfair y Adobe Firefly.
  • Un nuevo informe de William Blair examina el impacto de la IA generativa para las empresas.
  • Los proveedores de publicidad, redes sociales y nube han seguido promocionando la IA generativa en varios resultados de ganancias y llamadas de inversores. Los ejemplos de la semana pasada incluyen Omnicom, IPG, Snap Inc., Pinterest, Cognizant y Confluent. Sin embargo, el propio CEO de la nube de Amazon advierte que la exageración generativa de la IA podría alcanzar proporciones de burbuja Dotcom.

https://digiday.com/?p=534642


Con información de Digiday

Leer la nota Completa > Informe sobre IA: los gigantes tecnológicos adoptan estándares de contenido de IA, pero ¿será suficiente para frenar las falsificaciones?

LEAVE A REPLY

Please enter your comment!
Please enter your name here