Durante casi una década, la seguridad de la marca ha sido la ballena blanca del mundo publicitario, evadiendo constantemente el arpón de quienes buscan mantenerse alejados de contenido peligroso o lascivo. Pero la proliferación de la IA generativa ha creado un tipo de monstruo aún más aterrador: una hidra de múltiples cabezas.

La pelea ya ha comenzado. Para impulsar sus esfuerzos en torno a la seguridad de la marca, IPG está agregando más herramientas para identificar contenido dañino y al mismo tiempo ayuda a los anunciantes a evitar aparecer cerca de él. Una forma es a través de una asociación ampliada con Zefr, una startup de seguridad de marca que rastrea contenido en Facebook, Instagram y TikTok. Además de nuevas formas de bloquear previamente el contenido social de alto riesgo, las empresas están creando paneles personalizados para ayudar a los anunciantes a evitar el contenido generado por el usuario en categorías sensibles como texto, imágenes, video y audio. Las categorías sensibles incluyen contenido generado por IA e información errónea relacionada con la política estadounidense, el negacionismo climático, la atención médica y contenido específico de marca.

“Ya contamos con muchas herramientas en el espacio programático para ayudar a gestionar la información errónea y gestionar la seguridad de la marca. [and] idoneidad, pero siempre ha habido un vacío cuando se trata de UGC en jardines amurallados”, dijo Ruowen Liscio, vicepresidente de inversiones de rendimiento en la unidad Magna de IPG.

Al centrarse en el contenido dañino, las empresas esperan no sólo ayudar a los anunciantes sino también cortar la financiación publicitaria para dicho contenido. Según Andrew Serby, director comercial de Zefr, el contenido relacionado con la desinformación procedente de la IA y otras fuentes permanece en las plataformas porque se financia con dinero publicitario. Pero para combatir esa financiación primero es necesario identificar la desinformación y sus fuentes a escala.

Para comprender las percepciones de los consumidores sobre la información errónea (y los anuncios que aparecen en ella), Magna de IPG realizó una investigación sobre cómo las personas veían contenido dañino y cómo afectaba sus percepciones sobre las marcas y plataformas. Sólo el 36% de los que respondieron a una encuesta incluida en la investigación pensaron que era apropiado que las marcas aparecieran junto al contenido generado por IA. Los anuncios que aparecían junto a información errónea también se consideraban menos confiables y la percepción de la marca se veía perjudicada incluso cuando las personas no estaban seguras de si el contenido era real o no.

Aunque el contenido político fue más fácil de identificar para los participantes de la encuesta, solo el 44% identificó correctamente el contenido político falso, el 15% fue incorrecto y el resto no estaba seguro. El contenido generado por IA, incluidas imágenes de presidentes estadounidenses jugando Pokémon y del Papa Francisco vistiendo Balenciaga, engañó al 23% de los encuestados y dejó al 41% inseguro. Mientras tanto, el 33% de los encuestados identificó incorrectamente información errónea sobre el cambio climático y el 25% se equivocó sobre la información errónea relacionada con la atención médica.

“Lo más importante para nosotros que surgió de la investigación es simplemente la capacidad de comprender el impacto cuantificado de lo que sucede cuando las marcas aparecen junto a información errónea”, dijo Kara Manatt, vicepresidenta ejecutiva de soluciones de inteligencia de Magna.

Las empresas del negocio del contenido generado por IA también están investigando la opinión del consumidor. En un nuevo informe de Adobe, el 80% de los adultos estadounidenses cree que la desinformación y los deepfakes dañinos afectarán las próximas elecciones. Según la encuesta, el 78% de los encuestados pensó que a los candidatos electorales no se les debería permitir usar contenido generado por IA en sus campañas, mientras que el 83% cree que el gobierno y las empresas de tecnología deberían trabajar juntos para abordar los problemas con la información errónea generada por la IA. Los resultados de la encuesta, publicados la semana pasada, incluyen respuestas de 6.000 personas en Estados Unidos y varios países europeos.

Los hallazgos se producen en medio de debates sobre si las empresas de tecnología deberían ser responsables de la información contenida en sus plataformas. La Corte Suprema de Estados Unidos también está considerando una batalla legal sobre el contenido en línea, que incluye si se debe permitir a los funcionarios gubernamentales comunicarse con las empresas de tecnología sobre la desinformación en varias plataformas. Mientras tanto, Rest Of The World, una organización de medios global sin fines de lucro, también publicó un nuevo sitio web para rastrear contenido de IA relacionado con las elecciones en las principales plataformas en casi una docena de países.

Existen preocupaciones en numerosas plataformas en línea, incluida X. Incluso cuando DoubleVerify afirmó que la plataforma anteriormente conocida como Twitter era 99% segura para la marca, un informe de ISD encontró ejemplos de docenas de imágenes de desinformación generadas por IA que fueron publicadas por cuentas verificadas horas después del dron de Irán. ataque a Israel y fue visto 37 millones de veces en cuestión de horas.

El informe de Adobe ayuda a ilustrar la importancia de que las personas y las empresas tengan herramientas para identificar qué es verdad y qué no. La desinformación alimentada por la IA generativa es “una de las amenazas más críticas que enfrentamos como sociedad”, dijo Andy Parsons, director senior de la Iniciativa de Autenticidad de Contenido de Adobe. En una entrevista la semana pasada, Parsons dijo a Digiday que es importante que la gente siga confiando en fuentes de noticias verificadas y no empiece a cuestionar todo cuando las líneas entre la verdad y la ficción se vuelven demasiado borrosas.

“Existe el dividendo del mentiroso, que es que cuando puedes cuestionar cualquier cosa, no puedes creer que nada sea cierto”, dijo Parsons. “Entonces, ¿cómo puedes siquiera verificar que una noticia es noticia o que no estás viendo la visión del mundo de otra persona? O que no te están engañando ni siquiera con el contenido de las redes sociales. [even if] es de una fuente de noticias. ¿Y entonces cuál es la fuente de noticias si no puedes creer nada de lo que ves porque puede haber sido manipulado?

En otras palabras, hay tantas preguntas como cabezas tiene la hidra, si no más.

Avisos y productos: otras noticias sobre IA la semana pasada:

  • Además de presentar su modelo Llama 3, Meta lanzó varias mejoras para su chatbot Meta AI en aplicaciones que incluyen Facebook, Instagram y un nuevo sitio web para el rival ChatGPT.
  • Con un nuevo “motor de respuestas”, el navegador Brave agregó otra herramienta de inteligencia artificial generativa para la búsqueda.
  • Snap anunció que comenzará a poner marcas de agua en el contenido de IA y actualizó otras partes de su política de seguridad/transparencia.
  • Google anunció nuevas herramientas de imágenes generativas de IA para campañas de generación de demanda.
  • Un nuevo proyecto de ley llamado Ley de Transparencia de la Inteligencia Artificial de California (CAITA) fue aprobado por el comité del Senado estatal.
  • Digitas anunció una nueva plataforma de IA generativa llamada Digitas AI, cuyo objetivo es utilizar LLM.
  • Stability AI presentó su nuevo modelo API Stable Diffusion 3 con nuevas capacidades para plataformas como Midjourney.
  • A24 recibió críticas por utilizar imágenes generadas por IA en los anuncios de su nueva película “Civil War”.

Otras noticias relacionadas con la IA de todo Digiday

https://digiday.com/?p=541949

Con información de Digiday

Leer la nota Completa > Informe sobre IA: Cómo la desinformación sobre IA afecta los pensamientos de los consumidores sobre las elecciones y las marcas

LEAVE A REPLY

Please enter your comment!
Please enter your name here