NewsGuard, el servicio de clasificación de noticias, está agregando más herramientas de automatización mientras trabaja para rastrear los esfuerzos de desinformación antes de las elecciones de 2024.

Para el debut de su “Centro de seguimiento de información errónea sobre elecciones”, NewsGuard ha desarrollado nuevas herramientas asistidas por IA para la detección temprana de información errónea relacionada con las elecciones. Las herramientas, que debutaron ayer, se utilizarán en sitios web, plataformas de redes sociales y canales de vídeo para ayudar a rastrear afirmaciones falsas o engañosas sobre las elecciones.

Aunque la empresa ha utilizado aspectos de la automatización antes, las tácticas anteriores han sido mucho más analógicas, según Matt Skibinski, director general de NewsGuard. Los nuevos elementos incluyen funciones creadas internamente utilizando herramientas de código abierto y datos de socios externos, incluidas empresas emergentes de monitoreo de medios como Meltwater y NewsWhip. Skibinski dijo que NewsGuard también está viendo un mayor porcentaje de información errónea generada a partir de medios manipulados, como imágenes y clips de audio manipulados.

“Para cada narrativa falsa, tenemos datos como términos de búsqueda que están diseñados para encontrar contenido con la narrativa falsa y evitar falsos positivos”, dijo Skibinski. “Reunimos un montón de extractos de texto y extractos de medios de contenido que transmiten la narrativa falsa… Si vemos que tenemos una narrativa falsa conocida que estamos rastreando y vemos que un nuevo editor o red de editores comienza a captarla, eso nos dice nosotros tenemos que mirarlos”.

A medida que NewsGuard identifique más información errónea, se agregará a la base de datos “Misinformation Fingerprint” de la compañía, que se utiliza para ayudar a rastrear las fuentes de contenido dañino y usar esos datos para ver dónde aparece contenido similar en línea. NewsGuard dice que ya está monitoreando contenido dañino en cientos de cuentas asociadas con operaciones de desinformación rusas, chinas e iraníes.

Las características del centro de seguimiento también incluyen listas de exclusión para anunciantes que desean evitar información errónea sobre las elecciones o contenido hiperpartidista, así como listas de inclusión para que los anunciantes aparezcan junto a sitios web de noticias de alta calidad. Los datos de NewsGuard también incluyen calificaciones de credibilidad para fuentes de noticias políticas en podcasts, plataformas de transmisión y televisión lineal.

NewsGuard también está rastreando más de 700 sitios web generados por IA que están clasificados como “noticias no confiables generadas por IA” o UAIN. Otra categoría es lo que la compañía llama sitios web de “baba rosa”, que están financiados por grupos partidistas pero pretenden ser medios de noticias locales. Hasta ahora, el equipo de NewsGuard ha identificado más de 1.000 sitios web financiados por grupos de izquierda y derecha sin divulgaciones, incluidas docenas generadas por IA.

“Es indiscutible que esto surgirá de manera importante en estas elecciones”, dijo Skibinski. “Y la pregunta es cómo, dónde y quién. Y es por eso que tenemos que monitorear casi todo”.

Para ayudar a los anunciantes a navegar el año electoral, la agencia de medios Magna Global, propiedad de IPG, distribuyó recientemente a los clientes un manual de seguridad de marca específico para las elecciones para ayudarlos a prepararse para el panorama del año electoral. Según Sara Tehrani, vicepresidenta de inversión de impacto de Magna Global, la desinformación relacionada con las elecciones y la información errónea generada por la IA exigen que los anunciantes echen un “análisis más profundo” a sus asociaciones y ubicaciones de anuncios.

“Las redes sociales son un lugar donde los anunciantes no quieren quitar dinero”, dijo Tehrani. “Es el lugar donde saben que deben estar [where] sus consumidores lo son; es solo [about] encontrar formas de asegurarse de que no aparezcan en ese tipo de contenido peligroso”.

La información errónea generada por la IA no proviene únicamente de actores malintencionados. Se ha descubierto que los chatbots populares brindan información inexacta sobre preguntas relacionadas con la elegibilidad de los votantes, los lugares de votación y los requisitos de identificación. En un estudio publicado esta semana, los investigadores examinaron las respuestas relacionadas con las elecciones de cinco de los principales modelos de lenguajes de IA (Claude de Anthropic, Gemini de Google, GPT-4 de OpenAI, Llama 2 de Meta y Mixtral de la startup francesa Mistral) y encontraron más de la mitad de los chatbots. ‘ las respuestas fueron inexactas o perjudiciales. El informe fue publicado por AI Democracy Projects en colaboración con docenas de funcionarios electorales estatales y locales, investigadores de AI, la organización sin fines de lucro Proof News y el Instituto de Estudios Avanzados con sede en Princeton, Nueva Jersey.

La desinformación relacionada con las elecciones es cada vez más una preocupación en Estados Unidos y en todo el mundo. Los funcionarios europeos acusaron recientemente a Rusia de difundir desinformación a través de las redes sociales y otras plataformas de Internet, y ha sido un tema en torno a las elecciones estadounidenses durante varios años. La desinformación generada por la IA, relacionada y no relacionada con las elecciones, también añade niveles adicionales de riesgo. A principios de este mes, casi dos docenas de empresas de tecnología acordaron este mes hacer más para abordar el contenido dañino relacionado con las elecciones en todo el mundo generado por la IA. Los firmantes incluyen gigantes tecnológicos como Google y Meta y nuevas empresas como OpenAI y Anthropic.

Además de los anuncios hiperdirigidos que dirigen a las personas hacia la desinformación, otras preocupaciones giran en torno a la posibilidad de utilizar anuncios hiperdirigidos con creatividades no relacionadas. Eso podría permitir que los estados nacionales eludan las políticas actuales de las plataformas en línea en torno al contenido político, según Mike Lyden, vicepresidente de inteligencia de amenazas del Trustworthy Accountability Group, quien pasó la mayor parte de su carrera en la inteligencia estadounidense.

“Tú [could] anunciar una caja de herramientas para los hombres blancos de Missouri mayores de 55 años, que son un grupo demográfico muy probable [to like] Información MAGA”, dijo Lyden. “Ese clic no es necesariamente nefasto, no parece que vayas a un sitio político, pero luego los llevas a una página de destino a través de eso”.

Con información de Digiday

Leer la nota Completa > Newsguard presenta nuevas herramientas de automatización para rastrear información errónea relacionada con las elecciones

LEAVE A REPLY

Please enter your comment!
Please enter your name here