La tasa a la que las plataformas de inteligencia artificial (IA) se hacen eco de informaciones falsas en sus respuestas casi se ha duplicado en un año, informó este jueves la web de análisis NewsGuard, según la cual el porcentaje ha pasado del 18 % en agosto de 2024 al 35 % este pasado agosto.
Su informe, que evalúa las diez principales herramientas de IA, evidencia que los modelos de lenguaje tratan fuentes poco fiables como si fueran creíbles y ahora obtienen información de un ecosistema en línea contaminado, "a veces sembrado deliberadamente por vastas redes de actores malintencionados, incluidas operaciones de desinformación rusas".
NewsGuard destaca que el impulso por hacer que los chatbots sean más receptivos ha provocado de forma inintencionada que sean más propensos a difundir propaganda. Según sus conclusiones, el sistema más popular, ChatGPT, proporciona datos falsos el 40 % del tiempo, el mismo porcentaje que Meta.
Los modelos con menor cuota de redifusión de información falsa son Claude (10 %) y Gemini (16,67 %), mientras que en el otro extremo se sitúan Inflection (56,67 %) y Perplexity (46,67 %). En un rango intermedio están Grok y You.com, ambos en el 33,33 %, así como Mistral y Copilot, con un 36,67 %.
NewsGuard apuntó que los principales chatbots repiten habitualmente narrativas promovidas por redes de propaganda afiliadas a Estados y disfrazadas de medios locales legítimos.
En julio de 2024, esta web de análisis detectó que, en el 32 % de los casos, los 10 modelos más destacados difundieron narrativas de propaganda extranjera vinculadas a la campaña rusa de desinformación Storm-1516.
Su informe recalcó que aunque las principales compañías de IA se han comprometido a mejorar sus sistemas y asociaciones, con alianzas que incluyen a agencias estatales de noticias, los modelos siguen fallando a la hora de proporcionar datos precisos sobre eventos actuales.
"Los actores maliciosos parecen haber reconocido esta debilidad y la están explotando al inundar el ecosistema informativo con falsedades", sostuvo la organización, que comenzó a efectuar este tipo de análisis en julio de 2024.
La mejora más notable en un año es el cambio en las tasas de no respuesta, que pasaron del 31 % en agosto de 2024 al 0 % en todos los sistemas un año después. El número de respuestas en las que se decía no tener información verificada había llegado al 86,67 % en plataformas como Gemini y al 70 % en Claude.
"Sin embargo, la mejora ha tenido un precio. Con el acceso en tiempo real a la web, los chatbots se volvieron más propensos a amplificar falsedades durante eventos de última hora, justamente cuando los usuarios —ya sean ciudadanos curiosos, lectores confundidos o actores maliciosos— son más propensos a recurrir a los sistemas de IA", añadió NewsGuard.
La web advirtió de que si no se corrige esta dinámica, se corre el riesgo de "normalizar un ecosistema informativo contaminado, donde la propaganda extranjera y otras afirmaciones falsas son validadas por las mismas herramientas en las que la gente confía para obtener noticias e información".