En una campo propia de una serie distópica, en 2025 hemos trillado cómo una empresa ha llegado a un acuerdo millonario con un país, Israel, para manipular las respuestas de ChatGPT, un ejemplo comercial de una tendencia de desinformación al acrecentamiento, como han demostrado varias investigaciones este año.

Se alcahuetería de una nueva grado de las campañas de desinformación sobre las que ha alertado el Servicio Europeo de Acción Exterior (SEAE), que señala a Rusia como la principal amenaza.

“Hoy, Moscú no se limita a difundir narrativas adaptadas a sus lectores, sino que el objetivo de sus redes de desinformación son también las máquinas, una estrategia cada vez más relevante dado que muchos usuarios están sustituyendo las búsquedas de Google por herramientas de inteligencia artificial como ChatGPT”, afirma el servicio diplomático de la Unión Europea en un artículo flamante.

En este contexto, diferentes investigadores han analizado los intentos de la red Pravda («verdad» en ruso) de manipular chatbots de inteligencia fabricado, aunque no es el único actor conocido.

Propaganda y negocios

El ejemplo citado al inicio de esta información hace remisión a la empresa estadounidense Clock Tower

Como se desprende del anuencia registrado por la Administración estadounidense, los servicios incluyen la creación de sitios web destinados a influir en aplicaciones de IA, encima de otras acciones en diferentes medios y redes sociales.

La manipulación de herramientas conversacionales de IA nos permite alcanzar a una audiencia masiva porque los generadores de inteligencia fabricado reciben aproximadamente de 7 mil millones de visitas mensuales en todo el mundo, de las cuales ChatGPT representa el 80 por ciento, según la empresa de estudio del tráfico de Internet Similarweb.

“Me temo que los creadores de desinformación se han dado cuenta de que estos sistemas conversacionales basados ​​en IA pueden convertirse en un vector adicional para inocular sus discursos”, explica en declaraciones a EFE Verifica el coordinador del Observatorio Ibérico de Medios Digitales (Iberifier), Ramón Salaverría, sobre la creciente influencia de los chatbots.

El igualmente catedrático de Periodismo en la Universidad española de Navarra advierte de que estas manipulaciones “tienen un potencial nocivo muy grande”.

Multiplica las falsedades para alcanzar a los bots

La técnica consiste en inundar Internet con información errónea para que sea detectada e incorporada por los chatbots.

El método se denomina en inglés LLM Grooming (Manipulación de modelos lingüísticos grandes), según el término acuñado por la estructura estadounidense Sunlight Project.

En diferentes estudios, este conjunto de investigación y NewsGuard, empresa que evalúa la fiabilidad de las noticiero online, han expuesto cómo funciona.

La red Pravda, presente en medio centenar de países en decenas de idiomas, produjo al menos 3,6 millones de artículos a través de 150 dominios en 2024, lo que equivale a una media de 20.273 publicaciones cada dos días.

La manipulación se centra en tokens, las unidades fundamentales de texto que los modelos de IA utilizan para procesar el estilo, que pueden ser «tan pequeños como un solo carácter o tan grandes como una palabra entera», explica NewsGuard.

Esto aumenta la probabilidad de que la inteligencia fabricado genere o cite estas narrativas falsas.

Además, los desinformadores utilizan estrategias de optimización de motores de búsqueda (SEO) para la IA.

Impacto demostrado

El estudio de NewsGuard, publicado en marzo, encontró que en el 33 por ciento de las consultas, los diez chatbots examinados –incluidos ChatGPT, Gemini y Grok– replicaban engaños difundidos por Pravda.

Siete de los diez chatbots citaron directamente a la red como la supuesta fuente legítima de información.

Incluso al desacreditar una afirmación falsa, algunas de las respuestas incluyeron artículos de Pravda en sus listas de fuentes.

La propaganda de esta red en las aplicaciones igualmente está presente en idiomas como el finlandés, sueco, danés y noruego, según las conclusiones de una investigación propia del centro Nordis del Observatorio Europeo de Medios Digitales (EDMO, por sus siglas en inglés).

Su impacto llega igualmente a Wikipedia, tal y como explica un estudio del laboratorio estadounidense de investigación forense digital, DFRLab, y la estructura finlandesa Check First.

Casi 2.000 artículos de Pravda estaban presentes en esta enciclopedismo colaborativa en ruso y ucraniano, poco «particularmente preocupante» adecuado al «importante papel que desempeña Wikipedia como fuente primaria de conocimiento» para los bots, indica el documentación.

Por otro flanco, sin que se haya establecido un vínculo con el objetivo de manipular aplicaciones de IA, las narrativas pro-Kremlin han llegado a otros ámbitos con el prestigio de ser fuentes de autoridad.

Salaverría explica que en la investigación académica, especialmente en las ciencias políticas y sociales, hemos comenzado a notar “la multiplicación de estudios alineados con la propaganda prorrusa”, que “en ocasiones terminan viendo la luz en revistas académicas internacionales”.

“Creo que el mundo científico debería estar alerta sobre este peligro”, advierte.

Sergio Hernández y Angélica Rodríguez