OpenAI prohíbe cuentas vinculadas a campañas maliciosas desde China utilizando inteligencia artificial

TecnologíaInteligencia artificial

OpenAI prohíbe cuentas vinculadas a campañas maliciosas desde China utilizando inteligencia artificial

OpenAI ha tomado medidas contundentes contra cuentas chinas asociadas a campañas maliciosas que utilizan inteligencia artificial para difundir desinformación.

Descripción

OpenAI ha confirmado recientemente la identificación de un conjunto de cuentas involucradas en campañas maliciosas, lo que ha resultado en la prohibición de los usuarios responsables. Las cuentas implicadas en las campañas denominadas ‘Peer Review’ y ‘Sponsored Discontent’ probablemente provienen de China y, según OpenAI, “parecen haber utilizado, o intentado utilizar, modelos desarrollados por OpenAI y otro laboratorio de inteligencia artificial estadounidense en relación con una aparente operación de vigilancia y para generar artículos en español con retórica antiestadounidense”.

La inteligencia artificial ha facilitado un incremento en la desinformación y ha sido utilizada por actores maliciosos para interrumpir elecciones y socavar democracias, especialmente en naciones inestables o políticamente divididas. Las campañas respaldadas por estados han aprovechado esta tecnología a su favor.

En el marco de la campaña ‘Peer Review’, se utilizó ChatGPT para generar “descripciones detalladas, consistentes con discursos de ventas, de una herramienta de monitoreo de redes sociales que, según alegaban, habían utilizado para proporcionar informes en tiempo real sobre protestas en Occidente a los servicios de seguridad chinos”, confirmó OpenAI. Como parte de esta campaña de vigilancia, los actores de amenaza utilizaron el modelo para “editar y depurar códigos y generar materiales promocionales” para herramientas de monitoreo de redes sociales sospechosas de estar impulsadas por inteligencia artificial, aunque OpenAI no pudo identificar publicaciones en redes sociales relacionadas con la campaña.

Las cuentas de ChatGPT participantes en la campaña ‘Sponsored Discontent’ fueron utilizadas para generar comentarios en inglés y artículos de noticias en español, consistentes con un comportamiento de ‘spamouflage’, utilizando principalmente retórica antiestadounidense, probablemente con el objetivo de provocar descontento en América Latina, específicamente en Perú, México y Ecuador.

No es la primera vez que se identifican actores respaldados por el estado chino utilizando tácticas de ‘spamouflage’ para difundir desinformación. A finales de 2024, se descubrió una campaña de influencia china dirigida a votantes estadounidenses que empleaba miles de imágenes y videos generados por inteligencia artificial, en su mayoría de baja calidad y conteniendo información falsa.