
Jhon Arias se abre espacio en Palmeiras: “Arias nos aporta calidad, decisión y una muy buena relación con el balón”
26 febrero, 2026
Mareos al levantarse: una señal común que no siempre debe ignorarse
26 febrero, 2026Una investigación de la empresa estadounidense OpenAI ha destapado una presunta operación de influencia y represión transnacional liderada por agentes vinculados al régimen chino, en la que se usó la inteligencia artificial de ChatGPT para coordinar y documentar acciones contra opositores políticos y líderes extranjeros, según un informe revelado este jueves. El informe expone el uso de inteligencia artificial en una presunta estrategia de represión internacional.
El caso trascendió tras un error interno: un funcionario policial chino empleó ChatGPT como una especie de diario operativo para registrar detalles de una campaña encubierta dirigida a disidentes radicados en el extranjero y a figuras políticas consideradas críticas de Beijing. La herramienta, diseñada para generar y procesar texto automatizado, funcionó involuntariamente como evidencia de la supuesta estrategia de represión. Un error dejó al descubierto registros detallados de una operación encubierta.
Según OpenAI, los documentos cargados por el usuario expusieron una red de actividades que iban más allá de simples maniobras digitales. Entre las tácticas descritas se mencionan identidades falsas, creación de documentos fraudulentos y operaciones de intimidación personalizadas, incluidas suplantaciones de funcionarios migratorios estadounidenses para amenazar a disidentes chinos que residen en Estados Unidos. Las tácticas incluían suplantación, documentos falsos e intimidación directa a disidentes en el exterior.
En otro episodio, se intentó que se eliminara la cuenta en redes sociales de un oponente político mediante la fabricación de documentación judicial estadounidense. Además, los registros sugieren que la campaña incluyó esfuerzos por manipular narrativas políticas extranjeras, como un plan para desprestigiar a la entonces primera ministra de Japón, Sanae Takaichi, en respuesta a sus comentarios sobre derechos humanos en Mongolia, plan que, según el informe, fue rechazado por ChatGPT cuando se solicitó ejecutarlo. También se habría intentado manipular narrativas políticas y desacreditar líderes extranjeros.
OpenAI detectó estas actividades y procedió a bloquear la cuenta involucrada, subrayando que el uso de la IA para tales propósitos representa un nuevo nivel de sofisticación en campañas de influencia encubierta dirigidas desde Estados autoritarios. La cuenta fue bloqueada tras detectarse el uso indebido de la herramienta.

Un nuevo frente en la rivalidad entre potencias
Expertos han definido esta filtración como un indicio de cómo las herramientas de inteligencia artificial pueden ser cooptadas por gobiernos para estrategias de control y presión más amplias, especialmente en el contexto de la competencia tecnológica y política entre China y Estados Unidos. El caso evidencia los riesgos del uso estatal de IA en la disputa geopolítica.
Ben Nimmo, investigador principal de OpenAI, describió la operación como “industrializada”, diseñada y ejecutada para desarrollar acciones simultáneas destinadas a silenciar críticas tanto dentro como fuera de las fronteras chinas, en lo que se perfila como una evolución de la represión transnacional en la era digital. La operación fue calificada como “industrializada” y orientada a silenciar voces críticas a nivel global.
El caso ha desatado debates sobre los riesgos de seguridad asociados al uso abierto de modelos de lenguaje avanzado en manos de actores estatales o maliciosos. Aunque la empresa desarrolladora reforzó sus mecanismos de detección y bloqueo, la filtración pone de manifiesto cómo herramientas de IA pueden ofrecer, sin querer, ventanas de acceso a estrategias gubernamentales secretas. La filtración reabre el debate sobre la seguridad y el control de la inteligencia artificial.
Organizaciones internacionales y expertos en derechos humanos han señalado que este tipo de incidentes plantea interrogantes sobre la protección de los disidentes políticos, la soberanía digital y la transparencia en el uso de tecnologías avanzadas por parte de gobiernos autoritarios. El episodio plantea serias preocupaciones sobre derechos humanos y soberanía digital.
Paola Andrea Martínez Burgos




