
Crisis y controversia en el inicio de la carrera legislativa de 2026: el CNE revoca candidaturas y sacude el tablero político
5 febrero, 2026
Secuestro de personal de salud en Teorama sacude al Catatumbo en medio de operaciones militares
5 febrero, 2026La organización internacional UNICEF emitió este miércoles una advertencia sobre la creciente utilización de tecnologías de inteligencia artificial (IA) para generar imágenes, videos y audios falsos, conocidos como deepfakes, que sexualizan a niños y niñas. El organismo calificó este fenómeno como un “abuso real”, aun cuando los contenidos no sean auténticos, y llamó a actualizar los marcos legales y las medidas de protección digital para enfrentar esta amenaza.
Un informe conjunto de UNICEF, la red global ECPAT e INTERPOL revela que al menos 1,2 millones de menores en 11 países han tenido sus imágenes manipuladas en contenido explícito generado con IA en el último año, una proporción que equivale a uno de cada 25 niños, similar a un estudiante por cada salón de clases.
Los deepfakes son imágenes o grabaciones generadas o alteradas mediante IA para que parezcan reales. UNICEF advirtió que estas herramientas se están usando de manera creciente para producir contenido sexualizado de menores, incluido un proceso conocido como “nudificación”, en el cual se elimina o modifica digitalmente la ropa de una persona para crear una imagen falsa de desnudez.
Aunque los materiales generados no se basen en hechos reales, la agencia subraya que el daño para los menores es concreto y profundo, pues la mera existencia y circulación de estas imágenes puede afectar su integridad, reputación y bienestar emocional.
Además, UNICEF señala que estos deepfakes pueden contribuir a normalizar la explotación sexual infantil, dificultar las investigaciones y plantear retos legales y éticos en la era digital.

Preocupación de los niños y respuestas globales
Datos del estudio muestran que, en muchos de los países analizados, hasta dos terceras partes de los niños y niñas expresaron preocupación por la posibilidad de que alguien use su fotografía para crear contenido falso y degradante, particularmente en redes sociales y plataformas digitales.
En respuesta a esta problemática, algunos gobiernos han comenzado a tomar medidas legales. En España, por ejemplo, se presentó un anteproyecto de ley para tipificar los deepfakes con sanciones de prisión de uno a dos años, mientras que en Estados Unidos entró en vigor la Ley de Eliminación de Imágenes Explícitas, que obliga a plataformas tecnológicas a retirar contenidos explícitos no autorizados, incluidos los generados por IA, dentro de las 48 horas siguientes a su notificación.
Casos recientes también han puesto el tema en el centro del debate público. El asistente de IA Grok, propiedad de la red social X, generó críticas y bloqueos en países como Indonesia y Malasia tras la difusión de imágenes sexualizadas de mujeres y menores, lo que llevó a que su acceso a ciertas funciones fuera restringido a usuarios con suscripción paga.
UNICEF instó a los gobiernos a ampliar las definiciones legales de material de abuso sexual infantil para incluir contenido generado por IA y a criminalizar la creación, posesión y distribución de este tipo de materiales. Asimismo, pidió a los desarrolladores de IA implementar enfoques de seguridad desde el diseño y a las empresas digitales fortalecer la moderación de contenido mediante tecnologías de detección más eficaces.
La agencia concluyó que, aunque los avances tecnológicos ofrecen beneficios, la ausencia de salvaguardas robustas y una regulación adecuada deja a los menores vulnerables frente a nuevas formas de abuso digital, lo que demanda una acción coordinada y urgente a nivel global.
Paola Andrea Martínez Burgos




