
Ministro Benedetti denuncia infiltración de Pegasus en su celular
3 diciembre, 2025
Kevin Cataño, el golero revelación en el Torneo del Ascenso: el juvenil fue la gran figura en la final ante Cúcuta
3 diciembre, 2025La Inteligencia Artificial se ha convertido en un pilar de la ciberseguridad moderna, tanto para prevenir amenazas como para detectar ataques en tiempo real. Sin embargo, esta misma tecnología también puede ser manipulada y usada como vector para comprometer a los usuarios. ESET, empresa líder en detección proactiva de amenazas, advierte sobre PromptFix, una peligrosa variante del prompt injection que puede transformar a los asistentes de IA en herramientas para ejecutar acciones maliciosas sin que el usuario lo note.
PromptFix está diseñada especialmente para engañar a los asistentes integrados en navegadores mediante instrucciones ocultas. Este método permite que la IA interactúe con páginas maliciosas o sitios de phishing sin que el usuario lo autorice. Surge como una evolución de ClickFix, técnica que se basa en manipular a las personas para que hagan clic en verificaciones falsas con el fin de activar acciones dañinas. Los expertos advierten que esta nueva modalidad apunta a engañar directamente a los asistentes de IA, no al usuario.
Martina Lopez, investigadora de Seguridad Informática de ESET Latinoamérica, explicó que los atacantes pueden insertar órdenes invisibles dentro de contenido aparentemente legítimo para que la IA ejecute tareas sin consentimiento del usuario, como descargar archivos infectados, abrir enlaces fraudulentos o pulsar botones ocultos que simulan procesos de verificación.
Para que un ataque PromptFix funcione, los cibercriminales se encargan de esconder instrucciones maliciosas en sitios web comprometidos o en plataformas que controlan, incluyendo comentarios en redes sociales como Reddit o Facebook. Utilizan métodos como texto invisible, comentarios HTML, mensajes incrustados en imágenes o instrucciones camufladas en documentos que no muestran alteraciones visibles. Estas técnicas permiten que los comandos pasen desapercibidos para los usuarios, pero no para los modelos de IA.
El riesgo se materializa cuando una persona usa un asistente de IA del navegador para resumir o analizar contenido dentro de un sitio comprometido. El modelo procesa toda la información disponible, incluidas las instrucciones encubiertas, interpretándolas como solicitudes legítimas. Esto puede provocar que la IA abra enlaces fraudulentos, inicie descargas o active mecanismos diseñados para vulnerar al usuario. La IA puede ejecutar acciones peligrosas sin que la víctima lo note.
Entre las consecuencias más graves se encuentran la descarga de malware, la evasión automática de controles de seguridad mediante clics ocultos y la exposición de credenciales al seguir enlaces de phishing.
Ante esta amenaza en crecimiento, ESET recomienda adoptar una serie de prácticas para reducir los riesgos:
- Evitar acciones automáticas: cualquier intento de la IA de hacer clic, enviar archivos o completar formularios debe requerir aprobación explícita.
- Limitar la autonomía del asistente: no permitir que navegue libremente, acceda a contraseñas o utilice funciones de autocompletado.
- Analizar imágenes y archivos antes de procesarlos: los ciberatacantes pueden ocultar instrucciones dentro de estos elementos; un filtro previo ayuda a detectar anomalías.
- Usar listas de sitios confiables: el asistente solo debería interactuar con portales validados; los enlaces sospechosos deben bloquearse y pedir autorización del usuario.
A medida que los asistentes de IA se integran más profundamente en la vida digital, comprender estas tácticas y reforzar los hábitos de seguridad se vuelve indispensable. La prevención sigue siendo la mejor defensa ante ataques que evolucionan al ritmo de la tecnología.
Sala Digital Colmundo




