Los asistentes de IA abren brecha a nuevos ciberataques y robo de datos

Los asistentes de IA abren brecha a nuevos ciberataques y robo de datos

Los asistentes de inteligencia artificial (IA), cada vez más integrados en la vida cotidiana y en las plataformas digitales, se han convertido en una nueva puerta de entrada para ciberataques y robo de información personal, según advierten diversos expertos en ciberseguridad. Aunque su uso se ha extendido para automatizar tareas como comprar boletos, agendar citas o gestionar correos, su creciente autonomía también ha abierto brechas vulnerables que los piratas informáticos están empezando a aprovechar.


La nueva era de los ciberataques impulsados por IA

Los asistentes de IA, impulsados por modelos de lenguaje y chatbots conversacionales, permiten a los usuarios dar órdenes con lenguaje natural, lo que facilita la interacción. Sin embargo, esa misma capacidad también puede ser explotada para realizar “ataques de inyección”, donde comandos ocultos engañan al sistema para ejecutar acciones no autorizadas.

La startup Perplexity, especializada en inteligencia artificial, advirtió en un análisis reciente que la ciberseguridad “ya no se trata únicamente de proteger a los usuarios de hackers con habilidades técnicas avanzadas”. Ahora, cualquier persona con acceso a estas herramientas podría intentar un ataque, aprovechando fallos en los asistentes.

Según la compañía, los nuevos vectores de ataque pueden provenir de múltiples fuentes, desde enlaces infectados hasta sitios web aparentemente legítimos. Los atacantes pueden insertar instrucciones ocultas en el código o incluso dentro de textos visibles que los asistentes interpretan erróneamente.


Inyección de consultas: la vulnerabilidad del momento

Este tipo de ataques, conocidos como “inyección de consultas” o “prompt injection”, se ha convertido en la principal preocupación de los expertos. Antes, los ciberataques requerían código complejo para causar daño; ahora, basta con manipular el lenguaje que un asistente de IA interpreta.

Meta ha catalogado esta técnica como una vulnerabilidad de alto riesgo, mientras que Dane Stuckey, jefe de seguridad informática de OpenAI, la considera un “problema de seguridad no resuelto”.

Un ejemplo común ocurre cuando un usuario le pide a un asistente una acción simple —como “resérvame una habitación de hotel”— y, mediante manipulación, la instrucción se transforma en otra —“transfiere 100 dólares a esta cuenta”—. El asistente, incapaz de discernir el engaño, podría ejecutarla si tiene permisos de acción directa.

Además, estos ataques no siempre ocurren en tiempo real. Algunos comandos maliciosos pueden ocultarse en páginas web o bases de datos que los asistentes exploran automáticamente al buscar información. De esa forma, el sistema puede “infectarse” sin intervención directa del usuario.


Expertos piden precaución ante el uso masivo de asistentes

Para Marti Jorda Roca, ingeniero en la empresa española NeuralTrust, el riesgo es transversal: “El uso de la IA presenta peligros específicos de seguridad, y las empresas deben instalar salvaguardas que encuadren estos riesgos”. Advierte que tanto los desarrolladores como los usuarios deben mantener una vigilancia constante y evitar otorgar permisos excesivos a los asistentes.

Desde la firma israelí Check Point, Eli Smadja coincide en que los modelos de lenguaje que impulsan a los asistentes —como los surgidos tras la aparición de ChatGPT— enfrentan su mayor desafío. “El gran error que veo mucho es dar al asistente de IA poder absoluto para hacer todo”, explicó. Esa falta de límites puede convertirlos en herramientas peligrosas si caen bajo influencia maliciosa.

Por su parte, el investigador en ciberseguridad Johann Rehberger, conocido como wunderwuzzi, considera que estos sistemas todavía no están lo suficientemente maduros para operar sin supervisión humana. “No podemos dejar que un asistente de IA actúe de forma autónoma por largos periodos; termina desviándose de la tarea asignada”, señaló.


Un equilibrio entre innovación y seguridad

La expansión de los asistentes de IA plantea un dilema creciente entre funcionalidad y seguridad digital. Mientras las empresas tecnológicas apuestan por asistentes más autónomos y capaces, los especialistas insisten en establecer límites claros y protocolos de protección más estrictos.

El riesgo, explican, no solo radica en el robo de datos personales, sino también en la manipulación de información crítica o la ejecución de transacciones no autorizadas. Por ello, se recomienda no vincular cuentas financieras ni otorgar accesos amplios a asistentes que aún carecen de sistemas robustos de validación.

La inteligencia artificial está transformando la forma en que interactuamos con la tecnología, pero también está redefiniendo el campo de batalla digital. Los asistentes de IA, símbolo de comodidad y eficiencia, pueden convertirse —sin precauciones adecuadas— en una de las mayores amenazas para la seguridad de datos en la era moderna.


Artículo anteriorApple elimina dos aplicaciones de citas gay en China por orden del gobierno
Artículo siguienteAmérica Rangel intenta evadir disculpa pública a comunidad trans y provoca caos en el Congreso
Ian Israel Cabrera Navarro es un talentoso creador de contenido digital y profesional de la comunicación. Con 24 años y más de cuatro de experiencia, se especializa en locución, redacción de guiones para materiales audiovisuales y edición de video de alto nivel. Su enfoque claro, preciso y su compromiso con la calidad se reflejan en cada proyecto, posicionándolo como un creador que entiende y satisface las necesidades de su audiencia. Con un excelente dominio del inglés, habilidades sociales destacadas, facilidad para la oratoria y destreza en herramientas digitales, Ian es un activo invaluable para La Verdad Noticias, siempre en constante evolución y con la ambición de seguir creciendo en el ámbito de los medios digitales.
Salir de la versión móvil