Contraseñas IA. Suenan modernas, eficientes y hasta futuristas. Muchas personas creen que pedirle a una herramienta como OpenAI o modelos como ChatGPT, Claude o Gemini que generen una clave es más seguro que inventarla a mano. Después de todo, si la inteligencia artificial puede escribir textos complejos, programar código o analizar datos, ¿por qué no podría crear una contraseña imposible de descifrar?
La respuesta, según expertos en seguridad digital, es más incómoda de lo que parece.
El problema invisible detrás de las contraseñas IA
Durante años, el consejo fue claro: usa combinaciones largas, con letras mayúsculas, minúsculas, números y símbolos. Con la llegada de la inteligencia artificial generativa, muchos usuarios comenzaron a delegar esa tarea. El resultado aparente: claves como “K9#mPx$vL2nQ8wR”, que parecen salidas de una película de hackers.
Pero investigaciones recientes y análisis independientes han detectado algo preocupante: estas combinaciones no siempre son tan aleatorias como aparentan.
Estudios académicos publicados en repositorios como arXiv han mostrado que los modelos de lenguaje no generan entropía criptográfica real. En términos sencillos: producen secuencias que parecen complejas, pero siguen patrones lingüísticos y estadísticos aprendidos durante su entrenamiento.
Eso significa que, aunque una contraseña luzca “imposible”, puede compartir estructuras repetitivas con miles de otras generadas por el mismo sistema.

Cuando lo complejo no es realmente seguro
Un análisis realizado por la firma Irregular —y revisado por el medio británico Sky News— reveló que en una muestra pequeña de contraseñas generadas por IA, muchas se repetían o variaban apenas en algunos caracteres.
En una prueba de 50 claves, solo 23 fueron realmente únicas. Algunas combinaciones aparecieron hasta 10 veces con mínimas variaciones.
Esto no es un detalle menor. En ciberseguridad, la verdadera fortaleza de una contraseña no depende de cómo se ve, sino de su nivel de aleatoriedad. Si existe un patrón, un atacante puede diseñar herramientas para explotarlo.
Aquí está el punto crítico: los comprobadores de seguridad en línea suelen evaluar la longitud y variedad de caracteres, pero no detectan patrones subyacentes. Así, pueden decirte que tu clave tardaría millones de años en romperse… sin considerar que comparte estructura con miles de otras similares.
El riesgo se amplifica en empresas
A mitad de esta conversación sobre contraseñas IA, el problema escala cuando desarrolladores copian y pegan claves sugeridas por inteligencia artificial dentro de código real.
En plataformas de repositorios públicos como GitHub, se han encontrado fragmentos con patrones repetitivos derivados de sugerencias automáticas. Aunque en muchos casos se trata de ejemplos o marcadores temporales, el simple hecho de que aparezcan en entornos reales demuestra cómo la confianza excesiva puede abrir puertas inesperadas.
La amenaza no siempre es inmediata. A veces es silenciosa. Un atacante paciente puede analizar grandes volúmenes de datos filtrados y detectar regularidades. Si sabe cómo “piensa” un modelo de lenguaje, puede anticipar sus elecciones más probables.
¿Entonces qué sí funciona?
Expertos recomiendan volver a lo básico, pero con herramientas adecuadas. Los generadores criptográficos especializados, incluidos en gestores de contraseñas reconocidos, utilizan algoritmos diseñados específicamente para producir números verdaderamente aleatorios.
Otra opción cada vez más popular son las passkeys: sistemas de autenticación biométrica mediante huella digital o reconocimiento facial. Estas soluciones reducen la dependencia de combinaciones alfanuméricas y dificultan enormemente los ataques masivos.
Si no tienes acceso a passkeys, la recomendación más práctica es crear frases largas y memorables. Por ejemplo, una combinación de palabras sin relación directa entre sí, acompañadas de algunos símbolos. Lo importante es que no provenga de un patrón predecible ni de una sugerencia automática.
La falsa sensación de seguridad
Uno de los mayores peligros de las contraseñas IA no es técnico, sino psicológico. Dan confianza. Hacen sentir que estamos usando tecnología avanzada para protegernos.
Pero la seguridad digital no depende solo de sofisticación, sino de principios sólidos: aleatoriedad real, autenticación multifactor y actualización constante de claves.
El crecimiento de la inteligencia artificial ha sido vertiginoso. Sin embargo, no todas sus aplicaciones son adecuadas para tareas críticas. Los modelos de lenguaje están diseñados para predecir texto probable, no para generar secretos imposibles de adivinar.
Una decisión que está en tus manos
La buena noticia es que este riesgo es evitable. Cambiar una contraseña toma minutos. Activar la verificación en dos pasos puede marcar la diferencia entre una cuenta segura y una filtración costosa.
La próxima vez que pienses en pedirle a un chatbot que cree tu clave bancaria o tu acceso corporativo, recuerda que lo que parece complejo no siempre es seguro.
En un entorno donde los ataques informáticos evolucionan cada día, confiar ciegamente en las contraseñas IA puede ser un error silencioso, pero con consecuencias muy reales. La mejor defensa sigue siendo una combinación de herramientas especializadas, buenas prácticas y criterio propio.