Latinoamérica abraza la inteligencia artificial, pero ignora los riesgos
En el corazón digital de Latinoamérica, un fenómeno se expande con fuerza: la inteligencia artificial se ha convertido en una compañera cotidiana para millones de personas. Desde estudiantes que la usan para hacer tareas hasta trabajadores que optimizan procesos, pasando por usuarios que simplemente le preguntan cómo hacer huevos revueltos, el uso de plataformas como ChatGPT, Perplexity, Deepseek o Gemini de Google se ha vuelto parte del día a día. Sin embargo, tras este uso masivo se esconde una preocupante tendencia: la mayoría no verifica la información que recibe, ni protege su privacidad.
Ocho de cada diez latinoamericanos usan IA a diario
Una encuesta realizada por ESET, empresa especializada en ciberseguridad, reveló que el 80% de los internautas en Latinoamérica utiliza inteligencia artificial con regularidad. De ese total, el 45% lo hace frecuentemente y el 35% de manera ocasional. Las cifras reflejan una adopción tecnológica veloz y entusiasta, pero también un uso ingenuo. El entusiasmo no se traduce en conciencia, y los errores están comenzando a salir a la luz.
El caso Mery Caldass: una historia viral que encendió las alarmas
Uno de los ejemplos más virales de los últimos meses es el de Mery Caldass y su pareja, creadores de contenido sobre viajes y estilo de vida. Tras consultar a ChatGPT sobre los requisitos migratorios para visitar Puerto Rico, tomaron una decisión errónea: no llevar ciertos documentos. ¿El resultado? Perdieron su vuelo. Este caso ilustra lo que ESET considera un problema creciente: confiar ciegamente en la IA sin verificar las fuentes.
Más del 50% no verifica lo que lee
La encuesta reveló que un alarmante 55% de los usuarios no verifica las respuestas que recibe de las IA. El 14% admite que nunca lo hace y un 3% apenas lo hace a veces. Esto implica que millones de personas están tomando decisiones —algunas incluso legales, financieras o de salud— basadas en datos no contrastados. Como advirtió Camilo Gutiérrez Amaya, jefe del laboratorio de ESET para Latinoamérica: “La IA puede entregar información certera, pero también puede equivocarse o estar sesgada”.
Ciberataques y manipulación de respuestas: el lado oscuro de la IA
Uno de los riesgos más inquietantes mencionados por ESET es la posibilidad de manipulación de los modelos de IA mediante técnicas avanzadas, conocidas como prompt injection. A través de comandos maliciosos, un atacante puede inducir a la IA a generar respuestas falsas, inseguras o peligrosas. Esto podría ser usado para difundir desinformación, estafas, o incluso generar daño físico en casos extremos. Y con millones de usuarios confiando ciegamente en la información, el campo de juego para los ciberdelincuentes está abierto.
¿Y los datos personales? Nadie lee las letras pequeñas
La seguridad no solo está en lo que leemos, sino en lo que entregamos. El 40% de los encuestados compartió que ha introducido información personal o laboral en chats de IA. Lo hicieron creyendo que eran entornos privados, pero la realidad es otra. Muchas plataformas utilizan las conversaciones para entrenar futuros modelos, lo que significa que esa información podría ser almacenada, replicada o incluso expuesta en el futuro. Más alarmante aún, casi el 60% nunca lee las políticas de privacidad.
Contraseñas, cuentas bancarias y correos: ¿lo compartiste también?
ESET fue clara en su advertencia: nunca se deben introducir datos como contraseñas, números de tarjetas de crédito, direcciones personales o detalles laborales sensibles en estos chats. Lo que parece una simple pregunta o contexto para una consulta podría quedar registrado en una base de datos usada para entrenar nuevos modelos. Y si bien las empresas detrás de las IA aseguran tener protocolos de seguridad, la mejor defensa sigue siendo la precaución del usuario.
La privacidad como responsabilidad personal
El gran reto no está en apagar la IA o temerle, sino en aprender a usarla. Revisar las políticas de privacidad, entender las configuraciones, saber qué se guarda, cómo y con quién se comparte, son pasos fundamentales. Además, es esencial tener hábitos como cerrar sesiones, borrar historiales, no usar nombres reales en plataformas abiertas y, sobre todo, no confiar ciegamente en ninguna respuesta sin validarla con fuentes oficiales.
El futuro de la IA en Latinoamérica: optimismo con advertencias
A pesar de todo, el panorama no es sombrío. El 80% de los encuestados ven la IA como algo positivo. El 43% reconoce que será muy útil en los próximos años, aunque acepta que vienen acompañados riesgos. Entre las principales preocupaciones destacan el aumento de fraudes, la proliferación de noticias falsas, el debilitamiento de la privacidad y la dependencia excesiva a herramientas automatizadas.
Hacia un uso más crítico, informado y seguro
Como concluye ESET, el futuro de la inteligencia artificial no está en manos de las empresas tecnológicas, sino de los usuarios. Aprender a usarla de forma responsable, crítica y segura será la clave para aprovechar sus beneficios sin caer en sus trampas. No se trata de apagar el futuro, sino de encender la conciencia. La IA no es infalible, pero puede ser poderosa si sabemos cómo, cuándo y por qué usarla.


TE PODRÍA INTERESAR