martes, febrero 3, 2026

Filtración en Moltbook expone millones de datos y sacude la confianza en la IA

Una filtración en Moltbook dejó expuestos correos, tokens y mensajes privados, revelando los riesgos de crear plataformas de IA sin seguridad sólida.

La filtración en Moltbook no solo encendió alertas en la comunidad tecnológica, también dejó una pregunta incómoda flotando en el aire: ¿qué tan seguras son las plataformas construidas casi por completo con inteligencia artificial? Lo que comenzó como una propuesta futurista —una red social donde los protagonistas son agentes de IA— terminó convirtiéndose en un recordatorio brutal de que la innovación sin controles puede salir muy caro.

Durante semanas, Moltbook fue celebrada como un experimento audaz. Se presentaba como la “portada del internet de agentes”, un espacio donde inteligencias artificiales interactúan, publican y ganan reputación mediante un sistema de karma. La idea fascinó a desarrolladores, investigadores y entusiastas de la IA. Incluso figuras influyentes del sector destacaron su potencial. Pero detrás del entusiasmo, la infraestructura escondía una fragilidad crítica.

Qué ocurrió en la filtración en Moltbook

El especialista en seguridad Jamieson O’Reilly descubrió que la base de datos de Moltbook estaba completamente expuesta debido a un error de configuración. Sin necesidad de credenciales avanzadas, cualquier persona podía acceder, leer y modificar información sensible. No se trataba de una vulnerabilidad teórica, sino de una puerta abierta de par en par.

La causa principal fue la exposición de una clave API de Supabase directamente en el código JavaScript del cliente. Esto otorgaba permisos de lectura y escritura totales sobre la base de datos. En cuestión de minutos, los investigadores confirmaron la magnitud del problema: más de 1,5 millones de tokens de autenticación, decenas de miles de correos electrónicos y mensajes privados almacenados sin cifrado adecuado.

Filtración en Moltbook
Filtración en Moltbook

Qué es Moltbook y por qué se volvió tan popular

Moltbook nació con una narrativa poderosa. En lugar de usuarios humanos tradicionales, la plataforma permitía que agentes de inteligencia artificial crearan perfiles, interactuaran entre sí y construyeran reputación. Cada agente podía publicar contenido, comentar y acumular karma según su actividad.

Esta visión, casi sacada de una novela de ciencia ficción, impulsó su crecimiento acelerado. Sin embargo, esa misma rapidez fue su talón de Aquiles. El fundador reconoció que el desarrollo se realizó íntegramente con ayuda de sistemas de IA, sin escribir código manual ni realizar auditorías de seguridad profundas. El enfoque, conocido informalmente como “codificar con vibra”, priorizó lanzar rápido sobre hacerlo seguro.

Los datos que quedaron expuestos

La filtración permitió el acceso a información crítica que va mucho más allá de simples perfiles:

  • Tokens de autenticación que permitían tomar control total de cuentas
  • Claves API utilizadas por agentes de IA
  • Direcciones de correo electrónico de más de 17.000 usuarios
  • Mensajes privados entre agentes sin cifrado
  • Credenciales de terceros compartidas por mensajes directos
  • Capacidad de publicar contenido en nombre de otros agentes

Este escenario abría la puerta a suplantaciones, campañas de desinformación y estafas automatizadas con alto alcance.

La ilusión de millones de agentes

Uno de los hallazgos más llamativos fue la disparidad entre agentes y personas reales. Aunque Moltbook presumía 1,5 millones de agentes registrados, la base de datos reveló apenas unos 17.000 propietarios humanos. En promedio, cada persona controlaba decenas de agentes, sin mecanismos que verificaran su autenticidad.

Esto facilitaba la manipulación de métricas, la creación masiva de identidades falsas y la amplificación artificial de mensajes. En manos equivocadas, la plataforma podía convertirse en un arma de influencia automatizada.

Lecciones que deja la filtración en Moltbook

A mitad de este análisis, la filtración en Moltbook ya se perfila como un caso de estudio obligado. Demuestra que la inteligencia artificial puede acelerar el desarrollo, pero no sustituye prácticas básicas de seguridad. La falta de controles, cifrado y límites claros convirtió una idea innovadora en un riesgo global.

Los expertos coinciden en que cualquier plataforma tecnológica, especialmente aquellas basadas en IA, debe integrar seguridad desde el diseño. Auditorías, gestión correcta de claves, control de accesos y validación de identidades no son opcionales, son esenciales.

Moltbook aspiraba a redefinir la interacción digital entre inteligencias artificiales. Hoy, su nombre queda ligado a una advertencia clara: sin seguridad, incluso las ideas más brillantes pueden derrumbarse. Y mientras la plataforma intenta contener el daño, la filtración en Moltbook ya dejó una huella permanente en el debate sobre el futuro seguro de la IA.

Owen Michell
Owen Michell
Owen Michell es nuestro editor especializado en noticias digitales, con un profundo conocimiento en identificar tendencias y desarrollar contenido de consulta. Su experiencia en el panorama digital le permite brindar información relevante y atractiva para nuestra audiencia. Su pericia en el ámbito de las noticias digitales contribuye a la autoridad y actualidad de nuestro sitio.
VER MÁS
- Advertisment -

RELACIONADOS

TE PODRÍA INTERESAR