La inteligencia artificial quedó en el centro de una nueva controversia internacional tras la denuncia de la empresa estadounidense Anthropic. La firma acusó a tres laboratorios chinos de ejecutar una campaña coordinada para replicar las capacidades de su modelo Claude mediante técnicas que calificó como ilícitas.
La inteligencia artificial se ha convertido en un terreno de competencia estratégica entre compañías y países. El señalamiento involucra a DeepSeek, Moonshot AI y MiniMax, a quienes Anthropic atribuye más de 16 millones de interacciones irregulares con su sistema.
¿Qué denunció exactamente la empresa?
Anthropic aseguró que identificó “campañas a escala industrial” destinadas a extraer conocimientos de su modelo. Según el comunicado oficial, las acciones vulneraron términos de servicio y restricciones regionales de acceso.
La inteligencia artificial fue objeto de lo que la compañía denominó “ataques de destilación”. Esta práctica consiste en entrenar un modelo menos avanzado utilizando los resultados generados por uno más sofisticado.

¿Qué es la destilación y por qué genera polémica?
La destilación es un método legítimo dentro del sector tecnológico. Se emplea para optimizar sistemas y reducir costos de entrenamiento en modelos de menor tamaño.
La inteligencia artificial, en este caso, habría sido utilizada sin autorización mediante cuentas fraudulentas y servicios de proxy. Anthropic sostiene que se ocultó la ubicación real de los usuarios para acceder masivamente al sistema sin ser detectados.
¿Cómo operó el supuesto esquema?
De acuerdo con la empresa con sede en San Francisco, los tres laboratorios utilizaron alrededor de 24 mil cuentas falsas. Estas permitieron realizar millones de consultas automatizadas al modelo Claude.
La inteligencia artificial fue sometida a patrones de uso distintos a los habituales. La firma explicó que el volumen y la estructura de los “prompts” reflejaban una extracción deliberada de capacidades más que un uso comercial legítimo.
¿Qué buscaban obtener de Claude?
El reporte indica que DeepSeek habría intentado extraer el razonamiento interno del modelo. El objetivo, según Anthropic, era desarrollar alternativas que eludieran restricciones en consultas políticamente sensibles.
La inteligencia artificial se encuentra sujeta a salvaguardas diseñadas para limitar riesgos. La compañía advirtió que replicar sus capacidades sin estos controles podría generar sistemas menos seguros y con menor supervisión ética.

¿Qué riesgos menciona la compañía?
Anthropic alertó que modelos destilados de manera ilícita podrían carecer de mecanismos para prevenir usos indebidos. Entre los riesgos citados se encuentran posibles desarrollos de armas biológicas o actividades cibernéticas maliciosas.
La inteligencia artificial, en contextos sin controles adecuados, podría representar un riesgo significativo para la seguridad nacional, según la empresa. La advertencia apunta a la necesidad de reforzar protocolos internacionales.
¿Cómo impacta esto en la competencia tecnológica?
La disputa evidencia la intensidad de la carrera global por el liderazgo en modelos avanzados. Empresas y laboratorios invierten miles de millones en investigación y entrenamiento de sistemas cada vez más potentes.
La inteligencia artificial se ha transformado en un activo estratégico. El acceso a datos, infraestructura y modelos de alto rendimiento define la posición competitiva en mercados clave.
¿Qué medidas solicita Anthropic?
La compañía pidió fortalecer mecanismos de protección contra este tipo de prácticas. Considera necesario implementar controles más estrictos para evitar accesos masivos no autorizados.
La inteligencia artificial requiere marcos regulatorios claros y cooperación internacional. Anthropic señaló que la industria debe actuar de forma coordinada para evitar que la destilación ilícita erosione la innovación.

¿Qué papel juega Claude en esta controversia?
Claude es uno de los modelos más avanzados desarrollados por Anthropic. Está diseñado para ofrecer respuestas con altos estándares de seguridad y alineación ética.
La inteligencia artificial representada por Claude incorpora salvaguardas destinadas a reducir riesgos en ámbitos sensibles. La posible extracción de su arquitectura interna preocupa por el uso que terceros puedan darle.
¿Cómo se detectaron las interacciones irregulares?
La empresa explicó que el análisis de patrones permitió identificar anomalías. El volumen y la frecuencia de consultas no coincidían con comportamientos típicos de clientes o desarrolladores.
La inteligencia artificial puede registrar métricas detalladas de uso. Estas herramientas facilitaron rastrear la actividad y vincularla con cuentas que operaban de manera coordinada.
¿Qué implicaciones tiene para usuarios y desarrolladores?
El caso subraya la importancia de proteger sistemas avanzados frente a intentos de replicación indebida. También pone en foco la responsabilidad de las compañías en garantizar entornos seguros.
la inteligencia artificial seguirá siendo un eje central de innovación y debate. Las tensiones entre competencia, ética y regulación marcarán el rumbo de la industria en los próximos años.


TE PODRÍA INTERESAR