Contexto del enfrentamiento
Anthropic, la empresa detrás del modelo de IA Claude, demandó al gobierno federal tras ser marcada por el Departamento de Defensa como un riesgo en la cadena de suministro. Esa etiqueta llegó después de que Anthropic intentara limitar cómo el Ejército puede emplear su tecnología.
Lo que dijo la jueza
La jueza federal Rita Lin declaró en audiencia que la actuación del Pentágono “parece un intento de paralizar a Anthropic”. Añadió que, si la etiqueta fue impuesta como castigo por haber planteado dudas públicas sobre el contrato, eso podría vulnerar la Primera Enmienda de Estados Unidos.
Qué pide Anthropic y qué puede decidir la jueza
Anthropic solicita una orden temporal que suspenda la designación mientras se resuelve el pleito. La compañía busca así ganar tiempo y tranquilizar a clientes que han mostrado dudas tras la etiqueta. La jueza solo puede conceder esa suspensión si considera que Anthropic tiene probabilidad de ganar el caso principal. Se espera su decisión sobre la medida en los próximos días.
La postura del Departamento de Defensa
El Departamento de Defensa defiende su decisión. Afirma que siguió los procedimientos establecidos y que llegó a la conclusión de que las herramientas de Anthropic no eran confiables para momentos críticos. Por eso pidió a la jueza que no cuestione su evaluación sobre la supuesta amenaza a la seguridad nacional.
Durante la audiencia, el abogado del gobierno, Eric Hamilton, dijo que la preocupación es que Anthropic, en lugar de limitarse a expresar objeciones, podría manipular el software para que no funcione como el Departamento espera o necesita.
Cuestiones que inquietan a la jueza
La jueza Lin comentó que corresponde al secretario de Defensa, Pete Hegseth, decidir si Anthropic sigue siendo proveedor del departamento. Sin embargo, su papel es determinar si el secretario se excedió al tomar medidas que van más allá de cancelar contratos. Le resultó preocupante que la designación y las directivas que limitan el uso gubernamental de Claude no parezcan estar ajustadas únicamente a motivos de seguridad nacional.
Una medida potente y poco común
- Lin señaló que la etiqueta de riesgo en la cadena de suministro es una herramienta poderosa y que normalmente se reserva para adversarios extranjeros, terroristas u otros actores hostiles.
- El abogado de Anthropic, Michael Mongan, calificó de extraordinario que el gobierno emplee esa etiqueta contra un socio que fue, según él, simplemente un negociador difícil.
El mensaje público y el alcance real
El secretario Hegseth anunció en una red social que, de inmediato, ningún contratista, proveedor o socio que haga negocios con el Ejército podría realizar actividad comercial con Anthropic. En la audiencia, el abogado Hamilton reconoció que Hegseth no tiene la autoridad legal para prohibir a contratistas militares usar Anthropic en trabajos que no pertenezcan al Departamento de Defensa. Cuando la jueza le preguntó por qué se publicó ese mensaje, la respuesta fue: “No lo sé”.
Reemplazos y control durante la transición
El Pentágono afirma que sustituirá las tecnologías de Anthropic en los próximos meses por alternativas de Google, OpenAI y xAI, y que ha implementado medidas para evitar manipulaciones durante la transición. Hamilton dijo que no sabía si Anthropic podría actualizar sus modelos sin permiso del Departamento; Anthropic sostiene que sí puede hacerlo sin autorización externa.
Próximos pasos procesales
Además de la causa en San Francisco, hay otro caso en el tribunal federal de apelaciones en Washington, D. C. que podría resolverse pronto sin audiencia adicional. La decisión sobre la suspensión temporal en la corte de San Francisco se espera en los próximos días.
Resumen: el conflicto subraya un choque mayor entre la industria de IA y el uso militar de esas herramientas. La jueza Lin cuestiona si el Pentágono se pasó al aplicar una medida drástica, y ahora queda en manos del tribunal decidir si esa etiqueta debe quedar temporalmente en pausa mientras se examina el fondo del asunto.