El choque entre Anthropic y el Pentágono ha vuelto a poner sobre la mesa una pregunta incómoda: ¿para qué se puede usar la IA y qué límites no se cruzan? Lo curioso es que la respuesta de las grandes tecnológicas hoy suena muy distinta a la de hace menos de diez años.
Demanda, listas negras y dos líneas rojas
Hace unos días Anthropic demandó al Departamento de Defensa de Estados Unidos. La empresa alega que ser excluida de contratos gubernamentales viola su derecho bajo la Primera Enmienda. El pleito es la culminación de meses de pulso entre la compañía y el Pentágono, centrado en impedir que su modelo de IA se use para vigilancia masiva interna o para armas letales completamente autónomas.
Anthropic sostiene que aceptar la fórmula del gobierno de permitir "cualquier uso legal" de su tecnología iría contra sus principios fundacionales de seguridad y dejaría la puerta abierta al abuso. En otras palabras, marca unas líneas éticas que otras empresas tendrán que decidir si respetan o no.
De las protestas a los contratos militares
Varios factores han empujado a la industria hacia una mayor colaboración con lo militar. La cercanía de muchas compañías con la administración de Donald Trump, señales públicas de apoyo de ejecutivos, el interés del gobierno en introducir IA en agencias federales y la presión geopolítica frente a China han creado una combinación difícil de ignorar. Para las empresas, además, hay una ventaja práctica: contratos que pueden pagar durante años.
No siempre fue así. En 2018 miles de empleados de Google protestaron por un proyecto para analizar imágenes de drones para el Pentágono llamado Project Maven. Aquella carta abierta afirmaba: "Creemos que Google no debe participar en la guerra". Google decidió no renovar ese contrato y publicó políticas que prohibían desarrollar tecnologías que pudieran causar daño directo a personas.
Pero las cosas cambiaron. En los años siguientes Google modificó sus políticas, limitó la acción sindical interna y firmó acuerdos que permiten el uso militar de sus productos. Hubo despidos de empleados que protestaron por los lazos de la empresa con gobiernos extranjeros y memorandos internos recordando que la compañía es un negocio.
Hoy Google ofrece su sistema de IA para que el sector público cree agentes que trabajen en proyectos no clasificados para gobiernos. OpenAI, que también tuvo restricciones anteriormente, se ha acercado al aparato militar: su equipo ha colaborado con programas militares de innovación y la empresa firmó contratos con el Pentágono junto a otras compañías por decenas de millones de dólares. En la misma ventana en la que Anthropic fue señalada como riesgo de la cadena de suministro, OpenAI cerró un acuerdo que permite usar su tecnología en sistemas militares clasificados.
Mientras tanto, empresas más beligerantes como Anduril y Palantir han hecho del vínculo con el Pentágono el eje de su negocio. Palantir trabajó con inteligencia militar años atrás para mapear explosivos enterrados y su director ha escrito a favor de una integración más estrecha entre la industria tecnológica y las fuerzas armadas. Tras la retirada de Google del Project Maven, Palantir asumió el programa, que hoy sirve de acceso a algunas versiones de modelos de IA según informes.
Anthropic en el centro del conflicto
Aunque Anthropic ha recibido elogios públicos por su postura, su cofundador Dario Amodei ha señalado que la empresa y el gobierno comparten objetivos en muchos aspectos. Amodei ha advertido sobre riesgos graves de la IA, como la posible creación de bioweapons y el uso malicioso por parte de estados autoritarios, y ha defendido que las democracias se armen tecnológicamente frente a esos desafíos.
Su preocupación no es tanto que la IA facilite matar personas, sino que la tecnología no sea fiable y que su control quede en manos de muy pocos con capacidad de accionar sistemas autónomos peligrosos. Amodei sostiene que está bien usar IA para defensa nacional, excepto en casos que nos conviertan en aquello contra lo que pretendemos competir, como la vigilancia masiva y las armas totalmente autónomas.
En la práctica, Anthropic ha mostrado disposición a trabajar con el Pentágono, pero con límites. La demanda de la empresa explica que Anthropic impone menos restricciones al uso militar de su modelo que a clientes civiles, y que la versión gubernamental, conocida como Claude Gov, es menos dada a negar solicitudes relacionadas con documentos clasificados, operaciones militares o análisis de amenazas.
Según reportes, el gobierno ha usado Claude para selección de blancos y análisis en una campaña de bombardeos contra Irán. Anthropic no ha indicado públicamente que esté en contra de ese uso. Amodei ha dicho que la compañía no participa en decisiones operativas y que su intención es apoyar a los soldados en el terreno, manteniendo al mismo tiempo dos límites claros: no vigilancia masiva doméstica y no armas autónomas letales.
Qué nos deja este conflicto
- La relación entre la IA y lo militar ya no es un tabú para la mayoría de las grandes empresas tecnológicas.
- Protestas internas que antes marcaban la línea ahora se enfrentan a presiones comerciales y geopolíticas.
- Algunas empresas intentan definir límites técnicos y legales, pero la práctica muestra que esos límites pueden variar según el cliente.
La disputa Anthropic-Pentágono es más que un pleito legal. Es un espejo del cambio cultural dentro del sector tecnológico: lo que hace diez años era impensable hoy se negocia contrato a contrato. Si te interesa quién decide dónde trazar la línea, la respuesta está en esa negociación, y en cuánto están dispuestas a ceder las empresas cuando hay dinero y poder de por medio.