Le bras de fer entre Anthropic et le ministère de la Défense américain a pris une tournure judiciaire avec des accusations sérieuses. Lors d'une audience mardi, la juge fédérale Rita Lin a estimé que la décision du Pentagone de désigner Anthropic comme un risque pour la chaîne d'approvisionnement ressemblait à une tentative de punition, peut-être illégale.

Ce qui a mené à l'affrontement

Anthropic avait demandé des limites sur l'utilisation de son intelligence artificielle par l'armée. En réaction, l'administration a classé la société comme un risque de sécurité. Anthropic a alors déposé deux plaintes fédérales, affirmant que cette désignation constituait des représailles illégales.

L'entreprise cherche une ordonnance temporaire pour suspendre la désignation. Si la juge accorde cette mesure, cela pourrait rassurer certains clients inquiets et leur permettre de rester avec Anthropic le temps que l'affaire soit tranchée. La juge ne peut suspendre la désignation que si elle estime qu'Anthropic a de fortes chances de gagner le procès principal. Une décision sur l'injonction est attendue dans les prochains jours.

Les arguments de la défense

Le ministère de la Défense soutient qu'il a suivi les procédures et que ses évaluations sont justifiées. Selon ses avocats, Anthropic pourrait, en poussant trop loin ses objections, altérer le logiciel de manière à empêcher son fonctionnement conforme aux attentes du département en situations critiques. Un avocat du gouvernement a résumé ce point en expliquant la crainte que l'entreprise manipule le logiciel pour le rendre incompatible avec les besoins militaires.

Ce que Rita Lin a trouvé problématique

La juge Lin a reconnu que c'était au secrétaire à la Défense, Pete Hegseth, de décider si Anthropic est un fournisseur approprié. Mais elle a aussi dit que son rôle était d'examiner si le secrétaire avait violé la loi en faisant plus que simplement annuler des contrats. Elle a jugé « inquiétant » que la désignation et les directives limitant l'usage de l'outil Claude par des sous-traitants ne semblent pas spécifiquement adaptées aux préoccupations de sécurité affichées.

  • Point soulevé par la juge : la désignation ressemble à une mesure punitive plutôt qu'à une réponse ciblée à un risque de sécurité.
  • Réponse du gouvernement : il affirme agir pour protéger des opérations critiques et remplacer progressivement les technologies concernées.

Le message public et ses limites

Le secrétaire à la Défense a posté sur le réseau social connu sous le nom X une interdiction générale : aucun contractant, fournisseur ou partenaire faisant affaire avec l'armée ne devrait mener d'activités commerciales avec Anthropic. Lors de l'audience, l'avocat du gouvernement a admis que M. Hegseth n'avait pas l'autorité légale pour empêcher des entreprises de travailler avec Anthropic sur des projets sans rapport avec le département et a dit ne pas savoir pourquoi le message avait été publié.

Conséquences pratiques et juridiques

Le Pentagone affirme travailler à remplacer les technologies d'Anthropic dans les prochains mois par des solutions de Google, OpenAI et xAI. Il affirme également avoir pris des mesures pour empêcher toute manipulation pendant la transition. L'avocat du gouvernement a dit ignorer si Anthropic pouvait mettre à jour ses modèles sans l'accord du Pentagone. Anthropic affirme de son côté qu'il peut procéder aux mises à jour.

Par ailleurs, une autre décision liée à cette affaire est attendue prochainement devant la cour d'appel fédérale de Washington, DC, sans audience prévue.

En résumé, le litige oppose la sécurité nationale alléguée et des revendications sur la liberté d'expression et les représailles. La juge Lin semble prête à examiner si l'action du ministère a dépassé ce qui est légalement permis. La suite devrait tomber sous peu, et le résultat aura des conséquences pour la relation entre l'industrie de l'IA et les forces armées.