Le face à face entre Anthropic et le Pentagone a remis sur la table une question simple et gênante : jusqu'où les entreprises tech acceptent-elles que leurs outils servent dans des contextes militaires ? La réponse aujourd'hui ressemble moins à une ligne rouge immuable et davantage à une zone grise négociable.

Pourquoi ce conflit éclate maintenant

Anthropic a porté plainte contre le Département de la Défense, arguant que son exclusion des marchés publics viole ses droits au titre du Premier Amendement. L'entreprise dit vouloir empêcher que son modèle d'IA soit utilisé pour la surveillance de masse domestique ou pour des armes létales complètement autonomes. Le DoD, de son côté, demandait une clause autorisant « tout usage légal » de la technologie, ce qu'Anthropic refuse pour des raisons d'éthique et de sécurité.

Le contexte politique et industriel

Plusieurs facteurs expliquent pourquoi la tech s'est rapprochée des intérêts militaires :

  • Une proximité avec l'administration Trump, visible dans plusieurs gestes d'allégeance des dirigeants du secteur.
  • Une volonté gouvernementale d'intégrer l'intelligence artificielle dans les agences fédérales, ce qui promet des contrats rentables pour des années.
  • La concurrence géopolitique, notamment avec la Chine, et une hausse des dépenses militaires à l'international.

Ce qui a changé depuis 2018

Il y a quelques années, collaborer avec l'armée sur des technologies potentiellement dangereuses était souvent considéré comme une ligne rouge par de nombreux salariés de la tech. En 2018, des milliers d'employés ont protesté contre un projet visant à analyser des images de drones pour le DoD. À l'époque, la revendication était claire : « Google ne devrait pas être dans le business de la guerre. »

Depuis, plusieurs grandes entreprises ont évolué. Google a durci ses règles internes contre l'activisme des employés, modifié des formulations de ses principes d'IA, et signé des contrats permettant un usage militaire de ses produits. En 2024, l'entreprise a licencié plus de cinquante employés après des protestations liées à des liens militaires, et la direction a rappelé que Google est une entreprise et non un forum pour débattre de certaines questions politiques.

OpenAI aussi a quitté sa position initiale d'interdiction totale d'accès militaire avant 2024. Aujourd'hui, certains cadres coopèrent officiellement avec des structures militaires, et la société a conclu des accords avec le DoD. D'autres acteurs, comme Anduril et Palantir, ont construit leur modèle d'affaires autour des contrats de défense depuis longtemps.

Anthropic prend position, mais pas complètement

Le cofondateur d'Anthropic, Dario Amodei, a insisté publiquement sur le fait que l'entreprise et le gouvernement partagent des objectifs proches, même si leurs méthodes doivent diverger sur certains points. Dans un long texte il a exprimé des craintes réelles, comme la création de bioweapons ou l'exploitation de l'IA par des États hostiles, mais il a aussi plaidé pour équiper les gouvernements démocratiques afin de résister aux régimes autoritaires.

Sa préoccupation principale n'est pas tant que l'IA facilite la violence, mais plutôt le risque que le pouvoir technologique se concentre entre trop peu de mains capables de déclencher des systèmes autonomes dangereux. Pour Anthropic, la formulation retenue est claire, autoriser certains usages pour la défense, mais refuser ceux qui transforment les démocraties en copies des régimes autocratiques.

Les faits concrets et les ambiguïtés

Le procès montre qu'Anthropic a déjà adapté des versions de son modèle pour le gouvernement. Dans sa plainte, l'entreprise reconnaît que Claude Gov accepte des usages militaires qui seraient refusés aux clients civils, comme le traitement de documents classifiés, l'appui aux opérations militaires, ou l'analyse de menaces.

Des informations font état d'une utilisation de Claude pour la sélection de cibles et l'analyse dans une campagne de frappes contre l'Iran, utilisation pour laquelle Anthropic n'a pas publiquement exprimé d'opposition. Amodei affirme en outre que la société ne prend pas part aux décisions opérationnelles, et qu'elle soutient les forces en première ligne en leur fournissant de la technologie.

Sa ligne : l'entreprise accepte la majorité des usages demandés par le DoD, sauf deux catégories qu'elle juge inacceptables, liées à la surveillance de masse domestique et aux armes totalement autonomes.

Ce que cela signifie

Ce bras de fer illustre que la frontière entre technologie civile et applications militaires est devenue fluide. Certaines sociétés ont choisi d'embrasser ouvertement le marché de la défense, d'autres tentent de poser des limites éthiques, et plusieurs jouent les deux rôles selon les versions de leurs produits et leurs interlocuteurs.

Pour le grand public, cela veut dire qu'il faut regarder de près les engagements des entreprises, et ne pas considérer comme permanentes des positions qui peuvent évoluer rapidement selon les intérêts politiques et commerciaux.

Points clés à retenir

  • Anthropic a porté plainte contre le DoD en soutenant que son exclusion viole ses droits d'expression.
  • L'entreprise veut interdire l'usage de son IA pour la surveillance de masse domestique et pour des armes totalement autonomes.
  • Depuis 2018, plusieurs géants de la tech ont assoupli ou changé leurs règles sur les usages militaires de l'IA.
  • Des entreprises spécialisées dans la défense ont poussé à une intégration plus étroite entre tech et armée.
  • La situation reste mouvante, et le débat éthique dépendra des décisions politiques et judiciaires à venir.