Anthropic vient d'annoncer la création de l'Anthropic Institute, un think tank interne destiné à étudier les conséquences à grande échelle de l'intelligence artificielle. Cette nouvelle structure fusionne trois équipes déjà en place et arrive au moment où l'entreprise est en conflit ouvert avec le Pentagone, une situation qui a donné lieu à un blacklistage et à une plainte en justice.
Qu'est-ce que l'Anthropic Institute ?
L'institut va rassembler l'équipe d'impact sociétal, la frontier red team qui teste les failles des modèles, et l'équipe d'économie qui suit les effets sur le marché du travail et l'économie. L'objectif affiché est d'analyser des questions massives et concrètes : que deviennent les emplois, l'économie, la sécurité, nos valeurs, et pouvons-nous garder la main sur ces systèmes ?
Changements dans la direction
Jack Clark, cofondateur d'Anthropic et jusque-là responsable des affaires publiques, prend la tête du nouvel institut avec le titre de head of public benefit. Sarah Heck, ancienne responsable des affaires externes, reprend la direction de la politique publique. Anthropic prévoit aussi d'ouvrir un bureau à Washington, DC, pour renforcer son travail sur la sécurité nationale, l'infrastructure IA, l'énergie et la gouvernance démocratique de l'IA.
Contexte juridique et financier
Le lancement de l'institut survient quelques jours après qu'Anthropic ait intenté un procès contre le gouvernement américain suite à sa désignation comme risque de chaîne d'approvisionnement. Cette désignation empêcherait certains clients de travailler avec Anthropic pour des contrats avec le Département de la Défense. La plainte affirme que la mise sur liste noire est illégale et motivée par le fait qu'Anthropic a tracé des limites sur la surveillance de masse et les armes létales autonomes.
Dans des documents judiciaires, la société indique avoir généré plus de 5 milliards de dollars de revenus commerciaux cumulés et dépensé environ 10 milliards de dollars pour l'entraînement et l'inférence des modèles. Selon Anthropic, l'interprétation de l'interdiction gouvernementale pourrait mettre en risque des centaines de millions de revenus en 2026, voire plusieurs milliards dans le pire des cas.
Qui rejoint l'équipe ?
L'institut démarre avec environ 30 personnes, dont des figures connues du milieu : Matt Botvinick, ancien de Google DeepMind ; Anton Korinek, professeur en congé du département d'économie de l'Université de Virginie ; et Zoe Hitzig, chercheuse partie d'OpenAI. Anthropic prévoit d'incuber de nouvelles équipes, par exemple une unité dirigée par Botvinick qui étudiera l'impact de l'IA sur le système juridique. Zoe Hitzig et Anton Korinek piloteront de grands projets en économie.
Jack Clark estime que l'effectif pourrait doubler chaque année pour les prochaines périodes. Oui, vous avez bien lu : double par an. Ambitieux et un peu vertigineux, comme l'IA elle-même.
Recherche, transparence et modèle économique
Anthropic insiste sur le fait que l'investissement dans la sécurité et la recherche n'est pas un coût mais un avantage commercial. Clark affirme que publier des recherches de qualité aide à construire la confiance nécessaire pour travailler avec des clients et des partenaires. La société, qui se présente comme une public benefit corporation, dit vouloir maintenir une orientation de transparence même si certains résultats peuvent être gênants sur le plan publicitaire.
Charge de calcul et priorités
Les recherches de l'institut peuvent nécessiter une importante puissance de calcul, alors que les entreprises cherchent à privilégier des produits commerciaux. Anthropic indique qu'en dehors des ressources allouées à la pré-formation de modèles de pointe, les cycles de calcul sont répartis semaine par semaine selon les priorités. Aucune part précise n'a été verrouillée pour l'instant, et la direction s'attend à gérer finement les arbitrages.
Étudier la dépendance émotionnelle à l'IA
L'institut prévoit aussi des travaux en sciences sociales pour comprendre comment l'utilisation de l'IA modifie les personnes elles-mêmes. Des études antérieures ont mesuré des tendances de persuasion ou de flagornerie des modèles, mais l'idée est maintenant de mener des enquêtes à grande échelle et des entretiens, y compris en utilisant l'IA pour interviewer des utilisateurs afin de mieux saisir l'expérience vécue.
Un timing qui rappelle que rien n'est simple
Interrogé sur le moment choisi pour lancer l'institut, Clark a répondu qu'il n'avait « aucun doute » sur l'importance de ce travail, et qu'il voyait la recherche sur la sécurité comme stratégiquement utile sur le long terme. Il a aussi estimé que l'arrivée d'une IA très puissante pourrait se produire d'ici la fin de cette année ou au plus tard début 2027, ce qui, selon lui, justifie d'accélérer les efforts scientifiques sur les questions difficiles posées par ces technologies.
En bref, Anthropic mise sur la recherche, la transparence et la montée en puissance d'une équipe dédiée, tout en naviguant dans une période tumultueuse avec le gouvernement. On regarde la suite avec intérêt et un peu d'appréhension, comme devant un film de science-fiction qui a décidé de se tourner en temps réel.