Anthropic ha annunciato la nascita dell'Anthropic Institute, un think tank interno che mette insieme tre squadre di ricerca esistenti per studiare gli effetti su larga scala dell'intelligenza artificiale. Sì, hanno pensato che fosse il momento giusto per organizzare meglio il cervello collettivo dell'azienda, mentre contemporaneamente affrontano una disputa formale con il Dipartimento della Difesa degli Stati Uniti.

Cosa farà l'Anthropic Institute

Il nuovo centro unisce i team che si occupano degli impatti sociali, della sicurezza tramite red team che mettono sotto stress i modelli, e della ricerca economica. Gli obiettivi dichiarati includono capire come l'AI influenzerà lavori ed economie, se renderà le persone più sicure o più vulnerabili, come i valori dell'AI possano plasmare i nostri e se sia possibile mantenere il controllo su sistemi sempre più potenti.

Riorganizzazione dei vertici (con titoli nuovi e compiti vecchi)

Jack Clark, cofondatore di Anthropic, lascia il ruolo di responsabile di public policy dopo oltre cinque anni per diventare responsabile del public benefit e guidare il nuovo think tank. La squadra di public policy sarà ora diretta da Sarah Heck, che fino ad ora si occupava di affari esterni. L'azienda aprirà anche un ufficio a Washington, DC, per presidiare temi come sicurezza nazionale, infrastrutture AI, energia e leadership democratica nell'AI.

Lo sfondo: lista nera, causa e tensioni

Il lancio arriva in un momento complesso: Anthropic è stata indicata come rischio nella supply chain del Pentagono, una designazione che potrebbe impedire ai suoi clienti di usare le sue tecnologie nei contratti con il Dipartimento della Difesa. L'azienda ha reagito con una causa, sostenendo che la messa al bando sarebbe legata alle sue posizioni contro la sorveglianza di massa e le armi letali totalmente autonome.

Pur riconoscendo la serietà della vicenda, la leadership di Anthropic sostiene che la disputa non ha cambiato direttamente l'agenda di ricerca e che, anzi, ha rafforzato l'idea di rendere più pubbliche alcune informazioni. In altre parole: meno segreti, più dati e buona dose di trasparenza, anche quando la stampa è pronta a farsi strada tra titoli allarmistici.

Chi c'è nel think tank e cosa faranno

L'Institute parte con circa 30 persone, tra cui nomi con esperienze accademiche e industriali: Matt Botvinick (ex DeepMind), Anton Korinek (economista in congedo dalla University of Virginia) e Zoe Hitzig (passata da un altro grande attore del settore). Il gruppo unirà competenze su impatti sociali, stress-testing dei sistemi e analisi economiche, e prevede di "incubare" nuovi team su temi specifici, ad esempio l'impatto dell'AI sul sistema legale.

Si prevede una crescita rapida: la leadership stima che il numero di ricercatori potrebbe raddoppiare ogni anno per il prossimo futuro.

Conti, IPO e rischi economici

In documenti aziendali resi noti, Anthropic ha dichiarato oltre 5 miliardi di dollari di ricavi commerciali cumulati e circa 10 miliardi spesi in addestramento e inferenza dei modelli. L'azienda è sotto pressione, anche perché è tra quelle che stanno valutando un'offerta pubblica iniziale. A seconda di come verranno interpretate le restrizioni governative, Anthropic ha avvertito che potrebbe perdere centinaia di milioni di dollari nel 2026, o in scenari più gravi, miliardi.

Nonostante questo, i responsabili dicono di non essere preoccupati nel breve termine: vedere la ricerca sulla sicurezza come un investimento che costruisce fiducia nei clienti e non come un costo da tagliare è la loro linea guida.

Temi di ricerca particolari

  • Impatto economico e sul lavoro: studi su come l'AI modificherà mercati e occupazione.
  • Sicurezza e controllo: stress test dei modelli per scovare vulnerabilità e comportamenti pericolosi.
  • Valori e trasparenza: se e come i valori incorporati nei sistemi influenzeranno le nostre scelte collettive.
  • Dipendenza emotiva e dinamiche sociali: ricerche su come l'interazione prolungata con AI cambia le persone, incluse interviste e studi su larga scala condotti anche con l'aiuto degli stessi sistemi di Anthropic.

Per quanto riguarda il computing, Anthropic afferma che la maggior parte delle risorse continue per la pre-allenamento dei modelli rimangono dedicate ai progetti di punta, mentre il resto del tempo macchina viene allocato su base settimanale in funzione delle priorità.

Trasparenza e responsabilità

Anthropic si definisce una public benefit corporation e i suoi cofondatori dichiarano di condividere valori simili sulla necessità di divulgazione pubblica, anche se questo può essere scomodo dal punto di vista delle pubbliche relazioni. L'idea è che la ricerca indipendente e la pubblicazione dei risultati siano fondamentali per creare fiducia a lungo termine.

Conclusione

L'Anthropic Institute nasce in un momento di tensione istituzionale e incertezza finanziaria, ma con ambizioni chiare: capire e guidare gli effetti dell'AI sulla società e sull'economia, costruendo fiducia tramite ricerca e trasparenza. Rimanere fermi non è un'opzione: l'AI avanza, e Anthropic sembra puntare sul mettere più cervelli in sala per capire dove stiamo andando.