Un altro passo, non proprio piccolissimo

Lo Utah ha deciso di lasciare a un sistema di intelligenza artificiale il rinnovo di alcuni farmaci psichiatrici senza intervento diretto di un medico. È solo la seconda volta che lo Stato, e il Paese, affidano a un’IA questo tipo di autorità clinica. La promessa ufficiale è la solita, cioè costi più bassi e meno carenze di personale. I medici, prevedibilmente, rispondono con una certa prudenza. In questo caso, anche con parecchia.

Il nuovo programma pilota, della durata di un anno e annunciato la settimana scorsa, permette al chatbot di Legion Health di rinnovare in alcuni casi determinate prescrizioni per farmaci psichiatrici. La startup di San Francisco promette ai pazienti dello Utah “rinnovi rapidi e semplici” con un abbonamento da 19 dollari al mese. Il servizio dovrebbe partire ad aprile, anche se al momento c’è solo una lista d’attesa.

Cosa può fare davvero il chatbot

Il progetto è stato costruito con limiti molto stretti, almeno sulla carta. In base all’accordo tra Legion e l’Office of Artificial Intelligence Policy dello Utah, il chatbot può rinnovare solo 15 medicinali di mantenimento considerati a rischio più basso e già prescritti in precedenza da un clinico.

Tra questi ci sono:

  • fluoxetina, nota come Prozac
  • sertralina, nota come Zoloft
  • bupropione, noto come Wellbutrin
  • mirtazapina
  • idrossizina

Sono farmaci usati spesso per ansia e depressione. Ma non basta averli presi in passato per rientrare nel programma. Il paziente deve anche essere considerato stabile. Chi ha avuto un recente cambio di dose o di farmaco, oppure un ricovero psichiatrico nell’ultimo anno, resta fuori. Inoltre, il paziente deve vedere un operatore sanitario ogni 10 rinnovi o dopo sei mesi, a seconda di quale soglia arrivi prima.

Il sistema non può emettere nuove prescrizioni e non gestisce farmaci che richiedono un controllo clinico più stretto, compresi quelli che necessitano di esami del sangue. Sono esclusi anche gli stupefacenti e quindi molti farmaci per l’ADHD.

Fuori dal perimetro restano pure benzodiazepine, antipsicotici e litio, quest’ultimo considerato da molti il trattamento di riferimento per il disturbo bipolare. In pratica, il programma copre una fascia piuttosto selezionata di casi e lascia fuori gran parte delle situazioni più complesse. Un approccio cauto, si dirà. Oppure una medicina in modalità “non disturbare il sistema”.

Come funziona l’accesso

Per usare il servizio, il paziente deve aderire volontariamente, verificare la propria identità e dimostrare di avere già una prescrizione, per esempio con la foto dell’etichetta o del flacone. Poi il chatbot fa domande sui sintomi, sugli effetti collaterali e sull’efficacia del farmaco.

Vengono chieste anche informazioni su pensieri suicidari, autolesionismo, reazioni gravi e gravidanza, così da intercettare eventuali segnali di allarme. Se una risposta non rientra nei criteri di basso rischio del pilota, il caso dovrebbe essere inviato a un clinico prima di qualsiasi rinnovo. Anche pazienti e farmacisti possono chiedere una revisione umana.

Quando ha annunciato il progetto, lo Stato ha detto che l’automazione sicura dei rinnovi per farmaci di mantenimento dovrebbe permettere ai pazienti di ottenere più rapidamente e a costi più contenuti le cure necessarie. Con il tempo, secondo le autorità, il sistema potrebbe liberare i professionisti sanitari per concentrarsi sui casi più complessi e più rischiosi, contribuendo anche a colmare una carenza che lascia 500.000 residenti dello Utah senza accesso alla salute mentale.

Il cofondatore e amministratore delegato di Legion, Yash Patel, ha descritto il progetto in termini ancora più ambiziosi, definendolo una prima assoluta a livello globale, capace di ampliare in modo drastico l’accesso alle cure e segnare “l’inizio di qualcosa di molto più grande dei semplici rinnovi”.

I medici non sono esattamente entusiasti

Brent Kious, psichiatra e professore alla University of Utah School of Medicine, ha detto a The Verge che i vantaggi di un sistema di rinnovo basato sull’IA potrebbero essere sopravvalutati. Secondo lui, è improbabile che lo strumento aumenti davvero l’accesso per chi ha più bisogno di assistenza. Il paziente che ne farebbe uso dovrebbe già essere inserito in un piano terapeutico con uno psichiatra. Quindi non proprio il pubblico che oggi dorme sereno senza problemi di accesso.

Kious teme anche che l’automazione possa alimentare una sorta di “epidemia di sovratrattamento” in psichiatria, con pazienti che restano in terapia più a lungo del necessario. John Torous, direttore della digital psychiatry al Beth Israel Deaconess Medical Center e professore di psichiatria alla Harvard Medical School, ha sollevato una preoccupazione simile: alcune persone beneficiano di terapie prolungate, altre invece potrebbero aver bisogno di ridurre o sospendere i farmaci. Questo, ha osservato, richiede una gestione attiva, cambiamenti e attenzione costante. Tutte cose che diventano un po’ più difficili quando i controlli li affidi a un chatbot.

Il problema della trasparenza

Per Torous, la domanda di fondo è se un chatbot possa automatizzare in sicurezza anche le parti più ordinarie della cura psichiatrica. Prescrivere, ha spiegato, non significa solo verificare le interazioni tra farmaci. Bisogna capire il contesto unico della persona e tutti i fattori che incidono sul piano terapeutico. Non è chiaro, ha suggerito, se oggi un sistema di IA sia davvero in grado di farlo.

Kious ha espresso un dubbio simile: in teoria potrebbe anche essere sicuro, ma tutto dipende dai dettagli. E i dettagli, in questo caso, sono proprio il problema. Questi sistemi sono nuovi e, per chi li osserva dall’esterno, ancora piuttosto opachi. Kious li ha definiti una specie di alchimia moderna. Ha aggiunto che servirebbero più trasparenza, più scienza e test più rigorosi prima di chiedere alle persone di usarli.

I rischi più immediati

C’è poi il tema degli errori durante lo screening. Kious ha detto che il chatbot potrebbe non fare la domanda giusta, che il paziente potrebbe non riconoscere un effetto collaterale o rispondere in modo impreciso. Qualcuno potrebbe anche dire al sistema quello che vuole sentirsi dire pur di accelerare il rinnovo. Non è un vizio esclusivo delle macchine, ha precisato, visto che molta psichiatria si basa sull’autonarrazione del paziente. Ma i clinici umani hanno anche altri elementi a disposizione: osservano ciò che il paziente dice, ma anche ciò che non dice e il modo in cui si presenta.

E, certo, anche alle persone si può mentire. Ma con un chatbot può diventare più facile limare le risposte fino a ottenere il risultato desiderato.

Torous ha aggiunto che esistono anche rischi più evidenti, ormai familiari a chi segue da vicino il mondo dei chatbot. Il programma di Legion è il secondo esperimento dell’Utah con prescrizioni assistite dall’IA, dopo un pilota più ampio in medicina generale con Doctronic, lanciato lo scorso dicembre. Nel giro di poche settimane, dei ricercatori di sicurezza erano riusciti a spingere quel sistema a diffondere teorie complottiste sui vaccini, generare istruzioni per cucinare metanfetamine e triplicare il dosaggio di oppioidi di un paziente. Un curriculum che non ispira esattamente fiducia.

Le autorità dello Utah sostengono però che il programma con Legion sia molto più mirato e pensato apposta per affrontare la carenza di servizi nella salute mentale dello Stato.

Le misure di sicurezza dichiarate da Legion

Legion afferma di operare con barriere molto rigide. Oltre a quelle che definisce “porte d’accesso conservative”, l’accordo con lo Utah prevede report mensili dettagliati e una revisione ravvicinata dei primi 1.250 casi da parte di medici umani. In seguito, sarà controllato a campione circa il 5 o 10 per cento delle richieste.

Il cofondatore e presidente Arthur MacWaters ha detto a The Verge che i rischi esistono in qualsiasi modello di assistenza a distanza, sia con IA sia completamente gestito da persone, e ha sostenuto che il flusso di lavoro dell’azienda non si basa su una sola risposta auto-riferita per autorizzare il trattamento. Tra le garanzie citate ci sono i limiti stretti sui farmaci e sull’idoneità dei pazienti, i filtri di sicurezza integrati nell’IA, il coinvolgimento dei farmacisti e la possibilità di escalation verso un clinico.

Per MacWaters, il progetto è cruciale per ampliare l’accesso a centinaia di migliaia di persone che vivono in aree con carenza di servizi per la salute mentale, oltre a rappresentare un banco di prova importante per l’IA in medicina.

Non ha voluto commentare eventuali altri casi d’uso, nuovi farmaci o espansioni in altri Stati, ma ha detto che l’azienda è “entusiasta per ciò che riserva il futuro”. Sui tempi, silenzio. Anche se Legion ha già lasciato intendere ambizioni ben più ampie: il sito dedicato ai rinnovi parla di disponibilità “a livello nazionale nel 2026”, mentre MacWaters ha suggerito che il servizio arriverà “in ogni Stato molto, molto presto”.

La domanda finale resta la più semplice

Per i psichiatri sentiti, il punto è abbastanza diretto: che problema sta davvero risolvendo Legion? I pazienti già seguiti spesso non hanno nemmeno bisogno di una visita per ottenere un rinnovo, ha spiegato Kious, aggiungendo che la maggior parte degli psichiatri è probabilmente felice di rinnovare una prescrizione gratuitamente e senza appuntamento, a meno che ci siano dubbi sul paziente o il farmaco comporti rischi significativi. E sono proprio quei casi, ha osservato, che il chatbot non può gestire.

Torous è ancora più netto: per ora, lui eviterebbe il servizio. Se una terapia funziona già bene, ha detto, è probabilmente meglio restare con quel clinico. Una raccomandazione che, in tempi di IA ovunque, suona quasi come un gesto di moderazione rivoluzionario.