L’Intelligenza Artificiale ora può anche prescrivere farmaci. Lo Utah apre le porte ai “dottori algoritmici”

Siamo abituati a vedere l’intelligenza artificiale ottimizzare flussi di lavoro, generare immagini o scrivere codice. Ora però è stato varcato il confine del delicato campo della salute pubblica. Lo Utah è ufficialmente diventato il primo stato americano ad autorizzare un sistema di IA a prescrivere farmaci in totale autonomia.

Il “sandbox” normativo: dove l’innovazione corre veloce

L’operazione nasce sotto l’egida dell’Office of Artificial Intelligence Policy dello Utah, un ente creato nel 2024 con l’obiettivo di rendere lo stato un hub per l’innovazione tecnologica. Grazie a un framework di “regulatory sandbox” – una sorta di zona franca normativa – la startup Doctronic ha ottenuto il via libera per un programma pilota di 12 mesi.

Il sistema non è autorizzato a emettere nuove diagnosi, ma può gestire il rinnovo di circa 190 farmaci per patologie croniche. Restano esclusi, per ovvi motivi di sicurezza, gli oppioidi, i farmaci iniettabili e i trattamenti per l’ADHD. L’obiettivo dichiarato è abbattere i costi (4 dollari a rinnovo) e risolvere il problema della “non aderenza” terapeutica, che negli USA causa circa 125.000 morti evitabili all’anno a causa di processi burocratici farraginosi.

Doctronic, fondata dal chirurgo vascolare Adam Oskowitz e dal CEO Matt Pavelle, non è l’ultima arrivata. L’azienda ha raccolto oltre 65 milioni di dollari di finanziamenti e vanta un dataset di 15 milioni di consultazioni. Secondo i dati forniti ai regolatori, l’AI ha mostrato un allineamento del 99,2% con le decisioni prese dai medici umani su 500 casi campione.

“Non siamo solo più veloci, siamo più meticolosi,” sostengono i fondatori. L’algoritmo è in grado di eseguire decine di controlli incrociati sulla sicurezza e sulle interazioni farmacologiche in pochi secondi, un compito che richiederebbe a un clinico umano tempi incompatibili con i ritmi della medicina moderna.

Sicurezza informatica: il tallone d’Achille

Nonostante l’entusiasmo tecnologico, le ombre non mancano. Recentemente, la società di sicurezza Mindgard ha dimostrato come un chatbot pubblico di Doctronic potesse essere manipolato tramite attacchi di tipo “prompt injection”. In un test, i ricercatori hanno convinto l’IA a triplicare una dose di OxyContin (un potente antidolorifico) utilizzando un falso bollettino normativo.

Sebbene Doctronic abbia precisato che il sistema utilizzato nel programma pilota sia isolato e molto più protetto rispetto al chatbot pubblico, il caso ha sollevato non pochi dubbi. Se un modello linguistico può essere “ingannato” da input malevoli, quanto è sicuro affidargli la salute di migliaia di cittadini?

Le reazioni della comunità medica non si sono fatte attendere. L’American Medical Association (AMA) ha espresso forti riserve, sottolineando che l’assenza del giudizio clinico umano pone rischi incalcolabili per i pazienti. La critica principale riguarda la supervisione: se nel tempo l’IA gestirà autonomamente il 95% dei rinnovi con solo controlli a campione, chi sarà responsabile in caso di errore fatale?

Mentre lo Utah fa da apripista, altri stati come Arizona e Texas stanno osservando da vicino, pronti a lanciare i propri “sandbox”. Se il test di 12 mesi dovesse dare esiti positivi, potremmo trovarci di fronte a un cambiamento strutturale della sanità globale, dove il medico non sarà più il terminale della prescrizione, ma il supervisore di un’infrastruttura algoritmica sempre più pervasiva.