Info: info@ubiminor.org  |  Segnalazioni: notizie@ubiminor.org  |  Proposte: redazione@ubiminor.org

 facebook iconinstagram iconyoutube icon

I bisogni di assistenza per problemi di salute mentale sono in aumento, un’emergenza che oggi riguarda in modo preoccupante anche i più giovani. Per far fronte a questa crisi, le organizzazioni e gli operatori sanitari, a livello internazionale, si stanno rivolgendo anche a strumenti digitali.

20240125 elab 1

Piattaforme tecnologiche come hotline di crisi e chat online hanno portato alla formazione e alla disponibilità di nuovo personale per supportare le persone in crisi. Sono strumenti di emergenza che in genere non riescono poi a riversare il bisogno di supporto a specialisti che prendano in cura tutte le persone in difficoltà.

Uno dei fattori principali che contribuiscono a questo elevato tasso di mancata risposta è che la domanda supera significativamente il numero dei medici disponibili. Nel 2020, negli Usa, la National Suicide Prevention Lifeline ha riportato un tasso di risposta al bisogno di appena il 30% per le chat e del 56% per i messaggi di testo, lasciando molti pazienti in crisi senza supporto. Inoltre, questi sistemi utilizzano un metodo di coda standard per i messaggi in entrata, in cui i pazienti vengono sentiti in base all'ordine di arrivo, anziché al loro livello di urgenza.

E se queste piattaforme potessero invece distinguere tra messaggi urgenti e non urgenti, migliorando così l’efficienza nella valutazione dei casi di crisi?

Questo è esattamente ciò che Akshay Swaminathan e Ivan Lopez, studenti di medicina di Stanford , hanno deciso di fare con un gruppo di collaboratori interdisciplinari, inclusi medici e manager operativi di Cerebral, una società nazionale di salute mentale online, dove Swaminathan è a capo dell’analisi dei dati.

Il gruppo di ricerca comprende Jonathan Chen, affiliato HAI di Stanford e assistente professore di medicina presso il Centro di ricerca informatica biomedica di Stanford, e Olivier Gevaert, professore associato di medicina e scienza dei dati biomedici di Stanford. Gli autori hanno pubblicato il loro lavoro su npj Digital Medicine.

Utilizzando l’elaborazione del linguaggio naturale , il gruppo di ricerca ha sviluppato un sistema di apprendimento automatico (ML) chiamato Crisis Message Detector 1 (CMD-1) in grado di identificare e valutare automaticamente i messaggi, riducendo i tempi di attesa dei pazienti da 10 ore a meno di 10 minuti.

"Per chi ha tendenze suicide, il tempo di attesa era semplicemente troppo lungo. L'implicazione della nostra ricerca è che la scienza dei dati e il machine learning possono essere integrati con successo nei flussi di lavoro dei medici, portando a notevoli miglioramenti quando si tratta di identificare i pazienti a rischio e automatizzare questi compiti" spiega Swaminathan.

I loro risultati sottolineano l'importanza dell'applicazione di CMD-1 a scenari in cui la velocità è cruciale. Lopez afferma: "Il CMD-1 migliora l'efficienza delle squadre di risposta alle crisi, consentendo loro di affrontare un numero maggiore di casi in modo più efficace. Con un triage più rapido, le risorse possono essere allocate in modo più efficace, dando priorità ai casi urgenti".

Dare potere agli specialisti della crisi

I dati utilizzati dal gruppo di ricerca come base per CMD-1 provenivano da Cerebral, che riceve migliaia di messaggi dai pazienti al giorno nel suo sistema di chat. I messaggi possono includere argomenti diversi come la pianificazione degli appuntamenti e la ricetta per i farmaci, oltre a messaggi di pazienti in crisi.

Partendo da un campione casuale di 200.000 messaggi, hanno etichettato i messaggi dei pazienti come “crisi” o “non crisi” utilizzando un filtro che include fattori come le parole chiave della crisi e gli ID dei pazienti che avevano precedentemente segnalato una crisi nell’ultima settimana. I messaggi di crisi che meritano ulteriore attenzione comprendono espressioni di ideazione suicidaria o omicida, violenza domestica o autolesionismo non suicidario.

"Per i messaggi ambigui, qualcosa del tipo: 'Ho bisogno di aiuto', abbiamo commesso spesso un errore chiamandola crisi. Da questa sola frase non si capisce se il paziente ha bisogno di aiuto per fissare un appuntamento o per alzarsi dal letto".

I ricercatori sono stati inoltre risoluti nel garantire che il loro approccio integrasse, ma non sostituisse, l’analisi umana del caso. CMD-1 fa emergere i messaggi di crisi e li invia a un esperto affinché li riveda come parte del tipico flusso di lavoro di risposta alle crisi all’interno di un’apposita interfaccia. Tutti i messaggi di vera crisi che il modello non riesce a far emergere (falsi negativi) vengono esaminati da specialisti come parte del flusso di lavoro di routine del supporto via chat.

"Questo approccio è fondamentale per assicurare la riduzione il più possibile del rischio di falsi negativi. In definitiva, l'elemento umano nella revisione e interpretazione dei messaggi garantisce un equilibrio tra efficienza tecnologica e cure attente, che è essenziale nel contesto di emergenze di salute mentale”.

20240125 elab 8

Data la delicatezza dell'argomento, il gruppo di ricerca è stato estremamente conservatore riguardo al modo in cui venivano categorizzati i messaggi. Hanno considerato i falsi negativi (non identificare un vero messaggio di crisi) e i falsi positivi (dare immediata rilevanza a un messaggio non di crisi) e, lavorando con le parti interessate cliniche, hanno stabilito che il “costo” di perdere un falso negativo era venti volte più indesiderabile che affrontare un falso positivo.

"Questo è davvero un punto chiave quando si tratta di implementare modelli ML. Qualsiasi modello ML che sta effettuando una classificazione, chiamandola "crisi" o "non crisi", deve prima produrre una probabilità da zero a uno. Indica una probabilità che il messaggio è una crisi, ma dobbiamo scegliere quella soglia, al di sopra della quale il modello la chiama crisi e al di sotto della quale il modello dice che non è una crisi. La scelta di quel limite è una decisione critica, e quella decisione non dovrebbe essere presa dalle persone che costruiscono il modello, dovrebbe essere realizzato dagli utenti finali del modello. Per noi, questi sono i gruppi di esperti clinici" afferma Swaminathan.

Sorprendentemente, CMD-1 è stato in grado di rilevare messaggi ad alto rischio con una precisione impressionante (97% di sensibilità e 97% di specificità) e il gruppo di specialisti ha ridotto i tempi di risposta per le persone in cerca di aiuto da oltre 10 ore a soli 10 minuti. Questa velocità è fondamentale, poiché un intervento rapido ha il potenziale per reindirizzare i pazienti ad alto rischio lontano dai tentativi di suicidio.

Il potenziale del machine learning nell'assistenza sanitaria

Considerati i risultati degni di nota, i ricercatori sperano che più modelli di machine learning vengano implementati in contesti sanitari, il che è attualmente un evento raro, poiché l’implementazione richiede un’attenta traduzione in contesti clinici e una grande attenzione alle considerazioni tecniche e operative, nonché infrastruttura tecnologica.

"Spesso, i data scientist creano modelli ML altamente accurati senza affrontare pienamente i punti critici delle parti interessate. Di conseguenza, questi modelli, sebbene tecnicamente competenti, possono creare lavoro aggiuntivo o non riuscire a integrarsi perfettamente nei flussi di lavoro clinici esistenti. Per un'adozione più diffusa, gli scienziati devono coinvolgere gli operatori sanitari fin dall’inizio, garantendo che i modelli affrontino le sfide per cui sono progettati, razionalizzino anziché complicare i compiti e si adattino organicamente all’infrastruttura clinica esistente”.

Il team di sviluppo di CMD-1 ha adottato un approccio unico consistente nel riunire un équipe interfunzionale di medici e informatici per garantire che il modello raggiungesse le soglie cliniche chiave e potesse ottenere risultati significativi in ​​un contesto operativo clinico reale. "L'avvincente sistema sviluppato qui dimostra non solo un risultato analitico, ma il lavoro molto più difficile di integrarlo in un flusso di lavoro reale che consenta ai pazienti e ai medici di mettersi in contatto in un momento critico", afferma Chen.

Questo approccio interfunzionale, combinato con i notevoli risultati del CMD-1, ha mostrato a Swaminathan e Lopez come la tecnologia potrebbe essere utilizzata per aumentare l'impatto dell’intervento dei medici. "Questa è la direzione verso cui sta andando l'intelligenza artificiale in medicina, nella quale utilizziamo i dati per rendere l'erogazione dell'assistenza sanitaria più umana, per semplificare la vita dei medici e per consentire loro di fornire cure di qualità superiore" conclude Swaminathan.

 

Riferimento bibliografico

Akshay Swaminathan et alii,
Natural language processing system for rapid detection
and intervention of mental health crisis chat messages
,
npj Digital Medicine (2023).

 


Accetto i Termini e condizioni