Nel 2023 si è scoperto che il programma di intelligenza artificiale Tessa, un chatbot creato dalla National Eating Disorders Association (NEDA) per dare supporto a pazienti che soffrono di disturbi del comportamento alimentare, invece di dare suggerimenti su come migliorare il rapporto con la percezione delle propria immagine forniva consigli su diete dimagranti con tanto di conteggio delle calorie. Eppure i ricercatori avevano testato la chat per mesi prima di renderla accessibile ai pazienti, nella speranza che l'intelligenza artificiale potesse rendere le cure dei DCA più accessibili ed efficaci.

Si sta parlando molto, negli ultimi anni, di come l'AI possa venire usata nei percorsi di guarigione dai disturbi alimentari, ma il caso di Tessa racchiude bene i rischi a cui si potrebbe andare incontro senza le dovute precauzioni. «È stato un caso molto grave di cui si è discusso a lungo. La National Eating Disorders Association aveva sostituito la propria helpline di persone fisiche con un chatbot», ricorda Aurora Caporossi, Founder e Presidente di Animenta, associazione non-profit che si occupa di disturbi alimentari e di Comestai, startup che offre servizi clinico terapeutici per i disturbi alimentari. Secondo Caporossi, l'intelligenza artificiale andrebbe vista come un mezzo che apre nuove prospettive in base a come lo si utilizza. «Prima di tutto dobbiamo chiederci se e in che modo l'AI può costituire un aiuto in più», spiega a Cosmopolitan, «se e in che modo l'AI può essere un plus per il tema di cui ci stiamo occupando».

dcari e intelligenza artificiale quali sono i rischipinterest
Process Visual

Chatbot e DCA

La prima cosa che ci viene in mente quando pensiamo all'intelligenza artificiale è una chat dove possiamo fare domande e ottenere risposte generate automaticamente. Effettivamente si tratta di una possibilità che, però, a oggi risulta ancora piuttosto rischiosa se data in mano ai pazienti. «C'è ancora molto da studiare in proposito e dobbiamo considerare quali sono i dati su cui noi oggi alleniamo l'intelligenza artificiale», spiega Caporossi, «dal momento che viviamo in una cultura che è legata all'ossessione per il corpo, per il cibo e per il peso, che sono aspetti fondamentali nei disturbi alimentari, è molto difficile che con i dati attuali saremo in grado di creare chatbot che supportino il percorso di cura. Prima dobbiamo fare un lavoro culturale per decostuire i bias che stiamo dando in pasto alle AI».

Secondo l'esperta, il rischio, come nella vicenda di Tessa, è che le chat forniscano consigli dannosi. Non è un caso, come sottolinea un rapporto della società di analisi dei social network Graphika, che l'AI venga già usata da gruppi pro anoressia e pro bulimia per adottare comportamenti alimentari estremi e trovare la "motivazione" per seguire diete poco salutari. «È come se l'AI potesse diventare la versione 4.0 di quelli che erano i gruppi Pro-ana e Pro-mia su Tumblr o Facebook», dice Caporossi ed è qui che emerge la pericolosità di uno strumento simile che potrebbe allontanare i pazienti dal percorso di cura con gli specialisti. Un altro tema, poi, è quello dei dati che i pazienti potrebbero fornire all'intelligenza artificiale: «Chi ha accesso ai dati? Chi ne avrà accesso in futuro? Cosa succede se i pazienti ritrattano i propri dati? Ci sono tanti temi legati all'intelligenza artificiale di cui dobbiamo assumerci la responsabilità nel momento in cui la si integra».

dcari e intelligenza artificiale quali sono i rischipinterest
Process Visual

Nuove prospettive

Tutto questo, però, non significa che l'intelligenza artificiale non possa essere una risorsa nuova e preziosa nel percorso di cura. I chatbot, ad esempio, potrebbero essere utili ai clinici in fase di diagnosi. «Quello che eventualmente si potrà fare e che stiamo sviluppando all'interno di Comestai come startup di healthcare è l'implementazione delle AI come supporto ai clinici», spiega Caporossi, «È possibile, ad esempio sviluppare un chatbot da mettere in mano all'equipe di specialisti per diagnosi precoci, dubbi sul percorso di un paziente o per la creazione di piani personalizzati». Si tratta di una sorta di assistenza digitale, una «dashboard intelligente» che non avrà accesso alle conversazioni terapeutiche private ma potrà monitorare i progressi della terapia, segnalare potenziali rischi, come ad esempio cali di engagement o segnali di drop-out nel percorso di cura.

«Quello che ipotizziamo in futuro è sempre un mix tra interazione umana e strumenti di intelligenza artificiale affinché l'AI possa essere di supporto in un recovery quotidiano», aggiunge Caporossi, «L'AI potrà subentrare in alcuni casi, ad esempio se non si ha accesso a un centro per i disturbi alimentari, ma la tecnologia deve essere messa al servizio della relazione terapeutica e potenziarla, non sostituirla. Credo che non dobbiamo mai dimenticare quanto sia fondamentale il rapporto umano all'interno di un percorso di cura».