a cura di Marco Valeriani –
Medicina e Intelligenza Artificiale. Un connubio che può spaventare molti ma allo stesso tempo indicatore di futuri scenari nell’ambito delle cure e delle terapie personalizzate. Ne abbiamo scritto brevemente grazie alla disponibilità di Roberta Invidia, giornalista scientifica e formatrice per l’Ordine dei Giornalisti.
Dottoressa Invidia, la sua professione di giornalista attiva nel mondo dell’healthcare l’ha portata a confrontarsi, anche e soprattutto nell’ultimo periodo, con l’intelligenza artificiale applicata sia nell’informazione di settore sia nella comunicazione quotidiana declinata su salute e benessere. Dal suo personale punto di vista, con l’avvento massiccio dell’AI c’è il rischio di un peggioramento dello scenario attuale nella vasta platea di chi, già oggi, si cura o pretende di curarsi attraverso il web e più nello specifico facendo ricorso solo a Doctor Google?

Le AI sono e saranno sempre più utilizzate per informarsi sulla propria salute. Sono strumenti potenti e sempre più precisi nelle risposte ma possono dare informazioni sbagliate anche se in modo molto convincente e accurato. Questo crea un falso senso di autorevolezza, che mancava nell’era del “doctor Google”, che può minare ancora di più il rapporto di fiducia tra medico e paziente e amplificare la tentazione di fare autodiagnosi e autocura con un “medico personale”. Non bisogna però sottovalutare la capacità dell’Intelligenza artificiale di essere un supporto alla cura. Ed è sbagliato liquidare questi strumenti come fonti di disinformazione, dipende sempre da come si usano. In inghilterra, il Servizio sanitario ha approvato l’utilizzo di un’App, addestrata su database specifici e con una tutela particolare per i dati personali, che può essere utilizzata come una sorta di “psicologo di base” e un sostegno alle terapie, una risorsa in più considerando che sulla salute mentale ci sono tante barriere all’ingresso: economiche, di stigma sociale e così via.
Come difendersi allora da un utilizzo distorto e non corretto dell’AI nell’ambito della salute? Ci sono accorgimenti ai quali attenersi? Cosa suggerisce la sua esperienza?
La regola d’oro è resistere alla tentazione di prendere per oro colato quello che dice l’AI, scusando il giro di parole. È facile, è comodo, è scritto bene ma può, appunto, non essere vero. Non necessariamente perché le AI manipolano le informazioni, ma perché sono macchine programmate per dare sempre una risposta, anche quando non ce l’hanno, e per “compiacere” chi pone la domanda. Mai dimenticarlo. Sempre meglio consultare anche altre fonti, ad esempio quelle mediche ufficiali – ISS, ministero della Salute, società scientifiche. E poi c’è il grande problema dei deepfake: medici come Franco Berrino e molti altri sono stati clonati utilizzando l’AI per far circolare sui social media false informazioni o promuovere prodotti di vario tipo. Molte persone non riescono a distinguere un deepfake da un video vero e sarà sempre più difficile riuscire a farlo, perché le tecnologie progrediscono e replicano le persone in modo sempre più realistico. Nella mia esperienza, penso che oggi avere un “medico umano” di fiducia sia fondamentale, soprattutto se si ha poca dimestichezza con certi strumenti e molto bisogno di una diagnosi e di terapie adeguate.

Secondo lei medici di base e specialisti hanno la percezione chiara di come l’AI stia invadendo il loro campo e come le persone normali corrano il pericolo di cadere in trappole micidiali elaborando diagnosi fai da te totalmente prive di dati oggettivi?
I medici ne sono consapevoli, secondo me, ma spesso sentono di non avere strumenti per reagire. In particolare i medici di base, che sono i primi a vedere questi comportamenti, sentiranno sempre di più l’esigenza di avere una formazione specifica. Saranno sempre di più i pazienti che si presentano in ambulatorio con “autodiagnosi” elaborate con l’aiuto dell’AI, magari anche con suggerimenti di terapie – sebbene le AI di default spiegano che non possono sostituirsi a un medico. Bisogna conoscere questi strumenti, sporcarsi le mani usandoli, solo così si possono spiegarne limiti e potenzialità ai pazienti, a quelli che vogliono ascoltare ovviamente.

L’avvento dell’AI riporterà i medici a riconsiderare il rapporto prioritario con i pazienti – e quindi a privilegiare la fase dell’ascolto e dell’accoglienza – troppo spesso derubricati a semplici consumatori di farmaci dispensati via WhatsApp?
Qui tocchiamo un punto delicato e affascinante. Le AI oggi sono stupefacenti nell’empatia simulata. Sempre di più le persone sviluppano rapporti profondi con i loro assistenti AI che non giudicano, hanno tempo infinito, rispondono con pazienza a qualsiasi ora. Questo dovrebbe essere un campanello d’allarme per la classe medica. Se un algoritmo riesce a far sentire ascoltato un paziente meglio di noi, il problema non è l’AI – siamo noi che abbiamo perso qualcosa di fondamentale. L’AI potrebbe alleggerire alcuni aspetti burocratici del lavoro e riscoprire cosa significa davvero essere medici: non dispensatori di farmaci via WhatsApp, ma professionisti capaci di un’empatia autentica e di un ascolto a 360 gradi che nessun algoritmo potrà mai replicare davvero.
Cosa possiamo fare noi operatori dell’informazione perché il pubblico ascolti e riesca a discriminare ciò che è utile da ciò che è dannoso quando si ricorre al supporto dell’AI?
Il nostro compito è far capire che si tratta di strumenti di cui non ci si può fidare ciecamente e a cui non si può delegare la tutela della nostra salute in nessun caso. I giornalisti, in particolare, devono essere i guardiani critici di queste tecnologie, soprattutto quando entrano nel campo più delicato di tutti: la salute. L’AI è pervasiva, raccoglie dati sensibili, può orientare comportamenti e scelte, spesso sotto il controllo di aziende che hanno come obiettivo primario il profitto, non la cura delle persone. Ecco la grande questione: non possiamo dimenticare chi c’è dietro gli algoritmi. La nostra responsabilità è duplice: proteggere il diritto dei cittadini a una corretta informazione e vigilare affinché l’uso dell’AI per la salute non diventi un nuovo terreno di manipolazione, ma resti uno strumento al servizio delle persone.

