Intelligenza artificiale come strumento di autodiagnosi

“Buongiorno dottore, sono venuto qui in Pronto soccorso perché non mi sento bene e ChatGpt, a cui ho chiesto una valutazione dei miei dati sanitari, mi ha detto di venir subito in ospedale”. Succede sempre più spesso, anche se la cosa può sembrare incredibile, perché l’utilizzo di ChatGpt, nata solo tre anni fa, sta conoscendo una diffusione che era facilmente pronosticabile, ma non sino a questo punto.

I primi ad accorgersi delle potenzialità (un po’ meno dei rischi) dell’intelligenza artificiale generativa sono stati ovviamente gli studenti: l’intelligenza artificiale risolve in pochi secondi problemi che normalmente richiederebbero ore di impegno. È in grado di predisporre un testo semplice o complesso (dai compiti scolastici alle tesi di laurea) nella misura e nello stile desiderati; è capace di scrivere un articolo giornalistico o relazioni tecniche per i professionisti. Addirittura, l’Ordine degli avvocati di Milano sarà chiamato a valutare, dal punto di vista deontologico, il comportamento di un legale che per conto di una famiglia aveva presentato un ricorso al Tar contro la bocciatura del figlio. Un ricorso scritto con le applicazioni dell’intelligenza artificiale.

Ciò che forse non era immaginabile, almeno con questa rapidità, è l’impatto che ChatGpt sta avendo anche nel campo medico. Per la verità, l’esperienza del “dottor Google” avrebbe già dovuto essere di insegnamento. Chi non è mai andato su internet, sul motore di ricerca più usato, per cercare di capire cosa rappresentano certi sintomi o per verificare quali sono gli indizi più probabili per una malattia? Con l’espressione “Dottor Google”, insomma, si indica l’abitudine, sempre più diffusa, di cercare su Internet informazioni mediche per autodiagnosticarsi sintomi e malesseri. I motori di ricerca diventano così un “medico virtuale”, spesso consultato prima – o al posto – di un professionista. Un fenomeno che può aiutare ad aumentare la consapevolezza dei pazienti, ma che comporta anche errori, allarmismi e diagnosi sbagliate.

Con ChatGpt i rischi sono ancora maggiori. Farsi fare una diagnosi da ChatGPT significa chiedere a un sistema di intelligenza artificiale di interpretare sintomi e problemi di salute al posto di un medico. Una “tentazione” (quella di avere un medico personale a disposizione in ogni momento, disponibile a rispondere a tutte le domande, capace di comprendere le preoccupazioni anche dal punto di vista empatico – dell’interlocutore) che sta già facendo molta strada. Ma attenzione: l’intelligenza artificiale può – al massimo – fornire informazioni generali e aiutare a capire meglio un disturbo. Però non visita il paziente, non vede esami clinici e non conosce la sua storia medica completa.

I rischi principali sono diagnosi errate o incomplete, sottovalutazione di problemi seri, oppure inutili allarmismi.

Quelli che portano il paziente a rivolgersi, per l’appunto, al Pronto soccorso. Inoltre, c’è pure il rischio opposto: le risposte possono rassicurare, inducendo chi ne avrebbe davvero bisogno a rimandare una visita medica o ad assumere comportamenti sbagliati.

OpenAI, la società che gestisce ChatGpt e che punta innanzitutto sul profitto, ha colto al volo questa crescente tentazione di affidarsi alle scorciatoie dell’intelligenza artificiale per avere una risposta sanitaria in tempo reale, bypassando i tempi delle visite mediche e pure il problema dei tempi di attesa. Per questo OpenAI ha dato vita a “ChatGPT Health” (“ChatGPT Salute”), iniziativa che sta suscitando certamente tanto interesse, ma anche tantissimi dubbi. In pratica, l’utente fornisce a ChatGpt tutti i propri dati sanitari (anche con il collegamento diretto alle cartelle cliniche digitali, la connessione ai dispositivi portatili e l’integrazione con altri dati sanitari personali) e l’intelligenza artificiale fornirà tutte le risposte che la persona desidera. Può persino arrivare a metterlo in allarme se qualche dato dovesse diventare preoccupante.

L’azienda, ovviamente, si premura di rassicurare l’utente sul rispetto della privacy e ribadisce che le piattaforme di intelligenza artificiale non sostituiscono il medico. Ma al di là delle rassicurazioni – abbastanza scontate, per la verità rimangono le incognite di questa nuova frontiera. Perché una cosa è affidare all’intelligenza artificiale le ricerche e le diagnosi, altra cosa è, invece, quel prendersi cura delle persone che, soprattutto nei momenti di fragilità, fa la differenza tra l’uomo e le macchine (seppur “intelligenti”).

vitaTrentina

Got Something To Say?

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *


Il periodo di verifica reCAPTCHA è scaduto. Ricaricare la pagina.

vitaTrentina