Timori giusti, e pregiudizi ingiustificati mettono in discussione l’utilità dell’intelligenza artificiale anche in ambito healthcare. Ma siamo sicuri di poterne fare a meno?

Chi ha paura dell’intelligenza artificiale?

È dai tempi del super computer assassino HAL 9000 che tenta di eliminare l’equipaggio della missione spaziale Giove nel visionario film di Stanley Kubrick 2001, Odissea nello spazio (1968), che guardiamo con diffidenza alla tecnologia robotica. La paura di essere sostituiti dalle macchine, o addirittura da robot più intelligenti degli umani, ha fornito spunti formidabili a innumerevoli capolavori della fantascienza. Eppure non possiamo fare a meno della cyber-tecnologia, e dal 1968 l’AI di strada ne ha fatta in tutti i campi, senza (finora) soppiantare l’imprescindibile intervento umano. L’intelligenza artificiale e robotica si basa su algoritmi sofisticati in grado di riconoscere e processare determinate informazioni in modo simile al cervello umano. Se ci limitiamo al settore dell’health-care, l‘AI è pertanto in grado di: analizzare parametri vitali, refertare immagini diagnostiche strumentali, effettuare diagnosi sulla base di test sintomatici standardizzati e via discorrendo. Robot complessi come il Da Vinci sono “istruiti” ad eseguire operazioni di microchirurgia e chirurgia mininvasiva con livelli di efficienza e sicurezza eccezionali. Certo… abbiamo sempre la mano, e la “testa” di uomini e donne dietro a qualunque dispositivo di intelligenza artificiale, e non è pensabile immaginare il contrario. O no?

I limiti degli algoritmi

Il grande fisico Stephen Hawkins, a proposito dell’AI, affermava:

“Riuscire a creare compiutamente l’intelligenza artificiale potrebbe essere il più grande successo nella storia del progresso umano. O la peggiore. Non possiamo sapere ancora se l’AI ci aiuterà infinitamente, o se ci marginalizzerà o se, verosimilmente, ci distruggerà”.

I limiti dell’intelligenza artificiale sono intuibili. Un algoritmo può simulare l’intelligenza umana fino ad un certo punto. Possiede un margine d’azione limitato alle istruzioni che ha ricevuto. Sebbene, nel migliore dei casi, un robot viene progettato per “pensare” in autonomia, non ha il dono dell’intuizione creativa che ci consente di uscire vincenti da situazioni apparentemente senza via d’uscita. Una macchina “intelligente”, lo è nella misura in cui quella intelligenza gli è stata impiantata. Gli algoritmi vengono aggiornati e perfezionati dagli esseri umani sulla base di un modello umano, che ha, a sua volta, le sue debolezze. Vediamo allora i limiti dell’AI di cui dobbiamo tenere conto:

  • I bias. Stiamo parlando dei pregiudizi, quelli che inficiano anche tante decisioni umane. Se chi programma gli algoritmi ha dei pregiudizi inconsci, li trasferirà alla “macchina”. Un esempio? L’algoritmo predittivo Compas (Correctional Offender Management Profiling for Alternative Solutions), usato nei tribunali di alcuni Stati USA per calcolare il rischio di recidiva criminale (risk assessment of relapse) nelle persone sotto processo o già condannate, era portatore di pregiudizi razziali
  • L’obsolescenza di alcuni posti di lavoro. Il nodo luddista ritorna. Che si tratti di rivoluzione industriale o di rivoluzione cibernetica, il senso è lo stesso: alcune mansioni lavorative in precedenza svolte da più esseri umani, vengono oggi svolte da intelligenze artificiali. Si tratta di una questione a lungo dibattuta, perché le nuove professioni legate al settore IT, non sostituiscono le mansioni perse dagli “umani” a causa delle “macchine”
  • Privacy a rischio. La tecnologia informatica e robotica crea sistemi vulnerabili ai cyber-attacchi che violano la privacy degli utenti. Questo discorso è particolarmente pericoloso per quanto riguarda l’AI applicata all’health-care, in particolare al “furto” di dati sensibili.
  • “The catastrophic forgetting effect”. Difetto “strutturale” dell’AI è il cosiddetto “effetto della dimenticanza catastrofica”. Ci si riferisce a quegli eventi che il computer non è in grado di riconoscere (e che un essere umano potrebbe gestire senza difficoltà), che lo mandano in tilt. Ciò accade perché nel tentativo di portare a compimento un’istruzione a cui si sovrapponga un “accidente” non preventivato, il cervello elettronico perde anche la memoria di ciò che era preparato a fare.

Si tratta di limiti che in un prossimo futuro potrebbero essere risolti ma… il genio umano resta comunque irriproducibile. Detto questo, l’AI applicata a settori quali quello sanitario, può fornire prestazioni eccezionali, perché a differenza degli esseri umani, la cui efficienza dipende da mille variabili, nella “macchina” che sia stata ben progettata a svolgere determinate mansioni, lo standard di efficacia sarà sempre lo stesso. Altissimo.

AI in ambito sanitario: i sei principi etici dell’OMS

Semmai il problema potrebbe essere di tipo etico. La salute è un settore che può trarre enorme beneficio dalle tecnologie digitali e dall’utilizzo dell’AI, purché venga tutelata dagli abusi possibili dell’informatizzazione globalizzata. Per questo nel 2021 l’OMS ha stabilito – in sei punti – i principi etici e la mission a cui l’AI in medicina deve attenersi. Vediamoli:

  1. Difendere l’autonomia umana. Significa garantire la privacy, e il diritto alla scelta delle cure.
  2. Incentivare il benessere e la sicurezza degli esseri umani, e l’interesse pubblico. Significa, per chi programma gli algoritmi e progetta i sistemi di AI, farlo sempre nell’interesse delle persone che ne saranno beneficiarie. Con revisione costante degli standard di sicurezza.
  3. Garantire trasparenza e accessibilità. Significa far sì che l’utenza sia messa nelle condizioni di comprendere come funziona l’intelligenza artificiale e renderne intuitiva la fruibilità.
  4. Promuovere la responsabilità. Significa formare in modo continuativo e aggiornato personale in grado di usare in modo efficace ed efficiente l’AI.
  5. Assicurare equità ed inclusività. L’assistenza sanitaria non dovrebbe fare distinzioni, pertanto i bias (anche quelli degli algoritmi), vanno combattuti. Se non si garantisce il diritto alla salute e alle cure a tutti gli esseri umani (ma proprio tutti), come affermava Gino Strada, allora quel diritto non è tale, ma è un privilegio.
  6. Promuovere un’AI reattiva e sostenibile. Significa progettare e modulare sistemi informatici intelligenti che abbiano un minimo impatto ambientale, che consentano un risparmio di risorse e di tempo, e che si adattino ai contesti di cura e di assistenza in cui devono essere applicati.