Menu

Cosa succede se l’infermiera non è d’accordo con l’AI

A leggere la stampa mainstream l’intelligenza artificiale (AI) risolverà magicamente un sacco di problemi. “Purtroppo” si porterà via, come ogni altro salto tecnologico, un bel po’ di posti di lavoro. “Ma tranquilli” – dicono i camerieri del Capitale “se ne creeranno certamente altri; in fondo è sempre andata così…”

Sembra di sentire quelli abituati ad attraversare la strada senza guardare se arrivano macchine (“mi è sempre andata bene…”). Abbiamo pubblicato qualche settimana fa uno studio che fa il punto teorico, da una visione marxista, sull’impatto futuro dell’AI e sulla sua struttura.

Ma si moltiplicano anche i casi concreti in cui l’AI, una volta “messa in produzione”, combina disastri. Fin quando si tratta di scrivere “articoli”, preannunciando la fine della professione giornalistica in stile “la voce del padrone”, poco male. Ma quella propensione all’errore diventa pericolosa per gli umani in carne e ossa, ad esempio, quando ciò avviene nella sanità.

Anche perché la fiducia “imprenditoriale” su questa risorsa che fa risparmiare lavoro è praticamente assoluta. E dunque gli umani che lavorano “con il supporto dell’AI” vengono di fatto obbligati ad obbedirle. Pena il licenziamento.

Per fortuna qualche volta si riesce a vincere su questo “Hal 9000”, ma il rischio sta diventando grande.

Buona lettura.

*****

Si parla molto di regolamentazione e rischi dell’AI, ma dagli Usa arriva un esempio pratico molto interessante e inquietante.

Un esempio che mostra come non sia sufficiente dire genericamente che gli umani avranno la parola finale su questioni fondamentali, anche quando affiancati da sistemi di AI. E non solo per il rischio di essere condizionati dalla presunta oggettività e scientificità della macchina. Ma anche perché spesso sono inseriti in un contesto istituzionale in cui “sovrascrivere” la decisione della macchina ha dei rischi.

Il WSJ racconta la storia di un’esperta infermiera di oncologia, che si è accorta come un allarme di un sistema di AI che attribuiva una sepsi a un paziente fosse sbagliato. 

L’allarme metteva in relazione un’elevata quantità di globuli bianchi con un’infezione settica ma non teneva conto del fatto che quel particolare paziente fosse affetto da leucemia, che può causare dati simili. D’altra parte, il sistema non spiegava la sua decisione.

Ora la questione è che, scrive il WSJ, “le regole dell’ospedale prevedono che gli infermieri seguano i protocolli quando un paziente viene segnalato per la sepsi. Anche se Beebe (l’infermiera, ndr), qualora ottenga l’approvazione del medico, può ignorare il modello di intelligenza artificiale, se sbaglia – dice – rischia un’azione disciplinare.

Quindi l’infermiera ha seguito gli ordini e ha prelevato il sangue dal paziente, anche se ciò avrebbe potuto esporlo a un’infezione e far lievitare il conto.

Quando un algoritmo dice: ‘Il paziente sembra settico’, non posso sapere perché. Devo farlo e basta”, ha detto Beebe, che è rappresentante del sindacato California Nurses Association presso l’ospedale. [Ma] come sospettava, l’algoritmo era sbagliato”.

* da Guerre di Rete

- © Riproduzione possibile DIETRO ESPLICITO CONSENSO della REDAZIONE di CONTROPIANO

Ultima modifica: stampa
Argomenti:

2 Commenti


  • Eros Barone

    La storia di quell’infermiera di oncologia la quale si è accorta che l’allarme di un sistema di IA (preferisco l’acronimo italiano), che attribuiva una sepsi a un paziente, era sbagliato, mi ha fatto venire in mente l’esperimento mentale elaborato dal filosofo John Locke sull’ipotetico caso di un pappagallo in grado di fornire le stesse prestazioni intellettuali di un essere umano. Secondo il fondatore dell’empirismo, nulla autorizza a considerare il loquace pennuto un “essere umano”, e meno ancora una “persona”. In fin dei conti, osserva Locke, un simile pappagallo non sarebbe altro che un pappagallo di “esimia intelligenza e razionalità”, ma sempre un pappagallo. Un rilievo, questo, che, forse, come dimostra anche l’episodio dell’infermiera, potrebbe essere utile trasferire all’àmbito dello spinoso tema relativo allo ‘status’ epistemologico dell’Intelligenza Artificiale.


  • Eros Barone

    Naturalmente, l’episodio dell’infermiera convalida ‘e contrario’ il rilievo avanzato dal filosofo inglese. L’uomo è pur sempre, come dicevano gli Scolastici, “simplex in vitalitate, duplex in humanitate”. Il che è quanto dire che sono automatizzabili, via IA, i processi relativi a 1) ciò che facciamo e 2) ciò che sappiamo, ma non 3) ciò che sappiamo di fare. I processi del terzo tipo, che costituiscono una prerogativa degli esseri umani (l’autoriflessività), sono proprio quelli che hanno permesso all’esperta infermiera di oncologia di accorgersi che l’allarme del sistema di IA era sbagliato.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *