Le 10 regole fondamentali di utilizzo dell’intelligenza artificiale da parte degli infermieri

Scarica PDF Stampa

Il saggio del Dott. Francesco Germini — Direttore del Distretto Socio-Sanitario 10 della ASL Bari, Professore a contratto presso l’Università degli Studi di Bari e autore di testi infermieristici — analizza come l’integrazione dell’IA nella pratica clinica quotidiana richieda un codice d’azione rigoroso.

Attraverso dieci regole fondamentali per l’utilizzo dell’intelligenza artificiale, Germini propone un sistema coerente di doveri professionali, volto a garantire che l’innovazione tecnologica supporti l’assistenza senza mai sostituire lo spirito critico e il giudizio clinico del professionista infermiere.

Abstract

In questo saggio si vogliono analizzare le principali norme che si dovrebbero applicare all’Intelligenza Artificiale nella pratica quotidiana della professione infermieristica. La parte più difficile del lavoro sta nel tentare di ridimensionare il fenomeno sul piano dell’ordinarietà professionale, con un approccio eticamente corretto, evitando i facili entusiasmi e i preconcetti di negazione nei confronti di ogni forma di tecnologia.

Si parte dall’analisi del Codice Deontologico delle Professioni Infermieristiche FNOPI pubblicato a marzo 2025, l’AI Act, il GDPR, i più recenti orientamenti dell’European Data Protection Board (EDPB) e i documenti della WHO.

L’idea di base è che, ai fini dell’assistenza, l’Intelligenza artificiale può reali vantaggi soltanto se utilizzata come supporto all’operato dell’uomo, all’interno di un processo organizzato, con un’adeguata formazione del personale, un rispetto rigoroso della privacy, una valutazione critica degli output e, soprattutto, della relazione di cura.

Da questo impianto normativo si derivano un insieme di regole operative: centralità della persona assistita, non sostituzione del giudizio clinico infermieristico, uso esclusivo di strumenti con l’aggiunta di strumenti appropriati, e documentazione veritiera, attenzione ai bias e le disuguaglianze digitali, responsabilità organizzativa e cultura del rischio.

Inoltre, il saggio include una lista di esempi che trattano l’argomento e il fatto di possedere un uso sia appropriato che inappropriato, e un check-list finale pensata come strumento per integrare l’istruzione universitaria, l’aggiornamento professionale e la governance dei servizi assistenziali.


Parole chiave: intelligenza artificiale; infermieristica; deontologia; AI Act; GDPR; privacy; sicurezza del paziente; governance clinica.

Indice

Quadro sinottico delle dieci regole fondamentali

N.RegolaContenutoRischio principale
Azione richiesta
1Centralità della personaL’AI supporta la cura ma non sostituisce il giudizio clinico-assistenziale.Delega impropria, spersonalizzazione.Verificare sempre il caso concreto.
2Competenza e formazioneUsare l’AI solo con alfabetizzazione adeguata al rischio.Errori da uso inconsapevole.Formazione iniziale, continua e supervisione.
3Appropriatezza dello strumentoUsare solo sistemi coerenti con finalità e contesto clinico.Uso di tool “consumer” come strumenti clinici.Autorizzazione aziendale e validazione.
4Privacy e segreto professionaleNon inserire dati sanitari reali in sistemi non autorizzati.Violazione GDPR, re‑identificazione.Minimizzazione dei dati e utilizzo di ambienti sicuri.
5Supervisione umanaControllare, correggere o scartare l’output se incongruente.Automatismo decisionale.Garantire una human oversight effettiva.
6TrasparenzaComunicare in modo leale il ruolo dello strumento quando rilevante.Opacità verso il paziente.Fornire informazione chiara e comprensibile.
7Verifica criticaConfrontare l’output con evidenze, protocolli e contesto.“Hallucinations”, errori plausibili.Usare fonti affidabili e giudizio professionale.
8Documentazione veritieraEvitare il copia‑incolla acritico nella cartella infermieristica.Documentazione falsa o generica.Revisionare integralmente il testo generato.
9Equità e biasValutare l’impatto su gruppi fragili e disuguaglianze digitali.Esclusione, discriminazione.Garantire accessibilità e alternative non digitali.
10Governance organizzativaInserire l’AI in policy, audit e valutazioni del rischio.Improvvisazione locale, assenza di responsabilità.Definire policy, DPIA, log e monitoraggio.

Introduzione

L’intelligenza artificiale ha già trovato applicazione pratica in molti ambiti della sanità, che vanno dai sistemi di supporto documentale, agli algoritmi predittivi, dai software per il monitoraggio remoto, alle piattaforme conversazionali, agli strumenti di sintesi di referti e cartelle cliniche, soluzioni per la pianificazione dei processi, e più recentemente, a modelli generativi che sanno produrre testi, immagini e sintesi cliniche.

In tutto questo, l’infermiere non può e non deve essere visto come un semplice fruitore passivo di tecnologie realizzate da altri. Invece, da lui ci si aspetta che ne comprenda il funzionamento, ne valuti l’impatto sulla persona assistita e ne governi l’uso entro limiti professionali, etici e giuridici prestabiliti.

Nei contesti così delineati, la domanda centrale non è se l’AI sia utile, ma a quali condizioni il suo impiego possa essere legittimo, prudente e rispettoso della missione professionale dell’infermiere. L’agire professionale dell’infermiere, per esempio, è di per sé relazionale, situato e responsabile. Profondere l’azione dell’infermiere nel mero ripetere operazioni è gravemente riduttivo, poiché comprime l’azione professionale ad una serie di compiti, trascurando la valutazione e l’interpretazione del bisogno, l’educazione, la comunicazione, l’advocacy, il coordinamento e, per finire, la gestione. La semplice introduzione dell’AI non significa che si sottragga il professionista, poiché il professionista è un documento e garanzia di realizzazione di questa sorveglianza critica.

Il saggio adotta un approccio integrato: valorizza i principi etici che guidano la professione infermieristica e li mette in dialogo con il quadro normativo europeo e le principali linee guida internazionali. L’ipotesi di lavoro è che le norme fondamentali sull’uso dell’AI da parte degli infermieri possano essere ricostruite come un sistema coerente di doveri professionali, che includono la protezione della dignità degli individui, l’esercizio della competenza tecnologica, il non delegare le decisioni a una macchina, la prevenzione di un’elaborazione inappropriata dei dati sanitari, la salvaguardia dell’equità e della sicurezza, l’assicurazione di una documentazione approfondita e l’agire sempre all’interno di un quadro di governance organizzativa chiaramente definito.

Fonti normative, deontologiche ed etiche di riferimento

Per impegnarsi seriamente nella relazione tra l’IA e la professione infermieristica, è necessario chiarire subito che non esiste un’unica norma ‘onnipervadente’ che governa la relazione tra IA e professione infermieristica. La questione è quella di molteplici livelli: deontologico-professionale, protezione dei dati personali, sicurezza del sistema e dei dispositivi medici, responsabilità organizzativa e, più in generale, etica pubblica della tecnologia. Questa complessità non dovrebbe essere vista come un’inutile complicazione. Invece, è un segno di maturità. L’IA nella salute affronta simultaneamente la persona, i processi, le decisioni, i dati e le organizzazioni.

Un primo punto di riferimento fondamentale è il Codice Deontologico della Professione Infermieristica della FNOPI, entrato in vigore il 22 marzo 2025. Questo Codice va oltre il semplice menzionare la dignità, l’autonomia e la sicurezza della persona assistita, e dedica un articolo alle nuove tecnologie, sottolineando che il paziente deve rimanere centrale e che deve essere garantita l’equità di accesso. Ribadisce anche obblighi che sono già decisivi per la questione in oggetto: competenza, formazione continua, riservatezza, documentazione accurata, comunicazione chiara, gestione del rischio e segnalazione di pratiche inappropriate.

La maggior parte della dottrina considera la protezione dei dati, l’AI Act e il GDPR, come parte della nuova cornice europea per la salvaguardia dei diritti fondamentali ed etici dei cittadini, dell’European Act e GDPR del 2023, considerando che il settore sanitario è particolarmente attinente al rimanere, da quasi sempre, nei margini, per paura delle avversità dettate da una protezione austera dei dati. Detto ciò, il secondo, più sentito, documento della Commissione Europea stabilisce che dall’attuazione principale a fini etici e accademici, e con l’ordine e la presenza e con l’adempimento umano e dei ministri.

I documenti dell’OMS forniscono un quadro etico molto utile per i fornitori di assistenza sanitaria spiegando come possono affrontare questioni incentrate sull’autonomia, il benessere e la sicurezza dei loro pazienti; come possono affrontare le questioni di trasparenza e spiegabilità, responsabilità e inclusione; come possono affrontare le questioni di equità, sostenibilità e reattività dei sistemi sanitari. Tutti questi principi si integrano molto bene con la professione infermieristica, che traduce l’assistenza nella pratica quotidiana, nella prossimità e nella protezione dei più vulnerabili.

1) La regola fondamentale: l’AI deve assistere, non sostituire, l’infermiere

La prima e più importante regola è che l’intelligenza artificiale può supportare il professionista, ma non può sostituire il nucleo umano del giudizio infermieristico. Nonostante il ragionamento possa sembrare logico e lineare, il pratico contesto dell’esercizio dell’assistenza infermieristica non è, in un certo modo, un’esperienza di semplice sequenzialità.

All’interno dell’assistenza ci sono numerose ed importanti componenti, prima fra tutte l’osservazione e la registrazione del comportamento, advocacy e registrazione, comprensione del contesto e della struttura familiare, e affinamento della propria comunicazione, il che implica negoziazione degli obiettivi, e primum non nocere, il che chiaramente è di natura contraddittoria. Nessun sistema automatico possiede, in senso pieno, questa competenza situata.

Assegnare professionalmente uno stato di sostituzione all’IA altererebbe il quadro stesso della relazione infermiere-paziente. Certamente l’infermiere può utilizzare strumenti digitali per facilitare l’organizzazione delle informazioni, il riconoscimento dei modelli, gli avvisi precoci, la redazione rapida e l’attività educativa. Ma la responsabilità rimane con l’umano quando si tratta di valutazione, pianificazione, intervento e valutazione, e questo rimane valido anche quando l’umano non è convinto da quella valutazione. Dove l’output automatizzato appare articolato e fattualmente persuasivo, rimane da dimostrare che l’output soddisfa veramente i bisogni di quello specifico individuo in quello specifico momento in quello specifico contesto.

Questa regola si applica soprattutto in situazioni con un alto grado di intensità relazionale: consenso informato, educazione terapeutica, comunicazione di criticità, preparazione alla dimissione, assunzione di responsabilità per persone vulnerabili, accompagnamento alla fine della vita, gestione del dolore, supporto ai caregiver. Qui, i limiti dell’automazione sono particolarmente chiari. Una professione che segue in modo acritico le risposte algoritmiche rischia di perdere la sua caratteristica più distintiva: la cura come incontro competente tra persona e professionista.

2) Competenza digitale e AI literacy come dovere professionale

Il secondo aspetto su cui ci si deve concentrare è la competenza. Gli infermieri non dovrebbero avere accesso a strumenti di AI se non stanno, o non stanno iniziando, a costruirsi una competenza professionale riguardo a come e dove la tecnologia si applica, i limiti, le condizioni di affidabilità e le conseguenze legate all’uso della tecnologia. Non ci si aspetta una formazione ingegneristica ma una literacy professionale proporzionata al rischio: sapere cosa fa uno strumento, sui quali dati opera, che output produce, quali errori può commettere, quando non è appropriato utilizzarlo e quali misure di sicurezza devono essere create.

A livello di ordinamento giuridico comunitario, è addirittura espressamente richiesto. L’AI Act impone a tutti i provider e deployer di garantire un livello di alfabetizzazione in materia di AI adeguato alla complessità delle applicazioni investigando i dipendenti che usano questi strumenti. Per gli infermieri, questo si traduce in formazione che almeno deve: sapere distinguere tra AI generativa e software clinicamente validato; avere conoscenze di base in materia di rischio algoritmico; conoscere e applicare i principi di privacy by design; sapere riconoscere bias, “hallucinations” e overreliance; sapere e garantire l’uso appropriato dei prompt nei contesti autorizzati; conoscere e applicare le procedure di escalation in caso di output incongruenti.

Dall’analisi deontologica, la responsabilità con l’AI è collegata all’adeguato aggiornamento professionale e alla richiesta di supervisione quando si trattano aspetti non del tutto compresi. Un infermiere che utilizza tecnologie avanzate e non ne conosca neppure i presupposti, pone sia il paziente che se stesso a un duplice rischio: da un lato, la compromissione della sicurezza, dall’altro il violare i doveri professionali e agire con scarsa responsabilità. Pertanto, la AI literacy deve trovare un’adeguata e stabile collocazione nella progettazione dei curricula universitari, della formazione continua in azienda, e dei moduli ECM.

3) Appropriatezza degli strumenti: non tutta l’AI è clinicamente utilizzabile

Differenti strumenti sono utilizzabili in maniera diversa in base al contesto in cui si trovano e le loro funzionalità di assistenza e sanitarie. Se un chatbot generico o una piattaforma consumer è utilizzabile per lavoro di brainstorming o revisione di linguaggio e altro in contesti non sensibili, non è il caso di utilizzare sia assistenziali, sia per il trattamento di dati sanitari o per assistere il preso in carico in contesti decisionali.

Nell’ambito della sanità, si rendono necessarie innumerevoli variabili per definire uno strumento quanto opportuno, appropriatezza legale della pratica, scopo per cui l’uditorio, informatica oggetto dell’insieme, scienza e il documento, che dovrebbero essere mostrati in forma incompleta, che potrebbe includere un software per il punto dell’area della salute. Un software di dati potrebbe essere un attrezzo clinico che funziona solo se è un attrezzo clinico di attrezzo, di medicina clinica.

Il professionista prima di utilizzare un qualsiasi strumento di intelligenza artificiale potrebbe porsi delle domande più specifiche, come: Il mio ente ha autorizzato l’utilizzo di questo strumento? È un sistema, che si colloca in un ambiente protetto? È stato oggetto di una validazione per l’uso in questione? C’è un referente organizzativo per l’uso di questo strumento? Quali sono i dati che posso inserire? Qual è la decisione risultante che dovrebbe (o non dovrebbe) essere supportata da questo output? Ecc.

L’appropriatezza, in altre parole, non è una proprietà astratta della tecnologia, ma è conseguenza di un appropriato professionale, tecnico ed organizzativo.

4) Riservatezza, segreto professionale e protezione dei dati sanitari

La raccolta di dati è un aspetto molto delicato nelle intersezioni tra tecnologia e professione infermieristica. Ogni giorno, gli infermieri raccolgono dati sensibili e personali, riguardanti cose come diagnosi, terapie, fragilità, storia familiare, condizioni economiche, e abitudini, sofferenze, e elementi di vulnerabilità. Anche una piccola parte di questi dati, se caricata su un sistema di IA, anche se l’operatore ha “anonimizzato” i dati, la violazione del segreto è ovvia.

Recentemente, l’EDPB ha chiarito una serie di principi. Le IA addestrate su dati personali non possono considerarsi anonime, e in molte situazioni i modelli possono generare o re-estrarre dati personali in seguito alle interazioni con l’utente. Di seguito, viene stabilito un presupposto di estrema cautela: l’infermiere non deve alimentare sistemi di intelligenza artificiale, pubblici o non autorizzati, con dati personali, dati di facile re-identificazione, referti, fotografie, testi clinici o qualsiasi insieme di informazioni di micro-dati.

Dal punto di vista operativo, la protezione dei dati comprende, come minimo, le seguenti cinque condotte: sempre fomentare la minimizzazione dei dati; fomentare l’uso di esempi fittizi o di simulazione nella formazione; utilizzare solo gli ambienti di lavoro o formalmente autorizzati per trattare dati reali; rivedere la base legittimante e le disposizioni dell’istituzione; collaborare al più presto in caso di possibili usi indebiti o fughe di informazioni. La cultura della privacy non è un ostacolo all’assistenza, ma una forma di protezione verso la persona assistita e la credibilità di tutta la professione.

5) Supervisione umana e responsabilità professionale

La tecnologia è realmente utile solo se è sotto la supervisione umana. Per l’AI Act, la supervisione umana non è un mero “accessorio”, ma un requisito per i sistemi ad alto rischio: è necessaria una formazione, un’abilitazione, una condizione affinché la persona conosca il funzionamento, il sistema, il funzionamento, la manutenzione, riconosca la presenza di errori, la disconsiderazione o la correzione della risposta, e i soggetti che lavorano in potenziali pericoli per la salute, la sicurezza, o i diritti umani.

Applicando alla pratica infermieristica, la supervisione significa che il professionista non può limitarsi ad ascoltare una raccomandazione di un algoritmo e basta. Deve garantire la qualità dei dati in ingresso, interrogarsi se la risposta abbia senso, se sia coerente con l’osservazione clinica, con i parametri, la storia del paziente e con i protocolli dell’istituzione e deve sempre partire dal presupposto che può distaccarsi dalla risposta, in modo fondato. Affinché la supervisione esista realmente, è necessario che ci sia tempo, formazione, un insieme di regole che governano le scale di funzionamento e una cultura all’interno dell’istituzione che non premi l’ubbidienza cieca alla macchina.

La responsabilità dell’atto infermieristico ricade sul professionista e, per gli aspetti organizzativi, sulla direzione che ha scelto di implementare e gestire la tecnologia. L’AI non può costituire un alibi per giustificare l’errore. Un infermiere, seppur supportato da un sistema, ha l’obbligo di vigilanza e scrupolo, e non può, in modo acritico, integrare in una decisione assistenziale o in una documentazione un elemento errato, incongruo, incompleto o non pertinente.

6) Trasparenza verso il paziente e comunicazione eticamente corretta

La relazione di cura si basa su trasparenza e fiducia. Quando un’AI ha un ruolo importante in un supporto legato a sintesi, classificazioni, percorsi educativi, sistemi di priorità, decisioni o organizzazioni, il paziente non può essere tenuto all’oscuro di questo tipo di supporto. Trasparenza non è tecnicismi, ma una comunicazione chiara e comprensibile.

Per il professionista questo comporta almeno tre impegni. Primo: non fare attribuzioni di giudizi che, di fatto, non derivano dall’azione diretta di un essere umano, ma in modo sostanziale da un sistema automatico. Secondo: nel caso si ritenga rilevante, si spieghi che si sta utilizzando un sistema di supporto e che il professionista ha in essere una verifica critica rispetto all’output. Terzo: curare che il testo prodotto o mediato dall’AI sia chiaro, rispettoso, non stigmatizzante e adeguato rispetto al livello di literacy sanitaria della persona assistita.

Se il professionista spiega al paziente il ruolo dell’AI e la relazione di cura, questo può aumentare la fiducia e l’attenzione del paziente nel processo, ponendo domande e segnalando discrepanze. Questo non diminuisce ma aumenta l’autorità del professionista, in quanto mostra che la tecnologia viene usata in una relazione di responsabilità, e non a sostituire la relazione umana.

7) Verifica critica dell’output: evidenze, contesto e limiti delle risposte generative

Uno dei pericoli più insidiosi dell’AI generativa è la produzione di testi filologicamente corretti, ma errati, incompleti, decontestualizzati o inventati. In ambito sanitario il fenomeno è preoccupante in quanto un praticante sanitario potrebbe interpretare bene un testo convincente, per quanto errato possa fosse contenere linee guida inappropriate, semplificazioni pericolose, citazioni normative errate o interpretazioni cliniche infondate. Pertanto, un infermiere non deve cadere nell’errore di confondere il fluido stile di scrittura con la solidità dei contenuti.

La regola è chiara: ogni output con rilevanza clinica deve essere oggetto di verifica. La verifica è un’operazione di confronto con linee guida, procedure organizzative, con la letteratura, criteri di triage, protocolli terapeutici, F.U. di un dispositivo, valutazione della persona e, quando ritenuto necessario, con l’interdisciplinarità. Nella fase di organizzazione preliminare delle informazioni, l’AI può rivelarsi utile, ma la validazione appartiene a un passaggio umano irrinunciabile.

Per gli infermieri, l’esercizio di questa capacità critica ha anche un valore formativo ed epistemologico. Abituarsi a porsi interrogativi, quali: da dove proviene una risposta? quali sono le fonti? e così via in un susseguirsi di domande rivolte alla coerenza: rispetto al setting, all’età del paziente, alla sua specifica condizione di fragilità, alle comorbidità, alla legge e al protocollo locale? Paradossalmente, l’AI rende la competenza critica del professionista sanitario ancor più preponderante.

8) Documentazione infermieristica: accuratezza, veridicità e limiti del copia-incolla

La documentazione infermieristica è parte integrante dell’assistenza e non un adempimento burocratico. Per questo motivo, i rischi dell’uso dell’AI per la stesura di note, consegne, sintesi di monitoraggio o piani assistenziali devono essere affrontati in modo estremamente cautelativo. Se da un lato l’automazione è in grado di presentare un testo strutturato, standardizzare alcuni campi o proporre bozze, dall’altro lato, la responsabilità documentale compete unicamente al professionista che la sottoscrive. Un’IPOTESI di rischio è la presenza di un banale copia e incolla. Un testo generato automaticamente potrebbe contenere la descrizione di fenomeni in realtà mai osservati, inferenze non verificate, un linguaggio non appropriato ed alcune omissioni di particolare gravità. Documentazione “standardizzata” potrebbe risultare in una perdita dell’essenzialità clinica del singolo paziente e della singolarità clinica del singolo caso. La documentazione deve essere sempre frutto di un’osservazione e una valutazione concreta rispetto a quello che è stato effettuato ed a quello che è stato programmato.

Le norme aziendali per l’uso dell’AI da parte del personale devono essere chiare e precise. Per esempio, nel caso di pre compilazione, è fondamentale chiarire quali parti debbano e non debbano essere pre compilate, come gestire i principi della documentazione, come formare gli operatori a revisionare documenti generati dall’AI?, e come essere sicuri di audit e accountability.

9) Equità, bias e fragilità digitale

Alcune tecnologie sembrano efficienti eppure possono produrre effetti ingiusti. I sistemi di intelligenza artificiale imparano dai dati, dai modelli e dai sistemi di classificazione che possono riflettere i pregiudizi esistenti: rappresentazione diseguale di alcune popolazioni, categorie diagnostiche basate su gruppi ristretti, linguaggio esclusivo, interfacce che sono psicologicamente difficili da usare e assunzioni culturali implicite. Nella sanità, queste limitazioni possono portare a disuguaglianze: bisogni sottovalutati, comunicazioni incomprensibili, accesso selettivo ai servizi e sistemi digitali, penalizzazione degli anziani, bassa alfabetizzazione sanitaria, bassa alfabetizzazione digitale, pazienti stranieri e cognitivamente o sensorialmente disabili.

A causa della loro prossimità quotidiana alla persona, gli infermieri sono spesso i primi a notare tali asimmetrie. Pertanto, la sensibilità ai pregiudizi dovrebbe sicuramente essere nella lista delle competenze per un uso responsabile dell’IA. Non è sufficiente chiedere, in astratto, se lo strumento “funziona.” È importante chiedere, per chi funziona; in quali circostanze; e con quali esclusioni e danni secondari. Un sistema che semplifica il lavoro del professionista ma rende l’accesso più difficile per il paziente non è, in ultima analisi, un buon sistema di assistenza.

Si sottolinea un principio da cui scaturisce una regola importante: ogni implementazione dell’IA nel nursing deve essere analizzata anche rispetto all’equità di accesso, comprensibilità, disponibilità di alternative non digitali, e rispetto ai possibili effetti sulle fasce vulnerabili della popolazione. La giustizia non è un capitolo accessorio della giustizia tecnologica, ma uno dei suoi criteri fondamentali di qualità.

10) Governance organizzativa, DPIA e responsabilità dei servizi

L’uso dell’AI deve essere regolamentato. Questo significa che l’AI deve avere una chiara definizione della governance da parte dell’organizzazione sanitaria che desidera implementare sistemi di intelligenza artificiale. Deve definire finalità lecite, ruoli e responsabilità, procedure di delega, livelli di sicurezza, formazione, monitoraggio e gestione degli incidenti, audits e.g. incidenti, raccordo con referenti privacy, ICT, risk management e direzione sanitaria. Anche una tecnologia di ottima qualità, senza una buona governance, è destinata a trasformarsi in una minaccia.

Particolare attenzione deve prestarsi alla privacy. In giurisprudenza europea, l’uso di tecnologie innovative che possono trattare i dati in maniera rischiosa per i diritti e le libertà delle persone (e in particolare in relazione a trattamenti massivi di dati sensibili, quali i dati sanitari) è soggetto a una valutazione dei rischi e degli effetti del trattamento dei dati (DPIA). In molti casi, quindi, la DPIA non è formale, anzi è essenziale per gestire preventivamente il rischio.

Dall’angolo infermieristico della professione, l’assunzione di responsabilità in merito alla governance organizzativa si traduce anche in un dovere di reporting. L’operatore, si trovi, anche, nel contesto di uno strumento non autorizzato, non semplicemente dovrebbe “normalizzare” un contesto. L’attività professionale, in qualità di infermiere, non può limitarsi a singoli atti assistenziali, ma si espande anche al contesto sistemico di cui questi atti assistenziali fanno parte.

Applicazioni pratiche: esempi di uso appropriato e inappropriato

Per aiutare a comprendere meglio le regole sopra riportate, consideriamo alcuni scenari tipici. In generale, sarebbe appropriato utilizzare strumenti di intelligenza artificiale per scopi educativi su casi ipotetici, per l’organizzazione di materiali didattici non sensibili, la creazione di opuscoli informativi bozza da rivedere da un professionista, per la sintesi di procedure interne validate, per assistere le traduzioni o le semplificazioni linguistiche di materiali generici, per compiti amministrativi di dati clinici non sensibili e per compiti amministrativi di dati clinici non sensibili.

D’altra parte, è altamente inappropriato, o almeno comporta i maggiori rischi, utilizzare strumenti di intelligenza artificiale per l’inserimento di dati clinici, come personale, storie cliniche e note cliniche, fotografie di lesioni, dati identificativi, messaggi clinici e sintesi di casi reali riconoscibili, richieste di revisione professionale immediata su diagnosi, terapia e assistenza prioritaria, e piattaforme non approvate e non regolamentate. È inoltre altamente inappropriato utilizzare l’IA per completare automaticamente la documentazione clinica senza revisione professionale, per assumere una neutralità oggettiva, o per utilizzare l’IA per comunicazioni sensibili invece di un dialogo diretto professionale.

In questo caso, c’è un’ampia gamma che necessita di una politica precisa. Ad esempio, un sistema aziendale che supporta la sintesi di rapporti potrebbe essere accettabile se integrato nei sistemi informativi dell’azienda, monitorato, registrato, con istruzioni chiare, supervisione umana e limiti specifici sul suo utilizzo. La differenza tra un uso virtuoso e un uso improprio non dipende solo dallo strumento, ma dal contesto in cui viene utilizzato.


Checklist operativa per gli infermieri

  • Accertarsi che lo strumento sia autorizzato dall’organizzazione sanitaria.
  • Non inserire dati clinici identificabili in chatbot o piattaforme non approvate.
  • Avere conoscenza dello scopo, dei limiti, dei principali rischi e dei modi corretti per utilizzare il sistema.
  • Nella pratica, assicurarsi di rivedere l’accuratezza di qualsiasi output prima di utilizzarlo.
  • Utilizzare l’IA come assistenza editoriale o organizzativa, non come decisore autonomo.
  • Documentare solo i fatti che sono stati osservati, verificati e assunti consapevolmente dal professionista.
  • Informare chiaramente il paziente se il sistema influisce in modo significativo sul suo percorso di assistenza.
  • Segnalare eventuali strumenti o procedure che possono comportare un rischio per la privacy, la sicurezza o l’equità.
  • Prevedere formazione, audit e aggiornamenti periodici delle politiche aziendali.
  • Considerare l’impatto dell’IA sui pazienti più vulnerabili, inclusi quelli con bassa alfabetizzazione digitale.

Implicazioni per la formazione universitaria e l’aggiornamento professionale

Le 10 regole fondamentali riguardanti l’uso dell’IA da parte degli infermieri devono essere tradotte in competenze che facciano parte del curriculum, non devono semplicemente rimanere a livello di principi. Le università non possono solo “menzionare” l’innovazione digitale, è necessario educare gli studenti a un uso ragionato, etico e legalmente consapevole dell’IA. Ciò significa che i curriculum devono essere integrati con moduli su etica digitale, protezione dei dati, valutazione critica dei risultati dell’IA, pregiudizio algoritmico, documentazione e comunicazione, e documentazione e comunicazione con il paziente quando la tecnologia intelligente è presente.

Lo sviluppo professionale dovrebbe essere strutturato almeno su tre livelli. Un primo livello di base, rivolto a tutti gli infermieri, incentrato su rischi, opportunità e precauzioni generali. Un secondo livello intermedio destinato a coloro che utilizzano strumenti aziendali più strutturati, con particolare enfasi sulla supervisione, i processi e la documentazione. Un terzo livello avanzato per coordinatori, leader dell’innovazione, infermieri ricercatori e manager, incentrato su governance, approvvigionamento e audit e valutazione dell’impatto organizzativo.

La formazione sull’IA non significa insegnare a diventare dipendenti dalle macchine, ma a dirigerle. La cultura digitale deve rimanere coerente con la cultura della cura: attenzione alla persona, responsabilità, cautela, equità, collaborazione interprofessionale e responsabilità per le proprie decisioni.

Conclusioni

Le regole di base per l’uso della tecnologia dell’intelligenza artificiale da parte degli infermieri possono essere riassunte in un principio generale e diversi corollari operativi. Il principio guida è che la tecnologia deve essere secondaria all’etica della cura e alla responsabilità professionale dell’infermiere.

I corollari operativi includono quanto segue:

  • l’IA non sostituisce il giudizio infermieristico;
  • l’uso dell’IA richiede un’adeguata formazione;
  • l’IA può essere utilizzata solo insieme a strumenti di IA approvati e appropriati;
  • l’uso dell’IA richiede rigorose misure di protezione per la privacy e la riservatezza professionale;
  • l’uso dell’IA richiede supervisione umana e non deve essere utilizzato in modo automatizzato e non responsabile;
  • l’uso dell’IA deve essere valutato in termini di equità;
  • l’uso dell’IA deve essere legale e inserito in una solida governance organizzativa.

Nel settore sanitario, non basta che una tecnologia sia efficiente o impressionante. Deve essere “giusta”, spiegabile, sicura, proporzionata e in un modo che sia coerente con la dignità umana. Per la professione infermieristica, questo significa assumere un ruolo attivo: non subire l’IA, non demonizzarla, ma guidarla. È solo con questa mentalità che l’innovazione può diventare un mezzo per migliorare la cura e non uno strumento di de-personalizzazione o un rischio insidioso.

La questione nel merito non è se un infermiere userà intelligenza artificiale, e in parte lo sta già facendo, ma se avrà la capacità di farlo in funzione di buone, solide, e forti, prassi professionali. È a queste prassi che si assegna il valore clinico etico della professione infermieristica del futuro.

Bibliografia essenziale

Francesco Germini

Direttore di distretto sociosanitario 10 ASL Bari e Professore a contratto presso l’Università di Bari. Autore di testi infermieristici e dirigente delle professioni sanitarie.

Scrivi un commento

Accedi per poter inserire un commento