Dutch IT Channel – L’OMS chiede un’IA sicura ed etica

Gli LLM includono alcune delle piattaforme in più rapida crescita come ChatGPT, Bard, Bert e molte altre che imitano la comprensione, l’elaborazione e la produzione della comunicazione umana. Il loro rapido rilascio pubblico e il crescente uso sperimentale per scopi legati alla salute stanno generando molto entusiasmo per la loro capacità di soddisfare i bisogni di salute delle persone.

È imperativo che i rischi siano attentamente considerati quando si utilizzano i LLM per migliorare l’accesso alle informazioni sulla salute, come supporto decisionale, o anche per costruire capacità diagnostiche in contesti con risorse insufficienti per monitorare la salute delle persone, proteggere e ridurre le disuguaglianze.

Sebbene l’OMS sia entusiasta dell’uso appropriato delle tecnologie, compresi i LLM, per supportare gli operatori sanitari, i pazienti, i ricercatori e gli scienziati, vi sono preoccupazioni che la cautela che normalmente verrebbe esercitata nei confronti delle nuove tecnologie non sia sistematicamente praticata con i LLM. Ciò include un’adesione diffusa ai valori fondamentali di trasparenza, inclusività, impegno pubblico, supervisione di esperti e valutazione approfondita.

L’adozione frettolosa di sistemi non testati può portare a errori da parte degli operatori sanitari, danni ai pazienti, minare la fiducia nell’IA e quindi minare (o ritardare) i potenziali benefici a lungo termine e l’adozione di queste tecnologie nel mondo.

Le preoccupazioni che richiedono la rigorosa supervisione necessaria per utilizzare le tecnologie in modo sicuro, efficace ed etico includono:

  • i dati utilizzati per addestrare l’intelligenza artificiale possono essere distorti e generare informazioni fuorvianti o imprecise che potrebbero comportare rischi per la salute, l’equità e l’inclusione;
  • Gli LLM generano risposte che possono sembrare affidabili e plausibili per un utente finale; tuttavia, tali risposte possono essere del tutto errate o contenere gravi errori, soprattutto per le risposte relative alla salute;
  • Gli LLM possono essere addestrati su dati che potrebbero non essere stati precedentemente autorizzati per tale uso e gli LLM potrebbero non proteggere i dati sensibili (inclusi i dati sanitari) che un utente fornisce a un’applicazione per generare una risposta;
  • Gli LLM possono essere utilizzati in modo improprio per generare e diffondere disinformazione altamente persuasiva sotto forma di contenuti testuali, audio o video difficili da distinguere per il pubblico da contenuti sanitari affidabili; E
  • Pur impegnandosi a sfruttare le nuove tecnologie, tra cui l’IA e la salute digitale per migliorare la salute umana, l’OMS raccomanda ai responsabili politici di garantire la sicurezza e la protezione dei pazienti, mentre le aziende tecnologiche si sforzano di commercializzare LLM.
READ  Con Vital Solutions, Lorraine Luchjenbroers fa della salute mentale sul posto di lavoro un argomento di discussione

L’OMS propone che queste preoccupazioni vengano affrontate e che la chiara evidenza dei benefici sia misurata prima del loro uso diffuso nell’assistenza sanitaria e nella medicina tradizionali, sia da parte di individui, operatori sanitari o amministratori, sistema sanitario e decisori.

L’OMS ribadisce l’importanza dell’applicazione dei principi etici e di una governance appropriata, come elencato in Linee guida dell’OMS su etica e governance dell’IA per la salute , nella progettazione, nello sviluppo e nella diffusione dell’IA per la salute. I 6 principi fondamentali individuati dall’OMS sono: (1) proteggere l’autonomia; (2) promuovere il benessere umano, la sicurezza umana e l’interesse pubblico; (3) assicurare trasparenza, spiegabilità e comprensibilità; (4) promuovere la responsabilità e la responsabilità; (5) garantire inclusività ed equità; (6) Promuovere un’IA reattiva e sostenibile.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *