Dutch IT Channel – L’OMS chiede un’IA sicura ed etica

Gli LLM includono alcune delle piattaforme in più rapida crescita come ChatGPT, Bard, Bert e molte altre che imitano la comprensione, l’elaborazione e la produzione della comunicazione umana. Il loro rapido rilascio pubblico e il crescente uso sperimentale per scopi legati alla salute stanno generando molto entusiasmo per la loro capacità di soddisfare i bisogni di salute delle persone.

È imperativo che i rischi siano attentamente considerati quando si utilizzano i LLM per migliorare l’accesso alle informazioni sulla salute, come supporto decisionale, o anche per costruire capacità diagnostiche in contesti con risorse insufficienti per monitorare la salute delle persone, proteggere e ridurre le disuguaglianze.

Sebbene l’OMS sia entusiasta dell’uso appropriato delle tecnologie, compresi i LLM, per supportare gli operatori sanitari, i pazienti, i ricercatori e gli scienziati, vi sono preoccupazioni che la cautela che normalmente verrebbe esercitata nei confronti delle nuove tecnologie non sia sistematicamente praticata con i LLM. Ciò include un’adesione diffusa ai valori fondamentali di trasparenza, inclusività, impegno pubblico, supervisione di esperti e valutazione approfondita.

L’adozione frettolosa di sistemi non testati può portare a errori da parte degli operatori sanitari, danni ai pazienti, minare la fiducia nell’IA e quindi minare (o ritardare) i potenziali benefici a lungo termine e l’adozione di queste tecnologie nel mondo.

Le preoccupazioni che richiedono la rigorosa supervisione necessaria per utilizzare le tecnologie in modo sicuro, efficace ed etico includono:

  • i dati utilizzati per addestrare l’intelligenza artificiale possono essere distorti e generare informazioni fuorvianti o imprecise che potrebbero comportare rischi per la salute, l’equità e l’inclusione;
  • Gli LLM generano risposte che possono sembrare affidabili e plausibili per un utente finale; tuttavia, tali risposte possono essere del tutto errate o contenere gravi errori, soprattutto per le risposte relative alla salute;
  • Gli LLM possono essere addestrati su dati che potrebbero non essere stati precedentemente autorizzati per tale uso e gli LLM potrebbero non proteggere i dati sensibili (inclusi i dati sanitari) che un utente fornisce a un’applicazione per generare una risposta;
  • Gli LLM possono essere utilizzati in modo improprio per generare e diffondere disinformazione altamente persuasiva sotto forma di contenuti testuali, audio o video difficili da distinguere per il pubblico da contenuti sanitari affidabili; E
  • Pur impegnandosi a sfruttare le nuove tecnologie, tra cui l’IA e la salute digitale per migliorare la salute umana, l’OMS raccomanda ai responsabili politici di garantire la sicurezza e la protezione dei pazienti, mentre le aziende tecnologiche si sforzano di commercializzare LLM.
READ  Covid, Brusaferro: "Contagi? Forte crescita dell'incidenza. La variante Omicron diventerà dominante nelle prossime settimane”

L’OMS propone che queste preoccupazioni vengano affrontate e che la chiara evidenza dei benefici sia misurata prima del loro uso diffuso nell’assistenza sanitaria e nella medicina tradizionali, sia da parte di individui, operatori sanitari o amministratori, sistema sanitario e decisori.

L’OMS ribadisce l’importanza dell’applicazione dei principi etici e di una governance appropriata, come elencato in Linee guida dell’OMS su etica e governance dell’IA per la salute , nella progettazione, nello sviluppo e nella diffusione dell’IA per la salute. I 6 principi fondamentali individuati dall’OMS sono: (1) proteggere l’autonomia; (2) promuovere il benessere umano, la sicurezza umana e l’interesse pubblico; (3) assicurare trasparenza, spiegabilità e comprensibilità; (4) promuovere la responsabilità e la responsabilità; (5) garantire inclusività ed equità; (6) Promuovere un’IA reattiva e sostenibile.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *