Privacy Daily

PRIVACYDAILY

N. 185/2023

LE TRE NEWS DI OGGI:

  • IL FUTURO DELL’ASSISTENZA SANITARIA BASATA SULLA AI HA BISOGNO DEL TOCCO UMANO
  • I RICERCATORI TESTANO UN MODELLO LINGUISTICO DI GRANDI DIMENSIONI CHE PRESERVA LA PRIVACY DEI PAZIENTI
  • NPC APRE UN PORTALE PER CONTROLLARE I DATI DELLA PHILHEALTH

L’intelligenza artificiale nell’assistenza sanitaria è un argomento sempre più importante, che sarà discusso al World Health Summit che si terrà la prossima settimana a Berlino. L’intelligenza artificiale ha il potenziale per migliorare i trattamenti dei pazienti, ma presenta anche dei rischi: dalla raccolta e l’utilizzo dei dati ai pregiudizi che possono influenzare i dati dei pazienti.Entro il 2025 si prevede di investire oltre 30 miliardi di dollari nell’IA per l’assistenza sanitaria, a testimonianza della crescente fiducia nelle soluzioni sanitarie guidate dall’IA.Uno dei principali driver di questo investimento è la necessità di utilizzare meglio l’enorme quantità di dati sanitari disponibili. Attraverso l’analisi dei dati e strumenti come gli assistenti sanitari virtuali, l’IA può contribuire a ridurre in modo significativo i costi dell’assistenza sanitaria. Si stanno diffondendo anche i dispositivi sanitari indossabili e i piani di trattamento supportati dall’IA che si concentrano maggiormente sulle esigenze individuali e sulle misure sanitarie tempestive. In Cina, ad esempio, tali dispositivi di aziende come Huawei Technologies monitorano le statistiche sanitarie vitali, mentre piattaforme come Ping An Good Doctor offrono diagnosi preliminari guidate dall’IA. L’evoluzione dell’AI in Cina comprende anche innovazioni come gli algoritmi AI di Infervision per il rilevamento precoce delle malattie attraverso l’imaging medico e la precisione di Tianji Robot nella chirurgia ortopedica assistita da robot.E non si tratta solo della Cina. L’integrazione dell’IA nell’assistenza sanitaria ha registrato progressi significativi anche in Europa e negli Stati Uniti. Gli Stati Uniti, patria di pionieri come DeepMind, che ha addestrato i suoi algoritmi di IA a rilevare più di 50 malattie dell’occhio da scansioni mediche, enfatizzano la ricerca all’avanguardia con la vigilanza normativa. Le linee guida della Food and Drug Administration (FDA) per i dispositivi medici basati sull’IA e i mandati della Health Insurance Portability and Accountability Act (HIPAA) sulla privacy dei dati dimostrano questo impegno.

Secondo un nuovo studio del National Institutes of Health Clinical Center (NIH CC) pubblicato su Radiology, rivista della Radiological Society of North America (RSNA), i modelli linguistici di grandi dimensioni (LLM) gestiti localmente possono essere un’opzione fattibile per ottenere dati dai referti radiologici basati su testo, salvaguardando la privacy dei pazienti. I LLM sono modelli di apprendimento profondo addestrati a comprendere e generare testo in modo simile a quello umano. I modelli LLM lanciati di recente, come ChatGPT e GPT-4, hanno attirato l’attenzione. Tuttavia, non sono compatibili con i dati sanitari a causa dei vincoli di privacy.”ChatGPT e GPT-4 sono modelli proprietari che richiedono all’utente di inviare i dati a fonti OpenAI per l’elaborazione, il che richiederebbe la de-identificazione dei dati del paziente”, ha dichiarato l’autore senior Ronald M. Summers, M.D., Ph.D., ricercatore senior presso il Dipartimento di Radiologia e Scienze delle Immagini del NIH. “Rimuovere tutte le informazioni sanitarie dei pazienti richiede molto lavoro e non è fattibile per grandi gruppi di referti”.In questo studio, guidato da Pritam Mukherjee, Ph.D., staff scientist presso il CC del NIH, i ricercatori hanno testato la fattibilità dell’uso di un LLM gestito localmente, Vicuna-13B, per etichettare i risultati chiave dei referti radiografici del torace provenienti dal NIH e dal Medical Information Mart for Intensive Care (MIMIC) Database, un set di dati pubblicamente disponibili di cartelle cliniche elettroniche de-identificate.”La valutazione preliminare ha dimostrato che Vicuna, un LLM gratuito e disponibile al pubblico, si avvicina alle prestazioni di ChatGPT in compiti come la risposta a domande multilingue”, ha dichiarato Summers.Il set di dati dello studio comprendeva 3.269 referti di radiografie del torace ottenuti dal MIMIC e 25.596 referti del NIH. Utilizzando due prompt per due compiti, i ricercatori hanno chiesto al LLM di identificare ed etichettare la presenza o l’assenza di 13 reperti specifici sui referti di radiografie del torace. I ricercatori hanno confrontato le prestazioni dell’LLM con quelle di due strumenti di etichettatura non LLM ampiamente utilizzati.Un’analisi statistica dei risultati dell’LLM ha mostrato un accordo da moderato a sostanziale con i programmi informatici non LLM.”Il nostro studio ha dimostrato che le prestazioni dell’LLM sono paragonabili allo standard di riferimento attuale”, ha dichiarato Summers. “Con il giusto prompt e il giusto compito, siamo stati in grado di raggiungere un accordo con gli strumenti di etichettatura attualmente utilizzati”.Summers ha detto che gli LLM che possono essere gestiti localmente saranno utili per creare grandi insiemi di dati per la ricerca sull’IA senza compromettere la privacy dei pazienti.”Gli LLM hanno stravolto l’intero paradigma dell’elaborazione del linguaggio naturale”, ha dichiarato. “Hanno il potenziale per fare cose che abbiamo avuto difficoltà a fare con i tradizionali modelli linguistici pre-grandi”.

La Commissione Nazionale per la Privacy (NPC) ha lanciato venerdì scorso un portale per la ricerca di dati per i membri della Philippine Health Insurance Corp. (PhilHealth) colpiti dal malware Medusa. Un post sulla pagina Facebook dell’NPC venerdì sera ha annunciato il lancio del portale “Na-leak ba ang PhilHealth Data ko?” (I miei dati PhilHealth sono trapelati?) che consente ai membri di verificare il loro stato con l’assicurazione sanitaria statale. “L’obiettivo principale di questo strumento è quello di mettere i filippini, in particolare i cittadini più anziani, in condizione di adottare misure proattive per salvaguardare i propri dati e proteggersi da potenziali rischi come il furto di identità, il danno alla reputazione e la violazione della privacy”, ha dichiarato l’NPC in un comunicato di venerdì sera. “Questo database è un progetto indipendente lanciato dall’NPC, che utilizza un set di dati che sarebbe stato rilasciato dal gruppo Medusa e che conteneva 734 gigabyte di dati ottenuti. È fondamentale notare che il portale “Na-leak ba ang PhilHealth Data ko?” si concentra esclusivamente su questo specifico incidente e non comprende violazioni di dati provenienti da altre fonti o incidenti. Il commissario dell’NPC John Henry Naga ha dichiarato che lo sviluppo del portale per i membri di PhilHealth in un breve periodo di tempo “dimostra la nostra incrollabile dedizione alla protezione dei vostri dati personali”. “Attraverso questa iniziativa innovativa, siamo qui per darvi il controllo e la protezione che meritate sui vostri dati e sulla vostra privacy”, ha aggiunto Naga. “L’NPC ha assicurato agli utenti che il suo database sarà regolarmente aggiornato e comprenderà anche i dati di tutte le fasce d’età interessate dall’incidente della PhilHealth. Secondo l’NPC, a partire da venerdì 13 ottobre, il lotto iniziale di dati disponibili sul suo database comprendeva i dati dei cittadini anziani di età pari o superiore a 60 anni e conteneva circa 1 milione di record su 8,5 milioni di anziani.

English version

  •  OUR AI DRIVEN HEALTH CARE FURE NEEDS ONE VITAL INGREDIENT – THE HUMAN TOUCH
  • RESEARCHERS TEST LARGE LANGUAGE MODEL THAT PRESERVES PATIENT PRIVACY
  • NPC OPENS PORTAL TO CHECK PHILHEALTH DATA

Artificial intelligence in healthcare is increasingly an important topic, and one that will be discussed at the World Health Summit next week in Berlin. AI has the potential to improve patient outcomes but it also poses risks – from data collection and use to biases that can skew patient outcomes.By 2025, more than US$30 billion is expected to be invested into AI for healthcare, a reflection of the growing trust in AI-driven healthcare solutions.A major driver of this investment is the imperative to make better use of the vast amount of healthcare data available. Through data analysis and tools such as virtual health assistants, AI can help to significantly cut healthcare costs.Also becoming popular are wearable health devices and AI-backed treatment plans that focus more on individual needs and early healthcare measures. In China for instance, such devices from companies including Huawei Technologies monitor vital health statistics, while platforms like Ping An Good Doctor offer AI-driven preliminary diagnoses. China’s AI healthcare evolution also includes innovations such as Infervision’s AI algorithms for early disease detection through medical imaging, and Tianji Robot’s precision in robot-assisted orthopaedic surgery.And it’s not just China. The integration of AI into healthcare has also seen significant advances in Europe and the United States. Countries including Britain, France and Germany are spearheading public-private initiatives, such as digital innovation hubs in healthcare.The US, home to pioneers like DeepMind, which trained its AI algorithms to detect more than 50 eye diseases from medical scans, emphasises cutting-edge research with regulatory vigilance. The Food and Drug Administration’s (FDA’s) guidelines for AI-based medical devices and the Health Insurance Portability and Accountability Act’s (HIPAA’s) data privacy mandates demonstrate this commitment.

Locally run large language models (LLMs) may be a feasible option for extracting data from text-based radiology reports while preserving patient privacy, according to a new study from the National Institutes of Health Clinical Center (NIH CC) published in Radiology, a journal of the Radiological Society of North America (RSNA). LLMs are deep-learning models trained to understand and generate text in a human-like way. Recently released LLM models such as ChatGPT and GPT-4 have garnered attention. However, they are not compatible with healthcare data due to privacy constraints.“ChatGPT and GPT-4 are proprietary models that require the user to send data to OpenAI sources for processing, which would require de-identifying patient data,” said senior author Ronald M. Summers, M.D., Ph.D., senior investigator in the Radiology and Imaging Sciences. Department at the NIH. “Removing all patient health information is labor-intensive and infeasible for large sets of reports.”In this study, led by Pritam Mukherjee, Ph.D., staff scientist at the NIH CC, researchers tested the feasibility of using a locally run LLM, Vicuna-13B, to label key findings from chest X-ray reports from the NIH and the Medical Information Mart for Intensive Care (MIMIC) Database, a publicly available dataset of de-identified electronic health records.“Preliminary evaluation has shown that Vicuna, a free publicly available LLM, approaches the performance of ChatGPT in tasks such as multi-lingual question answering,” Summers said.The study dataset included 3,269 chest X-ray reports obtained from MIMIC and 25,596 reports from the NIH.Using two prompts for two tasks, the researchers asked the LLM to identify and label the presence or absence of 13 specific findings on the chest X-ray reports. Researchers compared the LLM’s performance with two widely used non-LLM labeling tools.A statistical analysis of the LLM output showed moderate to substantial agreement with the non-LLM computer programs.“Our study demonstrated that the LLM’s performance was comparable to the current reference standard,” Summers said. “With the right prompt and the right task, we were able to achieve agreement with currently used labeling tools.”Summers said LLMs that can be run locally will be useful in creating large data sets for AI research without compromising patient privacy.“LLMs have turned the whole paradigm of natural language processing on its head,” he said. “They have the potential to do things that we’ve had difficulty doing with traditional pre-large language models.”

The National Privacy Commission (NPC) launched on Friday a database search portal for members of the Philippine Health Insurance Corp. (PhilHealth) affected by the Medusa malware incident. A post on NPC’s Facebook page on Friday night announced the launching of the portal “Na-leak ba ang PhilHealth Data ko?” (Was my PhilHealth Data leaked?) that allows members to verify their status with the state health insurer.”The primary aim of this tool is to empower Filipinos, especially senior citizens, to take proactive measures in safeguarding their data and securing themselves against potential risks like identity theft, reputational damage, and invasion of privacy,” the NPC said in a statement on Friday night. “This is particularly crucial due to their susceptibility to exploitative acts.”This database is an independent project launched by the NPC, using a dataset reportedly released by the Medusa group, which contained 734 gigabytes of extracted data. These are now under scrutiny to update the said portal.”It is crucial to note that the ‘Na-leak ba ang PhilHealth Data ko?’ portal exclusively focuses on this specific incident and does not encompass data breaches from other sources or incidents. A negative result from this search should not be misconstrued as an assurance of data security in other areas,” the agency added.NPC Commissioner John Henry Naga said the development of the portal for PhilHealth members in a short period of time “demonstrates our unwavering dedication to protecting your personal information.””Through this groundbreaking initiative, we are here to empower you with the control and protection you deserve over your data and privacy,” Naga added. “Your privacy matters, and your [NPC] is here to protect it.”The NPC assured users that their database will be regularly updated, which will also include data from all age groups affected by the PhilHealth leaking incident.According to the NPC, as of Friday, October 13, the initial batch of data available on their database had data of senior citizens ages 60 and above and contained an estimated 1 million records out of 8.5 million seniors.