Privacy Daily

PRIVACYDAILY

N. 117/2023

LE TRE NEWS DI OGGI:

  • UK: ALLARME SULLA PRIVACY DEI DATI DEL SERVIZIO SANITARIO NAZIONALE DOPO CHE UN MEDICO “STALKER” CONDIVIDE LE CARTELLE CLINICHE DI UNA DONNA
  • HRW VINCE DUE WEBBY AWARDS: UNO E’ PER LE INCHIESTE SULLA PRIVACY DEI MINORI ON LINE DURANTE IL COVID
  • USA: IL RICONOSCIMENTO FACCIALE IN AEROPORTO E’ EFFICACE?

La riservatezza delle cartelle cliniche del Servizio sanitario nazionale britannico è stata messa in dubbio dopo che un medico ospedaliero “stalker” ha avuto accesso e condiviso informazioni altamente sensibili su una donna che aveva iniziato a frequentare il suo ex fidanzato, pur non essendo coinvolto nelle sue cure. La vittima è rimasta in preda alla paura, allo shock e all’orrore quando ha appreso che il medico aveva utilizzato il sistema di cartelle cliniche dell’ospedale per consultare le cartelle cliniche del suo medico di famiglia per leggere – e condividere – dettagli intimi. “Mi sono sentita violata quando ho appreso che questa donna, che non conoscevo, era riuscita ad accedere in diverse occasioni a dettagli della mia vita che avevo condiviso con il mio medico di famiglia e solo con la mia famiglia e gli amici più intimi. “, ha raccontatocosì la donna. Il caso ha messo in guardia sul fatto che qualsiasi medico in Inghilterra potrebbe abusare del proprio accesso privilegiato alle cartelle cliniche private per motivi personali piuttosto che clinici. Sam Smith, del gruppo per la privacy dei dati sanitari MedConfidential, ha dichiarato: “Questo è un caso assolutamente spaventoso. Il fatto che il medico abbia fatto questo è un problema individuale. Ma è un problema sistemico il fatto che lo abbiano potuto fare e che le falle nel funzionamento dei sistemi di gestione dei dati del Servizio sanitario nazionale abbiano fatto sì che qualsiasi medico potesse fare una cosa del genere a qualsiasi paziente. “La donna era inizialmente perplessa su come il medico fosse venuto in possesso di informazioni molto personali su di lei, sua sorella e i suoi figli, che il medico aveva poi trasmesso al suo ex fidanzato nelle prime fasi della sua nuova relazione. “Il medico ha detto di averle avute da amici, da persone del suo coro o da genitori della scuola dei miei figli e  io e mia sorella ci siamo chieste se qualcuno dei nostri amici più stretti ci avesse tradito, perché sapevamo che solo poche persone erano a conoscenza di questi dettagli. Il mistero è stato risolto quando, su sua richiesta, l’Addenbrooke’s ha fornito alla donna un controllo dettagliato di tutto il personale che aveva avuto accesso alle sue cartelle cliniche. È emerso che il medico ha avuto accesso alle sue cartelle cliniche sette volte nei mesi di agosto e settembre dello scorso anno. In tre occasioni, il medico incriminato  è entrato per la prima volta in Epic, il sistema di cartelle cliniche dell’ospedale Addenbrooke.

A Human Rights Watch è stato assegnato il Premio Webby alla campagna interattiva sui prodotti per l’apprendimento online che potrebbero aver sorvegliato i bambini e raccolto dati personali durante la chiusura delle scuole per il Covid-19. “È un grande privilegio poter raccontare queste storie e siamo onorati di essere stati premiati. “#StudentsNotProducts ha vinto invece il People’s Voice Award nella categoria Siti web e siti mobili.Innovazione responsabile. Human Rights Watch ha creato una campagna interattiva online e un video che svela le violazioni dei diritti dei bambini in tutto il mondo da parte dei governi che hanno autorizzato i prodotti di apprendimento online durante la pandemia da Covid-19 senza proteggere adeguatamente la privacy dei bambini. “I bambini meritano di essere al sicuro a scuola, di persona e online”, ha dichiarato Amanda Alampi, direttore delle campagne e dell’impegno pubblico di Human Rights Watch. “Ispirata dalla nostra ricerca innovativa, la campagna di Human Rights Watch #StudentsNotProducts ha fornito a genitori, insegnanti e bambini gli strumenti per proteggerli dai prodotti di apprendimento online raccomandati dal governo che ledono i diritti dei bambini”.Con due premi per ogni categoria, la 27a edizione dei Webby Awards ha ricevuto quasi 14.000 candidature da oltre 70 Paesi del mondo e un numero record di candidature sociali. Human Rights Watch ha gareggiato contro alcune delle migliori e più grandi organizzazioni giornalistiche del mondo, tra cui Reuters e CBS News. I vincitori saranno premiati nel corso di una cerimonia che si terrà a New York il 15 maggio. I premi sono assegnati dall’Accademia internazionale delle arti e delle scienze digitali, una rete di oltre 2.000 membri. Ifé Fatunase, Laura Prieto Uribe, produttrice video e redattrice di Human Rights Watch, e Ziva Luddy Juneja, responsabile delle campagne digitali di Human Rights Watch, parteciperanno alla cerimonia e avranno l’opportunità di pronunciare uno dei famosi discorsi di accettazione dei Webby, composto da cinque parole, a nome dell’organizzazione.

Un passeggero si avvicina a un punto di controllo di sicurezza aeroportuale, inserisce una carta d’identità in una fessura e guarda in una telecamera posta sopra un piccolo schermo. Sullo schermo appare la scritta “Foto completata” e la persona passa il controllo, senza dover consegnare i propri documenti all’agente della TSA seduto dietro lo schermo. Tutto questo fa parte di un progetto pilota dell’Amministrazione per la sicurezza dei trasporti per valutare l’uso della tecnologia di riconoscimento facciale in diversi aeroporti del Paese. “Quello che stiamo cercando di fare con questa tecnologia è aiutare gli agenti a determinare effettivamente chi siete, chi dite di essere”, ha detto Jason Lim, responsabile delle capacità di gestione dell’identità, durante una dimostrazione della tecnologia ai giornalisti all’aeroporto internazionale Thurgood Marshall di Baltimora-Washington. L’iniziativa arriva in un momento in cui l’uso di varie forme di tecnologia per migliorare la sicurezza e snellire le procedure è in continuo aumento. La TSA afferma che il progetto pilota è volontario e accurato, ma i critici hanno sollevato preoccupazioni in merito a questioni di parzialità della tecnologia di riconoscimento facciale e a possibili ripercussioni per i passeggeri che vogliono rinunciare. La tecnologia è attualmente presente in 16 aeroporti. Oltre a Baltimora, viene utilizzata al Reagan National vicino a Washington, D.C., negli aeroporti di Atlanta, Boston, Dallas, Denver, Detroit, Las Vegas, Los Angeles, Miami, Orlando, Phoenix, Salt Lake City, San Jose e Gulfport-Biloxi e Jackson in Mississippi. Tuttavia, non è presente in tutti i checkpoint TSA, quindi non tutti i viaggiatori che attraversano questi aeroporti devono necessariamente sperimentarlo. La tecnologia controlla che le persone presenti in aeroporto corrispondano al documento d’identità che presentano e che l’identificazione sia effettivamente reale. Un funzionario della TSA è sempre presente e approva lo screening. Un piccolo cartello avverte i viaggiatori che la loro foto sarà scattata nell’ambito del progetto pilota e che, se lo desiderano, possono rinunciare. Include anche un codice QR per ottenere ulteriori informazioni. Da quando è stato reso noto, il progetto pilota è stato messo sotto osservazione da alcuni funzionari eletti e dai sostenitori della privacy. In una lettera inviata a febbraio alla TSA, cinque senatori – quattro democratici e un indipendente che fa parte del caucus democratico – hanno chiesto all’agenzia di fermare il programma, affermando che: “L’aumento della sorveglianza biometrica degli americani da parte del governo rappresenta un rischio per le libertà civili e i diritti alla privacy”.

English version

The confidentiality of NHS medical records was called into question after a “stalker” hospital doctor accessed and shared highly sensitive information about a woman who had begun dating her ex-boyfriend, despite not being involved in his care. The victim was left in fear, shock, and horror when she learned that the doctor had used the hospital’s medical record system to consult her family doctor’s medical records to read-and share-intimate details. “I felt violated when I learned that this woman, whom I did not know, had been able to access on several occasions details of my life that I had shared with my family doctor and only with my family and close friends. ” the woman recounted. The case warned that any doctor in England could abuse his or her privileged access to private medical records for personal rather than clinical reasons. Sam Smith, of the health data privacy group MedConfidential, said, “This is an absolutely appalling case. The fact that the doctor did this is an individual problem. But it’s a systemic problem that they were able to do this and that the flaws in the operation of the NHS data management systems meant that any doctor could do this to any patient. “The woman was initially puzzled as to how the doctor had come into possession of very personal information about her, her sister and her children, which the doctor had then passed on to her ex-boyfriend in the early stages of her new relationship. “The doctor said he had gotten them from friends, people in his choir, or parents at my children’s school, and my sister and I wondered if any of our close friends had betrayed us, because we knew that only a few people knew these details. The mystery was solved when, at her request, Addenbrooke’s provided the woman with a detailed check of all the staff who had accessed her medical records. It turned out that the doctor had accessed her medical records seven times in August and September last year. On three occasions, the indicted doctor first accessed Epic, Addenbrooke’s Hospital’s medical records system.

Human Rights Watch was awarded the Webby Prize for its interactive campaign on online learning products that may have surveilled children and collected personal data during school closures for Covid-19. “It’s a great privilege to be able to tell these stories and we are honored to be honored,” he said. “Instead, #StudentsNotProducts won the People’s Voice Award in the Websites and Mobile Sites category.Responsible Innovation. Human Rights Watch created an interactive online campaign and video revealing violations of children’s rights around the world by governments that authorized online learning products during the Covid-19 pandemic without adequately protecting children’s privacy. “Children deserve to be safe in school, in person and online,” said Amanda Alampi, director of campaigns and public engagement at Human Rights Watch. “Inspired by our groundbreaking research, Human Rights Watch’s #StudentsNotProducts campaign provided parents, teachers, and children with the tools to protect them from government-recommended online learning products that infringe on children’s rights. “With two awards in each category, the 27th annual Webby Awards received nearly 14,000 nominations from more than 70 countries around the world and a record number of social nominations. Human Rights Watch competed against some of the world’s best and largest news organizations, including Reuters and CBS News. The winners will be honored at a ceremony in New York on May 15. The awards are presented by the International Academy of Digital Arts and Sciences, a network of more than 2,000 members. Ifé Fatunase, Laura Prieto Uribe, video producer and editor at Human Rights Watch, and Ziva Luddy Juneja, digital campaigns manager at Human Rights Watch, will attend the ceremony and have the opportunity to deliver one of the Webbies’ famous five-word acceptance speeches on behalf of the organization.

A passenger approaches an airport security checkpoint, inserts an ID card into a slot, and looks into a camera located above a small screen. “Photo completed” appears on the screen, and the person passes the checkpoint, without having to hand over his or her documents to the TSA agent sitting behind the screen. This is all part of a Transportation Security Administration pilot project to evaluate the use of facial recognition technology at several airports around the country. “What we’re trying to do with this technology is help agents actually determine who you are, who you say you are,” said Jason Lim, head of identity management capabilities, during a demonstration of the technology to reporters at Thurgood Marshall International Airport in Baltimore-Washington. The initiative comes at a time when the use of various forms of technology to improve security and streamline procedures is steadily increasing. TSA says the pilot project is voluntary and accurate, but critics have raised concerns about issues of bias in facial recognition technology and possible repercussions for passengers who want to opt out. The technology is currently in place at 16 airports. In addition to Baltimore, it is used at Reagan National near Washington, D.C., at airports in Atlanta, Boston, Dallas, Denver, Detroit, Las Vegas, Los Angeles, Miami, Orlando, Phoenix, Salt Lake City, San Jose, and Gulfport-Biloxi and Jackson in Mississippi. However, it is not present at all TSA checkpoints, so not all travelers going through these airports necessarily need to experience it. The technology checks that people at the airport match the ID they present and that the identification is actually real. A TSA official is always present and approves the screening. A small sign warns travelers that their photo will be taken as part of the pilot project and that they can opt out if they wish. It also includes a QR code to get more information. Since it became known, the pilot project has come under scrutiny from some elected officials and privacy advocates. In a letter sent to the TSA in February, five senators-four Democrats and one independent who is part of the Democratic caucus-asked the agency to stop the program, stating: “Increased government biometric surveillance of Americans poses a risk to civil liberties and privacy rights.”