Privacy Daily

PRIVACYDAILY

N. 133/2023

LE TRE NEWS DI OGGI:

  • UK, ASSOCIAZIONI BENEFICHE PER LA SALUTE MENTALE VENDEVANO DATI A FACEBOOK PER LA PUBBLICITA’ TARGETTIZZATA
  • ONU, LA REGOLAZIONE E’ FONDAMENTALE PER EVITARE DERIVE DELL’AI COME SORVEGLIANZA E DISINFORMAZIONE
  • CANADA, DALL’INCHIESTA SULLA GESTIONE DEL COVID- 19 CONDOTTA DALL’ AUTORITA’ GARANTE EMERGE CHE LA PRIVACY E’ STATA LEGALMENTE RISPETTATA

Alcune delle più grandi organizzazioni caritatevoli britanniche che forniscono sostegno alle persone con problemi di salute mentale hanno condiviso con Facebook i dati sensibili della navigazione sul web per utilizzarli nel suo sistema di pubblicità mirata. I dati sono stati inviati tramite uno strumento di tracciamento incorporato nei siti web degli enti di beneficenza e comprendevano dettagli sulle pagine web visitate dagli utenti e sui pulsanti cliccati su contenuti legati alla depressione, all’autolesionismo e ai disturbi alimentari. Inoltre, includeva i dettagli di quando gli utenti richiedevano assistenza – ad esempio cliccando su un link che diceva “Ho bisogno di aiuto” – e quando visitavano le pagine web per accedere agli strumenti di chat online. Alcune delle pagine che hanno innescato la condivisione dei dati con Facebook erano rivolte specificamente ai bambini, tra cui una pagina rivolta ai ragazzi tra gli 11 e i 18 anni che offriva consigli sui pensieri suicidi. I dati inviati a Facebook durante l’analisi dell’Observer non includevano i dettagli delle conversazioni tra le organizzazioni di beneficenza e gli utenti o i messaggi inviati tramite gli strumenti di chat. Tutti gli enti di beneficenza hanno dichiarato che tali messaggi erano riservati e hanno sottolineato di prendere estremamente sul serio la privacy degli utenti dei servizi. Tuttavia, spesso si trattava di navigazione che gli utenti si aspetterebbero di solito privata, compresi i dettagli dei clic sui pulsanti e delle visualizzazioni delle pagine dei siti web delle associazioni di beneficenza per la salute mentale Mind, Shout e Rethink Mental Illness e dell’associazione per i disturbi alimentari Beat. Le informazioni sono state abbinate all’indirizzo IP – un identificatore che di solito può essere collegato a un individuo o a una famiglia – e, in molti casi, ai dettagli dell’ID del loro account Facebook. La maggior parte delle organizzazioni benefiche ha ora rimosso lo strumento di tracciamento, noto come Meta Pixel, dai propri siti web. Le scoperte arrivano dopo che la settimana scorsa un’indagine dell’Observer ha rivelato che 20 enti del NHS England condividevano i dati con Facebook per la pubblicità mirata, comprese le informazioni sull’attività di navigazione in centinaia di pagine web legate a specifiche condizioni mediche, appuntamenti, farmaci e richieste di assistenza.

In una dichiarazione di venerdì scorso, gli esperti dell’ONU, hanno affermato che le tecnologie emergenti, compresi i sistemi di sorveglianza biometrica basati sull’intelligenza artificiale, vengono sempre più utilizzate “in contesti sensibili”, senza che gli individui ne siano a conoscenza o abbiano dato il loro consenso. “Sono necessarie urgenti e rigorose linee guida normative per le tecnologie che pretendono di effettuare il riconoscimento delle emozioni o del genere”, hanno dichiarato gli esperti, tra cui Fionnuala Ní Aoláin, Relatore speciale per la promozione e la protezione dei diritti umani nella lotta al terrorismo. Gli esperti nominati dal Consiglio per i Diritti Umani hanno condannato l’uso e l’impatto già “allarmante” di spyware e tecnologie di sorveglianza sul lavoro dei difensori dei diritti umani e dei giornalisti, “spesso con il pretesto di misure di sicurezza nazionale e di antiterrorismo”, e hanno chiesto una regolamentazione per affrontare lo sviluppo fulmineo dell’IA generativa che sta consentendo la produzione di massa di contenuti online falsi che diffondono disinformazione e discorsi di odio. Gli esperti hanno sottolineato la necessità di garantire che questi sistemi non espongano ulteriormente le persone e le comunità a violazioni dei diritti umani, anche attraverso l’espansione e l’abuso di pratiche di sorveglianza invasive che violano il diritto alla privacy, facilitano la commissione di gravi violazioni dei diritti umani, comprese le sparizioni forzate, e la discriminazione. Hanno inoltre espresso preoccupazione per il rispetto delle libertà di espressione, di pensiero, di protesta pacifica e per l’accesso ai diritti economici, sociali e culturali essenziali e ai servizi umanitari. “Gli esperti hanno inoltre espresso preoccupazione per il fatto che lo sviluppo dell’IA generativa sia guidato da un piccolo gruppo di attori potenti, tra cui imprese e investitori, senza che vi siano requisiti adeguati per condurre una due diligence sui diritti umani o una consultazione con le persone e le comunità interessate. È urgente una regolamentazione per garantire la trasparenza, avvisare le persone quando si imbattono in media sintetici e informare il pubblico sui dati di formazione e sui modelli utilizzati”, hanno affermato gli esperti indipendenti. Gli esperti hanno ribadito l’invito alla cautela nell’uso delle tecnologie digitali nel contesto delle crisi umanitarie, dalla raccolta di dati su larga scala – compresa la raccolta di dati biometrici altamente sensibili – all’uso di tecnologie avanzate di sorveglianza mirata.”Esortiamo alla moderazione nell’uso di tali misure fino a quando non saranno comprese appieno le implicazioni più ampie sui diritti umani e non saranno messe in atto solide salvaguardie per la protezione dei dati”, hanno dichiarato.

Il commissario canadese per la privacy ha ampiamente scagionato il governo dall’aver violato i diritti dei canadesi con una serie di programmi che hanno suscitato lamentele durante la pandemia COVID-19, tra cui l’obbligo di vaccino, il tracciamento dei cellulari e la controversa applicazione ArriveCan. “Nel complesso, le nostre indagini hanno rilevato, con alcune eccezioni, che le misure attuate dal governo durante la pandemia erano conformi alle leggi sulla privacy ed erano necessarie e proporzionate in risposta a una crisi sanitaria pubblica senza precedenti”, ha dichiarato il commissario per la privacy Philippe Dufresne in un rapporto presentato questa settimana. Dufresne ha esaminato diversi programmi durante la pandemia, tra cui un programma della Public Health Agency of Canada (PHAC) che utilizzava i dati dei cellulari per verificare se i canadesi rispettavano gli ordini di quarantena. Il programma è stato oggetto di un’indagine della commissione parlamentare, con molti deputati dell’opposizione che hanno lamentato la violazione dei diritti alla privacy dei canadesi a causa dell’ampia raccolta di dati. Una mozione in parlamento ha chiesto al PHAC di fermare completamente il programma. Ma il commissario ha constatato che il governo aveva adottato misure ragionevoli per ottenere dati anonimi e garantire che rimanessero tali, il che “ha ridotto il rischio di identificare gli individui al di sotto della soglia della ‘seria possibilità’”. Il commissario ha detto che le lamentele su questo programma non erano “fondate”. Il commissario ha anche esaminato da vicino i programmi di vaccinazione per i viaggiatori e per il servizio pubblico. Ha riscontrato che in tutti i casi, tranne una manciata, le informazioni erano conservate in modo ragionevole. “Non abbiamo riscontrato alcuna indicazione che le istituzioni stessero condividendo eccessivamente le informazioni personali raccolte o le stessero utilizzando per scopi secondari inappropriati”.

English version

  • UK, MENTAL HEALTH BENEFIT ASSOCIATIONS SOLD DATA TO FACEBOOK FOR TARGETED ADVERTISING
  • UN, REGULATION IS FUNDAMENTAL TO AVOID DERIVES OF AI AS SURVEILLANCE AND DISINFORMATION
  • CANADA, FROM THE INQUIRY ON THE MANAGEMENT OF COVID 19 CONDUCTED BY THE GUARANTOR AUTHORITY REVEALS THAT PRIVACY WAS LARGELY RESPECTED

Some of Britain’s biggest charities providing support for people with mental health problems shared details of sensitive web browsing with Facebook for use in its targeted advertising system.The data was sent via a tracking tool embedded in the charities’ websites and included details of webpages a user visited and buttons they clicked across content linked to depression, self-harm and eating disorders. It also included details of when users requested support – such as clicking a link saying “I need help” – and when they viewed webpages to access online chat tools. Some of the pages that triggered data-sharing with Facebook were aimed specifically at children, including a page aimed at 11- to 18-year-olds offering advice on suicidal thoughts.The data sent to Facebook during the Observer’s analysis did not include details of conversations between charities and users or messages sent via chat tools. All the charities said such messages were confidential and stressed that they took service user privacy extremely seriously. However, it often related to browsing users would usually expect to be private – including details of button clicks and page views across websites for the mental health charities Mind, Shout and Rethink Mental Illness, and eating disorder charity Beat. The information was matched to IP address – an identifier that can usually be linked to an individual or household – and, in many cases, details of their Facebook account ID.Most of the charities have now removed the tracking tool, known as Meta Pixel, from their websites. The findings come after an Observer investigation last week revealed that 20 NHS England trusts were sharing data with Facebook for targeted advertising – including information about browsing activity across hundreds of webpages linked to specific medical conditions, appointments, medication and referral requests.

In a statement last Friday, the ONU experts said that emerging technologies, including artificial intelligence-based biometric surveillance systems, are increasingly being used “in sensitive contexts”, without individuals’ knowledge or consent. “Urgent and strict regulatory red lines are needed for technologies that claim to perform emotion or gender recognition,” said the experts, who include Fionnuala Ní Aoláin, Special Rapporteur on the promotion and protection of human rights while countering terrorism. The Human Rights Council-appointed experts condemned the already “alarming” use and impacts of spyware and surveillance technologies on the work of human rights defenders and journalists, “often under the guise of national security and counter-terrorism measures”.They also called for regulation to address the lightning-fast development of generative AI that’s enabling mass production of fake online content which spreads disinformation and hate speech. The experts stressed the need to ensure that these systems do not further expose people and communities to human rights violations, including through the expansion and abuse of invasive surveillance practices that infringe on the right to privacy, facilitate the commission of gross human rights violations, including enforced disappearances, and discrimination. They also expressed concern about respect for freedoms of expression, thought, peaceful protest, and for access to essential economic, social and cultural rights, and humanitarian services. “Specific technologies and applications should be avoided altogether where the regulation of human rights complaints is not possible,” the experts said.The experts also expressed concern that generative AI development is driven by a small group of powerful actors, including businesses and investors, without adequate requirements for conducting human rights due diligence or consultation with affected individuals and communities. And the crucial job of internal regulation through content moderation, is often performed by individuals in situations of labour exploitation, the independent experts noted.Regulation is urgently needed to ensure transparency, alert people when they encounter synthetic media, and inform the public about the training data and models used,” the experts said. The experts reiterated their calls for caution about digital technology use in the context of humanitarian crises, from large-scale data collection – including the collection of highly sensitive biometric data – to the use of advanced targeted surveillance technologies. “We urge restraint in the use of such measures until the broader human rights implications are fully understood and robust data protection safeguards are in place,” they said.

Canada’s privacy commissioner has largely cleared the government of violating the rights of Canadians with a host of programs that drew complaints during the COVID-19 pandemic, including vaccine mandates, cellphone tracking and the controversial ArriveCan app.“Overall, our investigations found, with some exceptions, that the measures implemented by the government during the pandemic complied with relevant privacy laws and were necessary and proportional in response to the unprecedented public health crisis,” Privacy Commissioner Philippe Dufresne said in a report presented this week. Dufresne looked at several programs during the pandemic, including a program from the Public Health Agency of Canada (PHAC) that used cellphone data to test whether Canadians were complying with quarantine orders. The program was the subject of a parliamentary committee investigation, with many opposition MPs complaining that Canadian’s privacy rights had been violated by the widespread data collection. A motion in parliament called on PHAC to stop the program completely. But the commissioner found the government had taken reasonable steps to get anonymous data and ensure it stayed anonymous, which “reduced the risk of identifying individuals below the ‘serious possibility’ threshold.” The commissioner said complaints about this program were “not well-founded.” The commissioner also looked closely at vaccine mandate programs for both travellers and the public service. It found in all but a handful of cases the information was stored in a reasonable manner. “We found no indications that the institutions were oversharing the personal information collected, or using it for inappropriate secondary purposes.”