Privacy Daily

PRIVACYDAILY

N. 135/2023

LE TRE NEWS DI OGGI:

  • I RICERCATORI DEL MIT HANNO TROVATO UN NUOVO MODO DI PROTEGGERE LA PRIVACY NELL’AMBITO DEL MACHINE LEARNING
  • UNIVERSITA’ DI HARVARD HA ADOTTATO LE PRIME LINEE GUIDA PER LA SPERIMENTAZIONE DELLE AI GENERATIVE
  • GERMANIA, L’AUTORITA’ PRIVACY DELLA BASSA SASSONIA CONTRO IL “PAY OR OKAY” 

Immaginate che un team di scienziati abbia sviluppato un modello di apprendimento automatico in grado di prevedere se un paziente ha un cancro dalle immagini della scansione polmonare. Vogliono condividere questo modello con gli ospedali di tutto il mondo in modo che i medici possano iniziare a usarlo per la diagnosi.Ma c’è un problema. Per insegnare al loro modello a predire il cancro, gli hanno mostrato milioni di immagini reali di scansioni polmonari, un processo chiamato addestramento. Questi dati sensibili, ora codificati nel funzionamento interno del modello, potrebbero essere estratti da un soggetto malintenzionato. Gli scienziati possono evitare che ciò accada aggiungendo al modello un disturbo, o più genericamente una casualità, che renda più difficile per un avversario indovinare i dati originali. Tuttavia, la casualità riduce l’accuratezza di un modello, quindi meno disturbo si può aggiungere, meglio è.I ricercatori del MIT hanno sviluppato una tecnica che consente all’utente di aggiungere potenzialmente la minor quantità di disturbo possibile, garantendo comunque la protezione dei dati sensibili. I ricercatori hanno creato una nuova misurazione della privacy, che hanno chiamato Probably Approximately Correct (PAC) Privacy, e hanno costruito un framework basato su questa misurazione che può determinare automaticamente la quantità minima di disturbo che deve essere aggiunta. Inoltre, questo framework non richiede la conoscenza del funzionamento interno di un modello o del suo processo di addestramento, il che lo rende più facile da usare per diversi tipi di modelli e applicazioni.In diversi casi, i ricercatori dimostrano che la quantità di disturbo necessaria per proteggere i dati sensibili dagli avversari è di gran lunga inferiore con PAC Privacy rispetto ad altri approcci. Anche se siamo agli inizi e stiamo facendo esempi semplici, siamo entusiasti della validità di questa tecnica”, afferma Srini Devadas, professore di ingegneria elettrica Edwin Sibley Webster e coautore di un nuovo lavoro sulla privacy PAC.Devadas ha scritto il documento insieme all’autore principale Hanshen Xiao, uno studente laureato in ingegneria elettrica e informatica. La ricerca sarà presentata alla Conferenza internazionale di crittografia (Crypto 2023).

Harvard ha annunciato le prime linee guida per l’uso di programmi di intelligenza artificiale generativa come ChatGPT in un’e-mail inviata giovedì scorso ai membri dell’Università.Il primo testo a livello universitario che affronta l’uso crescente dell’IA nel campus, l’e-mail – inviata dal rettore Alan M. Garber ’76, dal vicepresidente esecutivo Meredith L. Weenick ’90 e dal vicepresidente dell’Information Technology e Chief Information Officer Klara Jelinkova – sottolinea la protezione dei dati riservati, ribadisce le politiche di integrità accademica e mette in guardia dai tentativi di phishing dell’IA.”L’Università sostiene la sperimentazione responsabile di strumenti di IA generativa, ma ci sono considerazioni importanti da tenere a mente quando si utilizzano questi strumenti, tra cui la sicurezza delle informazioni e la privacy dei dati, la conformità, il copyright e l’integrità accademica”, hanno scritto.Il messaggio in cinque punti invita i membri della comunità di Harvard a “proteggere i dati riservati” – intesi come tutte le informazioni che non sono già pubbliche – e li informa che sono “responsabili” di qualsiasi contenuto prodotto che includa materiale generato dall’IA, poiché i modelli di IA possono violare le leggi sul copyright e diffondere disinformazione.”Esaminate i vostri contenuti generati dall’IA prima di pubblicarli”, si chiedeva nell’e-mail.Sebbene gli amministratori abbiano scritto che le linee guida non sono nuove, ma “fanno riferimento alle politiche esistenti dell’Università”, attualmente non esiste alcuna politica nella Facoltà di Lettere e Filosofia sull’impatto dell’IA all’interno del sistema accademico. In un recente sondaggio tra le facoltà, quasi la metà dei docenti della FAS intervistati riteneva che l’IA avrebbe avuto un impatto negativo sull’istruzione superiore, mentre quasi il 57% ha dichiarato di non avere una politica esplicita o scritta sull’uso dell’IA in classe.L’uso delle piattaforme di IA ha già iniziato a farsi strada nelle aule di Harvard.Computer Science 50: “Introduction to Computer Science”, il corso introduttivo di codifica più importante dell’Università, ha previsto di incorporare per la prima volta l’intelligenza artificiale nelle lezioni del prossimo semestre autunnale. Gli studenti potranno usare l’intelligenza artificiale per trovare bug nel loro codice, chiedere un feedback sulla progettazione e sui messaggi di errore e rispondere a domande individuali.

Uno dei maggiori siti di notizie tecnologiche in lingua tedesca, heise.de, ha fatto scegliere agli utenti tra il pagamento di un abbonamento mensile e il trattamento dei loro dati personali a fini pubblicitari e per molti altri scopi. L’Autorità per la protezione dei dati personali della Bassa Sassonia (LfD) ha deciso che l’approccio “Paga o Ok” adottato dal 2021 era illegale. Si tratta di un altro duro colpo per le testate giornalistiche che utilizzano questo modello sui loro siti web, dopo che all’inizio di quest’anno l’Autorità austriaca per la protezione dei dati (DSB) ha dichiarato illegale l’implementazione su una pagina di notizie austriaca. Il dibattito su “Pay or Okay” si è intensificato in Germania. In linea con il DSB austriaco, la LfD ha dichiarato illegale la soluzione “Pay or Okay” utilizzata su heise.de nel 2021 e ha emesso un ammonimento. Pur ritenendo che la soluzione “Pay or Okay” potesse essere consentita in linea di principio, la LfD ha ritenuto che l’approccio adottato dall’organo di informazione non fosse conforme alla legge, in quanto non prevedeva la possibilità di esprimere un consenso specifico per determinati scopi, una decisione in linea con le linee guida della Conferenza delle autorità tedesche per la protezione dei dati (DSK). Nel marzo 2023, la DSK ha espresso esplicitamente la sua preoccupazione per la mancanza di un consenso specifico e trasparente sui siti web che utilizzano i modelli “Pay or Okay”, senza però mettere in discussione la questione più generale degli utenti che devono pagare prezzi esorbitanti per mantenere privati i propri dati personali.Felix Mikolasch, avvocato specializzato in protezione dei dati presso noyb: “Le comuni soluzioni ‘Pay or Okay’ sono un sistema ‘prendere o lasciare’, in cui l’utente deve acconsentire a tutto o pagare. Il GDPR richiede un consenso “specifico” per ogni tipo di trattamento. Accogliamo con favore la decisione, ma dopo anni di violazione della legge, un richiamo non è una soluzione adeguata per gli oscuri sistemi “Pay or Okay”. Un semplice rimprovero non dissuaderà altri dal scegliere questo approccio”.Secondo un’ulteriore ricerca della LfD, heise.de ha trattato i dati personali dell’utente non appena il sito web è stato aperto. Non è stata richiesta alcuna azione da parte del sito web, il che significa che heise.de ha impostato i cookie di tracciamento prima ancora che l’utente potesse dare il proprio consenso.Il consenso non è trasparente o dato liberamente. Oltre alle questioni relative a “Pay or Okay”, la LfD ha sottolineato che heise.de ha utilizzato un’azione di nudging illegale e metodica per influenzare gli utenti a proprio vantaggio. La LfD ha inoltre riscontrato che il consenso dell’utente non è stato informato, specifico o dato liberamente. Inoltre, non era abbastanza facile revocare un consenso precedentemente dato in un momento successivo, il che ha portato la LfD a concludere che non esisteva una base legale per il trattamento dei dati dell’utente.

English version

  • MIT RESEARCHERS HAVE FOUND A NEW WAY TO PROTECT PRIVACY IN THE AREA OF MACHINE LEARNING
  • UNIVERSITY OF HARVARD HAS ADOPTED THE FIRST GUIDELINES FOR THE EXPERIMENTATION OF GENERATIVE AIs
  • GERMANY, PRIVACY AUTHORITY OF LOWER Saxony AGAINST “PAY OR OKAY” 

Imagine that a team of scientists has developed a machine-learning model that can predict whether a patient has cancer from lung scan images. They want to share this model with hospitals around the world so clinicians can start using it in diagnosis.But there’s a problem. To teach their model how to predict cancer, they showed it millions of real lung scan images, a process called training. Those sensitive data, which are now encoded into the inner workings of the model, could potentially be extracted by a malicious agent. The scientists can prevent this by adding noise, or more generic randomness, to the model that makes it harder for an adversary to guess the original data. However, perturbation reduces a model’s accuracy, so the less noise one can add, the better.MIT researchers have developed a technique that enables the user to potentially add the smallest amount of noise possible, while still ensuring the sensitive data are protected.The researchers created a new privacy metric, which they call Probably Approximately Correct (PAC) Privacy, and built a framework based on this metric that can automatically determine the minimal amount of noise that needs to be added. Moreover, this framework does not need knowledge of the inner workings of a model or its training process, which makes it easier to use for different types of models and applications.In several cases, the researchers show that the amount of noise required to protect sensitive data from adversaries is far less with PAC Privacy than with other approaches. This could help engineers create machine-learning models that provably hide training data, while maintaining accuracy in real-world settings.“PAC Privacy exploits the uncertainty or entropy of the sensitive data in a meaningful way,  and this allows us to add, in many cases, an order of magnitude less noise. This framework allows us to understand the characteristics of arbitrary data processing and privatize it automatically without artificial modifications. While we are in the early days and we are doing simple examples, we are excited about the promise of this technique,” says Srini Devadas, the Edwin Sibley Webster Professor of Electrical Engineering and co-author of a new paper on PAC Privacy.Devadas wrote the paper with lead author Hanshen Xiao, an electrical engineering and computer science graduate student. The research will be presented at the International Cryptography Conference (Crypto 2023).

Harvard announced initial guidelines for the use of generative artificial intelligence programs such as ChatGPT in an email to University affiliates on Thursday.The first University-wide message to address the rising use of AI on campus, the email — sent from Provost Alan M. Garber ’76, Executive Vice President Meredith L. Weenick ’90, and Information Technology Vice President and Chief Information Officer Klara Jelinkova — emphasized the protection of confidential data, reiterated academic integrity policies, and warned against AI phishing attempts.“The University supports responsible experimentation with generative AI tools, but there are important considerations to keep in mind when using these tools, including information security and data privacy, compliance, copyright, and academic integrity,” they wrote.The five-point message instructs members of the Harvard community to “protect confidential data” — defined as all information that is not already public — and informs them that they are “responsible” for any content they produce that includes AI-generated material, as AI models can violate copyright laws and spread misinformation.“Review your AI-generated content before publication,” the email urged.While the administrators wrote that the guidelines are not new but instead “leverage existing University policies,” there is currently no policy in the Faculty of Arts and Sciences on AI’s impact on academic integrity.In a recent faculty survey, almost half of surveyed FAS faculty believed AI would have a negative impact on higher education, while almost 57 percent said they did not have an explicit or written policy on AI usage in the classroom.The use of AI platforms has already begun making its way into Harvard’s classrooms.Computer Science 50: “Introduction to Computer Science,” the University’s flagship introductory coding class, has made plans to incorporate artificial intelligence into its course instruction for the first time this coming fall semester. Students will be allowed to use AI to find bugs in their code, seek feedback on design and error messages, and answer individual questions.

One of the largest German-language tech news sites, heise.de, made users choose between paying for a monthly subscription or having their personal data processed for advertising and many other purposes. The Data Protection Authority of Lower Saxony (LfD) decided that their “Pay or Okay” approach from 2021 was unlawful. This is yet another blow to news outlets that use such a model on their websites, after the Austrian Data Protection Authority (DSB) declared the implementation on an Austrian news page unlawful earlier this year.“Pay or Okay” discussion heating up in Germany. In line with the Austrian DSB, the LfD declared the “Pay or Okay” solution used on heise.de in 2021 illegal and issued a reprimand. Although it took the view that “Pay or Okay” could be permissible in principle, it found that the approach taken by the news outlet didn’t comply with the law because it didn’t provide the option to specifically consent to certain purposes – a decision, that’s in line with guidelines of the Conference of German Data Protection Authorities (DSK). In March 2023, the DSK explicitly expressed its concern about the lack of specific and transparent consent on websites using “Pay or Okay” models, while not questioning the broader issue of users having to pay exorbitant prices to keep their personal data private.Felix Mikolasch, Data Protection Lawyer at noyb: “Common ‘Pay or Okay’ solutions are a ‘take it or leave it’ system, where you have to consent to everything or pay. The GDPR requires ‘specific’ consent to each type of processing. We welcome the decision, but after years of violating the law, a reprimand is not an adequate solution for obscure “Pay or Okay” systems. A mere reprimand is not going to deter others from choosing this approach.”Processing before consent was given. According to additional research by the LfD, heise.de processed the user’s personal data as soon as the website was opened. No action was required for the website to do so, meaning heise.de set tracking cookies before a user could even give their consent.Consent not transparent or freely given. In addition to the issues around “Pay or Okay”, the LfD pointed out that heise.de used unlawful and methodical nudging to influence users for its own benefit. The LfD also found that the user’s consent was not informed, specific or freely given. Furthermore, it wasn’t easy enough to revoke a previously given consent at a later point in time – leading the LfD to conclude, that there was no legal basis for processing the user’s data.