Privacy Daily

PRIVACY DAILY 53/2023

Signal andrà via dal Regno Unito se il suo sistema di crittografia verrà compromesso dall’Online Safety Bill. Lo ha dichiarato alla BBC Meredith Whittaker, presidente di Signal, specificando che non intende in alcun modo indebolire la privacy garantita dai suoi sistemi. L’Online Safety Bill, presentato da Boris Johnson, è attualmente all’esame del Parlamento. Il governo britannico ha dichiarato che non intende introdurre “un divieto di crittografia end-to-end”. Secondo i critici, però, con la nuova legge le aziende potrebbero essere obbligate a scansionare i messaggi sulle app criptate alla ricerca di materiale pedopornografico o di contenuti terroristici. Questo ha preoccupato le aziende che si occupano di comunicazioni private e sicure, che temono di perdere clienti. In precedenza, anche WhatsApp aveva dichiarato alla BBC che si sarebbe rifiutata di ridurre la sicurezza per qualsiasi governo. Tuttavia, il governo e le principali associazioni per la tutela dell’infanzia sostengono da tempo che la crittografia ostacola gli sforzi per combattere l’abuso di minori online, che secondo loro è un problema crescente. “È importante che le aziende tecnologiche si impegnino al massimo per garantire che le loro piattaforme non diventino un terreno fertile per i pedofili”, ha dichiarato il Ministero dell’Interno in un comunicato, aggiungendo che: “non si tratta di scegliere tra privacy e sicurezza dei minori: possiamo e dobbiamo avere entrambe”. Ma la Whittaker ha commentato che è un “pensiero magico” credere che si possa avere la privacy “ma solo per i buoni”, chiosando: “la crittografia o protegge tutti o non funziona per tutti”.

I legislatori californiani stanno tentando di regolamentare l’uso dell’intelligenza artificiale. Ciò, in virtù della sua crescente importanza nella vita di tutti i giorni, dagli adolescenti che usano i chatbot per fare i compiti ai datori di lavoro che filtrano i profili dei candidati. I sostenitori di una maggiore regolazione dell’intelligenza artificiale nel Golden State possono contare su un forte slancio, data l’accresciuta attenzione dell’opinione pubblica nei confronti di ChatGPT e di altre nuove tecnologie, e lo sforzo segue la scia dell’appello del Presidente Joe Biden per un maggiore controllo del settore. “La California di solito si muove più velocemente del governo federale, ma a parte il California Privacy Rights Act, per quanto riguarda l’IA è stata piuttosto lenta”, ha dichiarato Vinhcent Le, avvocato del Greenlining Institute che si occupa di technology equity, aggiungendo però che “sembra che quest’anno ci sia più interesse. Sembra un anno importante per i sistemi decisionali automatizzati e per la loro regolamentazione”. Mentre le agenzie federali emanano linee guida in mezzo alle poche leggi esistenti sull’IA, la California è pronta ad accelerare il passo. Quest’anno sono state depositate almeno tre proposte di legge che mirano a fornire maggiori garanzie sull’intelligenza artificiale e a colmare eventuali lacune normative. Tutte e tre affrontano il tema dell’uso dell’IA nell’amministrazione statale. Le precedenti proposte di legge incaricavano le agenzie di definire linee guida e principi sull’automazione, ma la recente AI Bill of Rights della Casa Bianca contiene già un quadro di riferimento per tali parametri, fornendo una road map per il dibattito.

Aperta un’istruttoria su Tik Tok in Canada. Il Privacy Commissioner federale ha annunciato di aver avviato un’indagine, di concerto con le autorità garanti per la protezione dei dati degli Stati dell’Alberta, del Quebec e della British Columbia, allo scopo di esaminare come la piattaforma di video-streaming raccoglie i dati personali degli utenti canadesi. Nel comunicato, le autorità dichiarano di voler verificare se le pratiche dell’organizzazione sono conformi alla legislazione canadese in materia di privacy e, in particolare, se viene ottenuto un consenso valido e significativo per la raccolta, l’uso e la divulgazione di informazioni personali. L’indagine determinerà anche se l’azienda sta rispettando i suoi obblighi di trasparenza, in particolare quando raccoglie informazioni personali dai suoi utenti. “Una parte importante degli utenti di TikTok è costituita da giovani”, hanno dichiarato i commissari, “data l’importanza di proteggere la privacy dei bambini, l’indagine congiunta si concentrerà sui trattamenti di dati relativi agli utenti più giovani, compreso il fatto che l’azienda abbia ottenuto da questi utenti un consenso valido per la raccolta, l’uso e la divulgazione delle loro informazioni personali”. Non è la prima volta che autorità statali del Canada collaborano per svolgere un’indagine congiunta. L’anno scorso è stato pubblicato un rapporto di gruppo sull’uso da parte di Tim Hortons della sua applicazione mobile per la localizzazione degli utenti, in cui è stato rilevato che l’applicazione violava le leggi federali e statali sulla privacy. Nel 2021, un’indagine congiunta ha rilevato che il fornitore di riconoscimento facciale Clearview AI ha violato le leggi federali e provinciali sulla privacy, prelevando immagini da Internet senza autorizzazione e utilizzandole nel suo prodotto commerciale.

English version

Signal will leave the UK if its encryption system is compromised by the Online Safety Bill. Meredith Whittaker, Signal’s president, told the BBC this, specifying that it has no intention of weakening the privacy guaranteed by its systems in any way. The Online Safety Bill, introduced by Boris Johnson, is currently before Parliament. The British government has stated that it does not intend to introduce ‘a ban on end-to-end encryption’. According to critics, however, under the new law companies could be forced to scan messages on encrypted apps for child pornography or terrorist content. This has worried private and secure communications companies, which fear losing customers. Earlier, even WhatsApp had told the BBC that it would refuse to reduce security for any government. However, the government and leading child protection groups have long argued that encryption hinders efforts to combat online child abuse, which they say is a growing problem. “It is important that technology companies make every effort to ensure that their platforms do not become a breeding ground for paedophiles,” the Home Office said in a statement, adding that: “this is not a choice between privacy and child safety: we can and must have both”. But Whittaker commented that it is ‘magical thinking’ to believe that we can have privacy ‘but only for the good guys’, saying: ‘encryption either protects everyone or it doesn’t work for everyone’.

Californian lawmakers are attempting to regulate the use of artificial intelligence. This, due to its growing importance in everyday life, from teenagers using chatbots to help them with their homework to employers filtering the profiles of job seekers. Advocates for greater regulation of artificial intelligence in the Golden State can count on strong momentum given the increased public attention to ChatGPTs and other new technologies, and the effort follows on the heels of President Joe Biden’s call for greater oversight of the industry. “California usually moves faster than the federal government, but other than the California Privacy Rights Act, as far as AI is concerned it has been pretty slow,” said Vinhcent Le, an attorney at the Greenlining Institute who focuses on technology equity, adding, however, that “there seems to be more interest this year. It looks like an important year for automated decision-making systems and their regulation’. While federal agencies issue guidelines amidst the few existing AI laws, California is poised to pick up the pace. At least three bills have been filed this year that aim to provide more assurances on artificial intelligence and close any regulatory loopholes. All three address the use of AI in government administration. Previous bills mandated agencies to set guidelines and principles on automation, but the recent White House AI Bill of Rights already contains a framework for such parameters, providing a road map for debate.

Investigation opened on Tik Tok in Canada. The federal Privacy Commissioner announced that he has opened an investigation, in consultation with the data protection authorities of the states of Alberta, Quebec and British Columbia, to examine how the video-streaming platform collects personal data of Canadian users. In the statement, the authorities say they will investigate whether the organisation’s practices comply with Canadian privacy legislation and, in particular, whether valid and meaningful consent is obtained for the collection, use and disclosure of personal information. The investigation will also determine whether the company is complying with its transparency obligations, particularly when collecting personal information from its users. “A significant portion of TikTok’s users are young people,” the commissioners said, “given the importance of protecting children’s privacy, the joint investigation will focus on the data processing of younger users, including whether the company has obtained valid consent from these users for the collection, use and disclosure of their personal information.” This is not the first time that state authorities in Canada have collaborated to conduct a joint investigation. Last year, a group report was published on Tim Hortons’ use of its mobile application to locate users, which found that the application violated federal and state privacy laws. In 2021, a joint investigation found that facial recognition provider Clearview AI violated federal and provincial privacy laws by taking images from the Internet without authorisation and using them in its commercial product.