Privacy Daily

Privacy Daily 10/2023

La Corte d’appello del primo distretto dell’Illinois ha stabilito che gli strumenti di identificazione del volto e delle impronte digitali di Apple non violano il Biometric Information Privacy Act (BIPA) dello stato,riferisce Bloomberg. Nel suo ragionamento, il tribunale dell’Illinois ha rilevato che gli utenti abbiano volontariamente attivato funzionalità opzionali come Touch ID e Face ID, i loro dati siano stati archiviati localmente sui propri dispositivi e la società non abbia in effetti raccolto o archiviato tali dati su server separati. Apple quindi non possedeva né controllava i dati degli utenti, il che avrebbe fatto scattare i limiti previsti dal Biometric Act. Una proposta di azione legale collettiva intentata dall’utente David Barnett del giugno 2021 sosteneva che Apple possedesse e controllasse i dati degli utenti protetti dal BIPA senza averne ottenuto il consenso.

Le pressioni commerciali sui bambini, attraverso l’implacabile marketing diretto, aggirano il controllo dei dei genitori e negli USA cresce sempre più la preoccupazione per il proliferare di app create per ottenere un gran numero di dati personali allo scopo di aumentare le vendite mirate e il tempo di visualizzazione connesso a Internet. Il legislatore della California ha approvato un disegno di legge che, a partire dal 2024, ordina esplicitamente alle aziende di “dare la priorità alla privacy, alla sicurezza e al benessere dei bambini rispetto agli interessi commerciali “. Decine di organizzazioni di cittadini/genitori negli USA si dedicano a quello che uno di loro – Fairplay for Kids – descrive come “un mondo in cui i bambini possono essere bambini, liberi dalle false promesse dei venditori e dalle manipolazioni della Big Tech”. 

Il Central Digital and Data Office (CDDO) e il Center for Data Ethics and Innovation (CDEI) hanno lanciato un Algorithmic Transparency Recording Standard Hub per aiutare le organizzazioni del settore pubblico a fornire informazioni chiare sugli strumenti algoritmici che utilizzano e sul perché abbiamo scelto di usarli. Lo scopo dell’hub è promuovere la trasparenza nell’uso degli algoritmi da parte del settore pubblico e realizza gli impegni presi sia nella strategia nazionale sui dati del governo sia nella strategia nazionale sull’IA del Regno Unito

English Translation

The Illinois First District Court of Appeals has ruled that Apple’s face and fingerprint identification tools do not violate the state’s Biometric Information Privacy Act (BIPA), Bloomberg reports. In its reasoning, the Illinois court found that users voluntarily activated optional features such as Touch ID and Face ID, their data was stored locally on their devices, and the company did not in fact collect or store this data on separate servers. Apple therefore neither owned nor controlled the users’ data, which would have triggered the requirements of the Biometric Act. A proposed class action lawsuit filed by user David Barnett in June 2021 alleged that Apple possessed and controlled user data protected by BIPA without obtaining consent.

Commercial pressures on children, through relentless direct marketing, circumvent parental control and there is growing concern in the US about the proliferation of apps created to obtain large amounts of personal data for the purpose of increasing targeted sales and internet-connected screen time. The California legislature passed a bill that, starting in 2024, explicitly orders companies to “prioritise the privacy, safety, and well-being of children over commercial interests”. Dozens of citizen/parent organisations in the US are dedicated to what one of them – Fairplay for Kids – describes as ‘a world where children can be children, free from the false promises of marketers and the manipulations of Big Tech’. 

The Central Digital and Data Office (CDDO) and the Centre for Data Ethics and Innovation (CDEI) have launched an Algorithmic Transparency Recording Standard Hub to help public sector organisations provide clear information about the algorithmic tools they use and why we choose to use them. The aim of the hub is to promote transparency in the use of algorithms by the public sector and delivers on commitments made in both the government’s National Data Strategy and the UK’s National AI Strategy