Privacy Daily

PRIVACY DAILY 28/2023

La polizia non può procedere alla raccolta sistematica dei dati biometrici dell’accusato. Lo ha affermato la Corte di Giustizia dell’Unione Europea nel decidere la causa C-505/21, in cui si è pronunciata sulla corretta interpretazione della Direttiva UE 2016/680. Il caso era sorto a seguito del rifiuto di una donna, accusata di frode fiscale, di conferire alla polizia bulgara dati dattiloscopici e fotografici, nonché campioni per elaborare un profilo di DNA. Così, la polizia aveva chiesto al tribunale penale di autorizzare l’esecuzione coercitiva dei dati genetici e biometrici della donna, ma il giudice, ravvisando un contrasto con il diritto europeo, si è rivolto alla Corte di Giustizia. Secondo i giudici di Lussemburgo, è contrario al diritto UE prevedere la raccolta sistematica di dati biometrici e genetici di qualsiasi persona formalmente accusata di un reato doloso perseguibile d’ufficio, senza prevedere l’obbligo, per l’autorità competente, di verificare e di dimostrare, da un lato, che tale raccolta è strettamente necessaria per il raggiungimento dei concreti obiettivi perseguiti e, dall’altro, che tali obiettivi non possono essere raggiunti mediante misure che costituiscono un’ingerenza meno grave nei diritti e nelle libertà della persona interessata“.

Il National Institute of Standards and Technology (NIST) ha pubblicato il nuovo AI Risk Management Framework. L’IA può essere usata per creare arte, assumere persone e scrivere codici, ma aumentano le preoccupazioni per i possibili effetti collaterali. Ci sono rischi per la privacy, il copyright, e la sicurezza informatica ed occorre evitare anche discriminazioni e pregiudizi sul luogo di lavoro. Proprio per questo, il framework si propone di aiutare coloro che creano e implementano l’IA ad affrontare i rischi complessi – e spesso unici – posti da questa tecnologia.”Le tecnologie dell’IA possono favorire una crescita economica inclusiva e supportare importanti progressi scientifici che migliorano il nostro mondo, ma queste stesse tecnologie comportano anche rischi di impatti negativi”, ha dichiarato il direttore del NIST Laurie Locascio in occasione dell’evento di lancio del framework. L’IA può, infatti, esacerbare pregiudizi e disuguaglianze che già esistono nella società, ma “la comprensione e la gestione dei rischi dei sistemi di IA contribuirà a migliorarne l’affidabilità”.

La colazione annuale della  New York City Police Foundation è stata occasione per annunci e polemiche. Il Dipartimento di Polizia di New York ha intenzione di raddoppiare l’uso della tecnologia, ma c’è disaccordo su qualcuna delle innovazioni. La commissioner Keechant Sewell ha presentato il progetto di un’applicazione per smartphone in grado di fornire agli utenti informazioni in tempo reale sulla sicurezza pubblica e ha mostrato nuovi modelli di auto di servizio con telecamere che ruotano a 360 gradi. Tuttavia, Sewell non ha condiviso le opinioni del sindaco Eric Adams sul riconoscimento facciale. Adams, infatti, aveva promesso di espandere l’uso del software di riconoscimento facciale – cosa che, secondo i sostenitori, aiuterà a contrastare il crimine, ma  che, secondo gli oppositori, calpesterà i diritti civili e penalizzerà le persone di colore -. “Non abbiamo in programma di espandere questa tecnologia in questo momento”, ha tagliato corto Sewell rispondendo ai giornalisti dopo il suo discorso.

English version

The police may not systematically collect biometric data of the accused. This was stated by the Court of Justice of the European Union in deciding case C-505/21, in which it ruled on the correct interpretation of EU Directive 2016/680. The case had arisen following the refusal of a woman, accused of tax fraud, to provide the Bulgarian police with fingerprint and photographic data, as well as samples for DNA profiling. Thus, the police had asked the criminal court to authorise the coercive execution of the woman’s genetic and biometric data, but the judge, finding a conflict with European law, turned to the Court of Justice. According to the judges in Luxembourg, it is contrary to EU law to provide for the systematic collection of biometric and genetic data of any person formally charged with a criminal offence punishable ex officio, ‘without providing for an obligation on the competent authority to verify and demonstrate, first, that such collection is strictly necessary for the attainment of the concrete objectives pursued and, second, that those objectives cannot be attained by measures constituting a less serious interference with the rights and freedoms of the person concerned’.

The National Institute of Standards and Technology (NIST) has published the new AI Risk Management Framework. AI can be used to create art, hire people and write code, but there are growing concerns about possible side effects. There are risks for privacy, copyright, and cybersecurity, and discrimination and prejudice in the workplace must also be avoided. For this very reason, the framework aims to help those who create and implement AI address the complex – and often unique – risks posed by this technology. “AI technologies can foster inclusive economic growth and support important scientific advances that improve our world, but these same technologies also carry risks of negative impacts,” said NIST Director Laurie Locascio at the framework’s launch event. AI can, in fact, exacerbate biases and inequalities that already exist in society, but ‘understanding and managing the risks of AI systems will help improve their reliability’.

The New York City Police Foundation’s annual breakfast was the occasion for announcements and controversy. The New York Police Department plans to double its use of technology, but there is disagreement over some of the innovations. Commissioner Keechant Sewell presented plans for a smartphone app that can provide users with real-time public safety information and showed new models of squad cars with cameras that rotate 360 degrees. However, Sewell did not share Mayor Eric Adams’ views on facial recognition. Adams, in fact, had promised to expand the use of facial recognition software – which, according to supporters, will help fight crime, but which, according to opponents, will trample on civil rights and penalise people of colour -. When responding to reporters after his speech, Sewell cut short: “We have no plans to expand this technology at this time”.