PRIVACY DAILY 28/2023

La polizia non può procedere alla raccolta sistematica dei dati biometrici dell’accusato. Lo ha affermato la Corte di Giustizia dell’Unione Europea nel decidere la causa C-505/21, in cui si è pronunciata sulla corretta interpretazione della Direttiva UE 2016/680. Il caso era sorto a seguito del rifiuto di una donna, accusata di frode fiscale, di conferire alla polizia bulgara dati dattiloscopici e fotografici, nonché campioni per elaborare un profilo di DNA. Così, la polizia aveva chiesto al tribunale penale di autorizzare l’esecuzione coercitiva dei dati genetici e biometrici della donna, ma il giudice, ravvisando un contrasto con il diritto europeo, si è rivolto alla Corte di Giustizia. Secondo i giudici di Lussemburgo, è contrario al diritto UE prevedere la raccolta sistematica di dati biometrici e genetici di qualsiasi persona formalmente accusata di un reato doloso perseguibile d’ufficio, senza prevedere l’obbligo, per l’autorità competente, di verificare e di dimostrare, da un lato, che tale raccolta è strettamente necessaria per il raggiungimento dei concreti obiettivi perseguiti e, dall’altro, che tali obiettivi non possono essere raggiunti mediante misure che costituiscono un’ingerenza meno grave nei diritti e nelle libertà della persona interessata“.

Il National Institute of Standards and Technology (NIST) ha pubblicato il nuovo AI Risk Management Framework. L’IA può essere usata per creare arte, assumere persone e scrivere codici, ma aumentano le preoccupazioni per i possibili effetti collaterali. Ci sono rischi per la privacy, il copyright, e la sicurezza informatica ed occorre evitare anche discriminazioni e pregiudizi sul luogo di lavoro. Proprio per questo, il framework si propone di aiutare coloro che creano e implementano l’IA ad affrontare i rischi complessi – e spesso unici – posti da questa tecnologia.”Le tecnologie dell’IA possono favorire una crescita economica inclusiva e supportare importanti progressi scientifici che migliorano il nostro mondo, ma queste stesse tecnologie comportano anche rischi di impatti negativi”, ha dichiarato il direttore del NIST Laurie Locascio in occasione dell’evento di lancio del framework. L’IA può, infatti, esacerbare pregiudizi e disuguaglianze che già esistono nella società, ma “la comprensione e la gestione dei rischi dei sistemi di IA contribuirà a migliorarne l’affidabilità”.

La colazione annuale della  New York City Police Foundation è stata occasione per annunci e polemiche. Il Dipartimento di Polizia di New York ha intenzione di raddoppiare l’uso della tecnologia, ma c’è disaccordo su qualcuna delle innovazioni. La commissioner Keechant Sewell ha presentato il progetto di un’applicazione per smartphone in grado di fornire agli utenti informazioni in tempo reale sulla sicurezza pubblica e ha mostrato nuovi modelli di auto di servizio con telecamere che ruotano a 360 gradi. Tuttavia, Sewell non ha condiviso le opinioni del sindaco Eric Adams sul riconoscimento facciale. Adams, infatti, aveva promesso di espandere l’uso del software di riconoscimento facciale – cosa che, secondo i sostenitori, aiuterà a contrastare il crimine, ma  che, secondo gli oppositori, calpesterà i diritti civili e penalizzerà le persone di colore -. “Non abbiamo in programma di espandere questa tecnologia in questo momento”, ha tagliato corto Sewell rispondendo ai giornalisti dopo il suo discorso.

English version

The police may not systematically collect biometric data of the accused. This was stated by the Court of Justice of the European Union in deciding case C-505/21, in which it ruled on the correct interpretation of EU Directive 2016/680. The case had arisen following the refusal of a woman, accused of tax fraud, to provide the Bulgarian police with fingerprint and photographic data, as well as samples for DNA profiling. Thus, the police had asked the criminal court to authorise the coercive execution of the woman’s genetic and biometric data, but the judge, finding a conflict with European law, turned to the Court of Justice. According to the judges in Luxembourg, it is contrary to EU law to provide for the systematic collection of biometric and genetic data of any person formally charged with a criminal offence punishable ex officio, ‘without providing for an obligation on the competent authority to verify and demonstrate, first, that such collection is strictly necessary for the attainment of the concrete objectives pursued and, second, that those objectives cannot be attained by measures constituting a less serious interference with the rights and freedoms of the person concerned’.

The National Institute of Standards and Technology (NIST) has published the new AI Risk Management Framework. AI can be used to create art, hire people and write code, but there are growing concerns about possible side effects. There are risks for privacy, copyright, and cybersecurity, and discrimination and prejudice in the workplace must also be avoided. For this very reason, the framework aims to help those who create and implement AI address the complex – and often unique – risks posed by this technology. “AI technologies can foster inclusive economic growth and support important scientific advances that improve our world, but these same technologies also carry risks of negative impacts,” said NIST Director Laurie Locascio at the framework’s launch event. AI can, in fact, exacerbate biases and inequalities that already exist in society, but ‘understanding and managing the risks of AI systems will help improve their reliability’.

The New York City Police Foundation’s annual breakfast was the occasion for announcements and controversy. The New York Police Department plans to double its use of technology, but there is disagreement over some of the innovations. Commissioner Keechant Sewell presented plans for a smartphone app that can provide users with real-time public safety information and showed new models of squad cars with cameras that rotate 360 degrees. However, Sewell did not share Mayor Eric Adams’ views on facial recognition. Adams, in fact, had promised to expand the use of facial recognition software – which, according to supporters, will help fight crime, but which, according to opponents, will trample on civil rights and penalise people of colour -. When responding to reporters after his speech, Sewell cut short: “We have no plans to expand this technology at this time”.

Privacy Daily 25/2023

La Presidente della CNIL avverte: niente riconoscimento facciale per le Olimpiadi 2024. L’apparto di sicurezza che la Francia sta predisponendo in vista delle Olimpiadi estive includerà, per la prima volta, telecamere dotate di intelligenza artificiale. È così che il governo sta cercando di aumentare il suo arsenale di poteri di sorveglianza per garantire la sicurezza dei milioni di turisti attesi. La legge che introduce questi nuovi poteri è in votazione al Senato ed è in corso uno scontro tra coloro che vogliono aggiungere tutele per la privacy e coloro che vogliono aumentare il potenziale dei dispositivi di sorveglianza e sicurezza, soprattutto introducendo il riconoscimento facciale. A riguardo, la Presidente dell’Autorità garante francese, Marie-Laure Denis, ha affermato con chiarezza: “I membri del collegio della CNIL invitano i parlamentari a non introdurre il riconoscimento facciale, cioè l’identificazione in tempo reale delle persone nello spazio pubblico”. Un primo emendamento per includere il riconoscimento facciale è stato già respinto in commissione al Senato, ma può tornare in sessione plenaria.

La Royal Society indaga sul potenziale delle PETs (Privacy Enhancing Technologies) per massimizzare i benefici e ridurre i danni associati all’uso dei dati.  Il nuovo rapporto 2023, intitolato From privacy to partnership: the role of Privacy Enhancing Technologies in data governance and collaborative analysis, analizza il potenziale delle PETs nell’assicurare un uso sicuro e rapido dei dati sensibili, al fine di un più ampio beneficio pubblico. Il documento, realizzato in stretta collaborazione con l’Alan Turing Institute, esamina il ruolo di queste tecnologie nell’affrontare le questioni di governance dei dati al di là della privacy. In particolare, nel documento vengono approfondite le modalità di impiego delle PETs per supportare la governance dei dati e consentire usi nuovi, i principali ostacoli e i fattori abilitanti all’impiego di tali tecnologie e il loro inserimento nei quadri di valutazione e bilanciamento dei rischi, dei danni e dei benefici quando si lavora con i dati personali.

Continua la saga del “Watergate” greco. La commissione d’inchiesta del Parlamento europeo istituita per indagare sull’uso di Pegasus e di software di sorveglianza equivalenti (PEGA) sta per presentare la sua bozza di raccomandazione alla Commissione e al Consiglio UE. A quanto pare, è molto probabile che il governo ellenico verrà richiamato al rispetto dell’indipendenza dell’autorità nazionale responsabile per le questioni di privacy (ADAE) e in particolare del suo presidente, Christos Rammos. L’insistenza di quest’ultimo nel far luce sul caso sembra, infatti, aver indisposto il governo e, secondo gli analisti, c’è da aspettarsi che questa vicenda avveleni il clima politico del Paese fino alle prossime elezioni. Ma Rammos è determinato a ottenere risultati concreti.

English Translation

The President of the CNIL warns: no facial recognition for the 2024 Olympics. The security apparatus France is preparing for the Summer Olympics will include, for the first time, cameras equipped with artificial intelligence. This is how the government is seeking to increase its arsenal of surveillance powers to ensure the safety of the millions of expected tourists. The bill introducing these new powers is being voted on in the Senate, and a clash is underway between those who want to add privacy protections and those who want to increase the potential of surveillance and security devices, especially by introducing facial recognition. In this regard, the President of the French Supervisory Authority, Marie-Laure Denis, issued a clearly warning: ‘The members of the CNIL’s college call on parliamentarians not to introduce facial recognition, that is to say the identification of people on the fly in the public space”. A first amendment to include facial recognition has already been rejected in the Senate committee, but may return to the plenary session

The Royal Society investigates the potential of Privacy Enhancing Technologies (PETs) to maximise the benefits and reduce the harms associated with data use.  The new report 2023, entitled From privacy to partnership: the role of Privacy Enhancing Technologies in data governance and collaborative analysis, explores the potential of PETs in ensuring the secure and rapid use of sensitive data for wider public benefit. The paper, produced in close collaboration with the Alan Turing Institute, examines the role of these technologies in addressing data governance issues beyond privacy. In particular, the paper explores how PETs can be used to support data governance and enable novel uses, the main barriers and enablers to the use of these technologies, and their inclusion in risk, harm and benefit assessment and balancing frameworks when working with personal data.

The Greek ‘Watergate’ saga continues. The European Parliament enquiry committee set up to investigate the use of Pegasus and equivalent surveillance software (PEGA) is about to submit its draft recommendation to the EU Commission and Council. Apparently, it is very likely that the Greek government will be reminded of the independence of the national authority responsible for privacy issues (ADAE) and in particular its president, Christos Rammos. The latter’s insistence on shedding light on the case seems, in fact, to have indisposed the government and, according to analysts, it is to be expected that this affair will poison the country’s political climate until the next elections. But Rammos is determined to achieve concrete results.

Privacy Daily 24/2023

L’autorità francese per la protezione dei dati, la Commission nationale de l’informatique et des libertés, ha lanciato una consultazione pubblica sulle questioni economiche associate alla raccolta e all’elaborazione dei dati da parte delle applicazioni mobili. Come annunciato nel suo piano d’azione del 24 novembre, la CNIL ha affermato che il suo obiettivo “è rendere visibili i flussi di dati e rafforzare la conformità delle applicazioni mobili e dei loro ecosistemi al fine di proteggere meglio la privacy degli utenti”. Nel comunicato la Cnil, ha aggiunto che l’approccio “dovrebbe consentire di misurare il potenziale impatto delle scelte normative della CNIL sugli attori francesi, europei e internazionali, in particolare sugli aspetti della concorrenza e dell’innovazione”. Il piano strategico 2022-2024 della CNIL, si è posto tra i temi prioritari: “la raccolta di dati personali nelle applicazioni per smartphone “. Di fronte alla polivalenza delle tecnologie e all’eterogeneità delle pratiche, l’obiettivo della CNIL è rendere visibili i flussi di dati e rafforzare la conformità delle applicazioni mobili e dei loro ecosistemi.

Il Rapporto dell’Università di Oxford dal titolo “Automating Immigration and Asylum: The Uses of New Technologies in Migration and Asylum Governance in Europe” analizza in 76 pagine il delicato tema dell’uso in tutta Europa delle nuove tecnologie anche nel campo della migrazione e dell’asilo. Diversi Stati hanno iniziato a usarle (o a testarle) per controllare chi entra nei propri confini o per scegliere chi può accedere o meno ai propri territori. L’uso di nuove tecnologie può talora accelerare i processi decisionali a vantaggio delle agenzie governative e di alcuni richiedenti. Tuttavia, l’impiego di questi sistemi potrebbe potenzialmente provocare anche nuove vulnerabilità e discriminazioni. Peraltro, i potenziali “errori della macchina” rappresentano una minaccia significativa per migranti e richiedenti asilo, dal momento che un’errata decisione di rimpatrio potrebbe tradursi in un serio rischio per la libertà e la vita. Inoltre, gli studiosi di Oxford evidenziano che, siccome la proposta di Regolamento europeo sull’IA classifica le applicazioni connesse all’immigrazione, all’asilo e al controllo delle frontiere come “ad alto rischio”, è necessaria un’indagine sistematica sulle pratiche attuali e sulla portata del loro utilizzo nei Paesi europei.

Gira un video e diventa “ambasciatore della privacy”. Il contest del Garante privacy dedicato alle scuole, un concorso per gli studenti delle scuole superiori di secondo grado chiamati a realizzare un video per spiegare ai coetanei cosa è per loro la privacy e come tutelarla. L’iniziativa del Garante, realizzata con il supporto tecnico di Skuola.net, ha lo scopo di coinvolgere insegnanti e ragazzi in progetti di informazione e sensibilizzazione sul valore dei dati personali e sull’importanza di difenderli, soprattutto nella dimensione digitale. L’Autorità mette a disposizione degli istituti scolastici che intendono partecipare un apposito kit didattico per sviluppare percorsi di formazione su temi di grande impatto, soprattutto per i più giovani, tra i quali, in particolare il cyberbullismo; i furti di identità; il revenge porn; la profilazione on line; gli assistenti digitali; i dispositivi indossabili; i deepfake.

English Translation

The French data protection authority, the Commission nationale de l’informatique et des libertés, launched a public consultation on the economic issues associated with the collection and processing of data by mobile applications. As announced in its action plan of 24 November, the CNIL stated that its goal ‘is to make data flows visible and strengthen the compliance of mobile applications and their ecosystems, to better protect users’ privacy’. It added that the approach ‘should make it possible to measure the potential impact of CNIL’s regulatory choices on French, European and international actors, particularly on competition and innovation aspects’. The CNIL’s 2022-2024 strategic plan set as one of its priority themes ‘the collection of personal data in smartphone applications’. Faced with the polyvalence of technologies and the heterogeneity of practices, the CNIL’s objective is to make data flows visible and to strengthen the compliance of mobile applications and their ecosystems.

The Oxford University report entitled ‘Automating Immigration and Asylum: The Uses of New Technologies in Migration and Asylum Governance in Europe’ analyses in 76 pages the sensitive topic of the use of new technologies in the field of migration and asylum throughout Europe. Several states have started to use (or test) them to control who enters their borders or to choose who may or may not enter their territories. The use of new technologies can sometimes speed up decision-making processes to the benefit of government agencies and some applicants. However, the use of these systems could also potentially lead to new vulnerabilities and discrimination. Moreover, potential ‘machine errors’ pose a significant threat to migrants and asylum seekers, as a wrong return decision could result in a serious risk to freedom and life. Furthermore, the Oxford scholars point out that since the proposed European AI Regulation classifies applications related to immigration, asylum and border control as ‘high-risk’, a systematic investigation of current practices and the extent of their use in European countries is necessary.

Shoot a video and become a ‘privacy ambassador‘. The Privacy Guarantor’s contest dedicated to schools, a competition for secondary school students called upon to make a video to explain to their peers what privacy means to them and how to protect it. The Garante’s initiative, realised with the technical support of Skuola.net, aims to involve teachers and students in information and awareness-raising projects on the value of personal data and the importance of defending them, especially in the digital dimension. The Authority is making a special teaching kit available to schools wishing to participate in order to develop training courses on topics of great impact, especially for young people, including, in particular, cyberbullying; identity theft; revenge porn; online profiling; digital assistants; wearable devices; and deepfakes.

Privacy Daily 20/2023

In che modo la tua città gestisce i tuoi dati digitali? Con un numero sempre maggiore di dati prodotti ogni giorno nelle nostre città, c’è una crescente necessità di un utilizzo socialmente responsabile della conoscenza generata dai dati per migliorare il processo decisionale e l’efficienza dei servizi pubblici. La tua auto parcheggiata può rimanere ferma perché hai già pagato il ticket? Vuoi segnalare una zona trafficata e dei rischi ad essa connessi, la necessità di manutenzione di una strada o del parco più vicino? In molti casi, le amministrazioni locali si servono di una serie di algoritmi che riducono gli oneri amministrativi e che veicolano le richieste/segnalazioni presso i reparti competenti (quindi, in maniera più certa e più rapida). Helsinky e Amsterdam hanno però fatto di più sforzandosi di stabilire uno standard per l’uso trasparente ed etico degli algoritmi delle amministrazioni cittadine con la creazione di un registro degli algoritmi. Grazie a questo sistema, i cittadini potranno essere messi nelle condizioni di accedere a informazioni comprensibili e aggiornate su come gli algoritmi influenzino le loro vite e potranno esercitare il diritto di conoscere effettivamente i sistemi di raccolta dei loro dati. “In questo modo – ha affermato André Sobczak, Segretario generale, Eurocities – le due città cercano di offrire una salvaguardia per le persone i cui dati possono essere utilizzati da algoritmi e un modello convalidato che altre città possono utilizzare immediatamente, senza dover investire ulteriori risorse stesse”. Basandosi sul lavoro di Amsterdam e Helsinki, Eurocities Digital Forum Lab ad esempio ha sviluppato uno schema di dati open source, che stabilisce un metodo comune che qualsiasi città può adottare quando crea un registro di algoritmi. Sebbene l’intelligenza artificiale possa essere un importante fattore abilitante per migliorare i servizi pubblici e sostenere l’elaborazione di politiche pubbliche, la sua applicazione può sollevare preoccupazioni etiche. Ad esempio, algoritmi complessi in sistemi automatizzati addestrati su dati distorti possono trasporre pregiudizi a gruppi di cittadini. I registri degli algoritmi offrono trasparenza in merito allo sviluppo e all’attuazione degli algoritmi e forniscono un’importante salvaguardia per l’uso responsabile dell’IA. Sulla base dell’esempio di Helsinky e Amsterdam anche altre città hanno deciso di andare nella stessa direzione: Barcellona, ​​Bologna, la Regione di Bruxelles Capitale, Eindhoven, Mannheim, Rotterdam e Sofia.

La posizione tedesca sul Data Act dell’UE, l’iniziativa legislativa per regolamentare le modalità di accesso, condivisione e trasmissione dei dati, è stata inviata la scorsa settimana alla presidenza svedese del Consiglio dell’UE, che sta raccogliendo feedback prima di presentare una nuova proposta di compromesso per la fine del mese. Nello specifico, la Germania ha chiesto chiarezza su una serie di argomenti tra cui l’interazione del Data Act con il regolamento generale sulla protezione dei dati dell’UE, le condizioni legali per la condivisione e il trasferimento dei dati e i tempi di passaggio al cloud. Per Berlino, un punto centrale sono le contraddizioni, le incoerenze e sovrapposizioni tra la proposta di Data Act e il Regolamento generale sulla protezione dei dati per cui il governo tedesco chiede di rendere esplicito che tutti i dati personali ottenuti tramite il Data Act debbano essere gestiti in conformità con il GDPR.

La politica della Cina sulle Big Tech diventa più chiara. O almeno così sembra, vista da Singapore. Dopo anni di politiche repressive nei confronti dei giganti tecnologici, le incertezze normative stanno per svanire e la strada per gli investitori diffidenti sembra più semplice. Così si è espresso Jeffrey Jaensubhakij, Chief Investment Officer del fondo sovrano GIC, nel corso di un panel al World Economic Forum di Davos. Il commento di Jaensubhakij arriva a margine delle dichiarazioni del vice premier cinese Liu He, che sembrano aver chiarito il quadro. Negli ultimi cinque anni, infatti, la Cina è passata da essere una fonte di profitto a un Paese quasi invisibile per via degli invadenti interventi del governo e delle restrizioni pandemiche. Ora, però, gli investitori mondiali stanno cercando di cambiare passo. E la Cina sembra essersi impegnata a rilanciare l’economia e ad accoglierli.

English translation

How does your city manage your digital data? With more and more data being produced every day in our cities, there is a growing need for socially responsible use of data-generated knowledge to improve decision-making and the efficiency of public services. Can your parked car stay parked because you have already paid the ticket? Do you want to report a busy area and its associated risks, the maintenance of a road or the nearest park? In many cases, local administrations make use of a series of algorithms that reduce the administrative burden and channel the requests/reports to the relevant departments (thus, more reliably and faster). Helsinki and Amsterdam have, however, gone further by striving to establish a standard for the transparent and ethical use of city government algorithms with the creation of an algorithm register. Thanks to this system, citizens will be able to access comprehensible and up-to-date information on how algorithms affect their lives and will be able to exercise their right to actually know about the systems that collect their data. “In this way,” said André Sobczak, Secretary General, Eurocities, “the two cities seek to offer a safeguard for people whose data can be used by algorithms and a validated model that other cities can use immediately, without having to invest additional resources themselves. Building on the work of Amsterdam and Helsinki, Eurocities Digital Forum Lab, for instance, has developed an open source data schema, which establishes a common method that any city can adopt when creating a registry of algorithms. Although artificial intelligence can be an important enabler for improving public services and supporting public policy-making, its application can raise ethical concerns. For instance, complex algorithms in automated systems trained on biased data may transpose biases to groups of citizens. Algorithm registries offer transparency regarding the development and implementation of algorithms and provide an important safeguard for the responsible use of AI. Based on the example of Helsinky and Amsterdam, other cities have also decided to go in the same direction: Barcelona, Bologna, the Brussels Capital Region, Eindhoven, Mannheim, Rotterdam and Sofia.

Germany’s position on the EU Data Act, the legislative initiative to regulate how data is accessed, shared and transmitted, was sent last week to the Swedish EU Council Presidency, which is gathering feedback before presenting a new compromise proposal by the end of the month. Specifically, Germany has asked for clarity on a number of topics including the Data Act’s interaction with the EU’s General Data Protection Regulation, the legal conditions for data sharing and transfer, and the timing of the move to the cloud. For Berlin, a central point of criticism are the contradictions and overlaps between the proposed Data Act and the General Data Protection Regulation, whereby the German government demands that it be made explicit that all personal data obtained through the Data Act must be handled in accordance with the GDPR.

China’s Big Tech policy is becoming clearer. Or so it seems, as seen from Singapore. After years of repressive policies towards tech giants, regulatory uncertainties are about to fade and the road for wary investors seems easier. So said Jeffrey Jaensubhakij, Chief Investment Officer of the sovereign wealth fund GIC, during a panel at the World Economic Forum in Davos. Jaensubhakij’s comment comes on the sidelines of statements by Chinese Vice Premier Liu He, which seem to have clarified the picture. Over the past five years, China has gone from being a source of profit to an almost invisible country due to intrusive government interventions and pandemic restrictions. Now, however, global investors are looking for a change of pace. And China seems to be committed to reviving the economy and welcoming them.

Privacy Daily 19/2023

L’intelligenza artificiale (AI) arriva in un tribunale e a febbraio prossimo negli Stati Uniti assumerà il ruolo di “avvocato difensore”: da uno smartphone ascolterà quanto avverrà in aula e suggerirà all’accusato come difendersi attraverso degli auricolari. La causa con la quale esordirà in tribunale riguarda una multa per eccesso di velocità e rappresenterà un precedente importante. L’Intelligenza artificiale da tribunale è stata sviluppata da DoNotPay. Negli Stati Uniti, secondo i dati riportati dal sito Cnet, l’80% degli americani a basso reddito non ha accesso all’assistenza legale. E Proprio DoNotPay ha già utilizzato negli Usa chatbot generati dall’intelligenza artificiale per aiutare le persone a ottenere rimborsi per il Wi-Fi in volo che non funzionava, chiedere riduzioni delle bollette della luce, contestare le multe. “La maggior parte delle persone non può permettersi una rappresentanza legale”, ha detto il CEO di DoNotPay, Josh Browder in un’intervista.

La privacy by design, uno dei principi fondamentali attorno ai quali ruota la disciplina del GDPR, sta per diventare uno standard internazionale: il prossimo 8 febbraio, infatti, l’International Organization for Standardization adotterà la ISO 31700 contenente requisiti e indicazioni su come implementare questo importante principio alla base della protezione dei dati personali. La notizia è stata accolta con favore in particolare dai produttori e fornitori di servizi che, proprio grazie alla standardizzazione, potranno vedersi semplificata l’attuazione pratica e concreta del principio.

Il Garante per la protezione dei dati personali ha inviato alla Regione Veneto una richiesta di informazioni per verificare la conformità alla normativa privacy di una delibera, in base alla quale non sarebbero più i medici di medicina generale a scegliere la classe di priorità della prestazione richiesta per il paziente, ma un sistema basato sull’intelligenza artificiale. Sarebbe in sostanza un algoritmo a stabilire i tempi di attesa per le prestazioni prescritte. Di fronte ad un possibile trattamento su larga scala di dati particolarmente delicati come quelli sulla salute, che coinvolgerebbe peraltro un numero rilevante di pazienti, il Garante ha deciso di avviare un’istruttoria. L’iniziativa della Regione era stata segnalata da alcuni articoli di stampa.

English Translation

Artificial intelligence (AI) arrives in a courtroom, February in the United States will play the role of ‘defence lawyer’: from a smartphone it will listen to what is happening in the courtroom and suggest what to say to the defendant through earphones. The case concerns a speeding fine and will in any case set a precedent. The courtroom artificial intelligence was developed by DoNotPay. In the United States, according to data reported by the website Cnet, 80 % of low-income Americans have no access to legal aid. And Just DoNotPay has already used artificial intelligence-generated chatbots in the US to help people get refunds for in-flight Wi-Fi that didn’t work, lower their electricity bills, contest traffic tickets. “Most people can’t afford legal representation” Josh Browder, CEO of DoNotPay said in an interview. The use of artificial intelligence in a real court situation ‘will be a proof of concept for the courts to allow technology in the courtroom’.

Privacy by design, one of GDPR’s fundamental principles, is about to become an international standard: on February 8, in fact, the International Organization for Standardization will adopt ISO 31700 containing requirements and guidance on how to implement this important principle underlying the protection of personal data. The news has been welcomed in particular by manufacturers and service providers who, thanks precisely to standardization, will be able to see simplified practical and concrete implementation of the principle.

The Garante per la protezione dei dati personali (Italian data protection authority) sent the Veneto Region a request for information to verify the compliance with privacy regulations of a resolution, according to which it would no longer be general practitioners who would choose the priority class of the service requested for the patient, but a system based on artificial intelligence. It would essentially be an algorithm that would determine the waiting times for prescribed services. Faced with a possible large-scale processing of particularly sensitive data such as health data, which would moreover involve a significant number of patients, the Garante decided to open an inquiry. The Region’s initiative had been signalled by some press articles.

Privacy Daily – 17/2023

L’innovazione tecnologica sta aprendo una nuova frontiera nell’agenda di sviluppo dei Paesi di tutto il mondo. Negli ultimi anni, l’intelligenza artificiale (AI) ha avuto ed avrà sempre più un impatto profondo sulle questioni globali in agricoltura, sanità, istruzione. Esiste un enorme potenziale nello sfruttare gli strumenti di intelligenza artificiale per aumentare la crescita economica, ma i vantaggi economici e sociali di questa tecnologia rimangono geograficamente concentrati, principalmente nel Nord del mondo. L’ intelligenza artificiale potrebbe contribuire fino a 15,7 trilioni di dollari all’economia globale entro il 2030. Mentre tutte le regioni dell’economia globale trarranno vantaggio dall’intelligenza artificiale, il Nord America e la Cina vedranno i maggiori guadagni in termini di PIL. I paesi del Sud del mondo registreranno aumenti più moderati a causa di tassi molto più bassi di adozione delle tecnologie di intelligenza artificiale. Non sorprende che le nazioni sviluppate con più potere economico siano generalmente in una posizione migliore ed effettuare grandi investimenti in ricerca e sviluppo per sviluppare e implementare una tecnologia di intelligenza artificiale sempre più avanzata. Tuttavia, c’è un impegno da parte dei paesi del Sud del mondo a utilizzare l’intelligenza artificiale, come articolato in varie strategie nazionali come AIForAll dall’India. Uno studio di Oxford Insight su 181 Paesi del mondo evidenzia come aree geografiche del Sud del mondo siano maggiormente penalizzate nello sviluppo dell’AI, in particolare Africa subsahariana, alcuni paesi dell’Asia centrale e meridionale e alcuni Paesi latinoamericani. Senza un ambiente operativo favorevole, le disparità che gli strumenti di IA possono comportare, sono destinate ad alimentare le disuguaglianze globali.

Meta fa causa a Voyager Labs, per la presunta creazione falsi account Facebook al fine di sottrarre i dati degli utenti e alimentare la sua tecnologia predittiva. Secondo The Guardian, nel 2021 Voyager Labs potrebbe aver venduto uno dei suoi servizi al dipartimento di polizia di Los Angeles: si parla di previsioni sui profili più inclini a commettere reati in futuro. La causa pendente presso il tribunale federale della California descrive in dettaglio le attività che Meta afferma di aver scoperto nel luglio 2022, sostenendo che Voyager avrebbe utilizzato un software di sorveglianza, basato su account falsi, per raccogliere dati da Facebook e Instagram, ed anche Twitter, YouTube, LinkedIn e Telegram. Voyager avrebbe creato e gestito più di 38mila falsi account Facebook per raccogliere informazioni da oltre 600mila utenti del social network, inclusi post, Mi piace, elenchi di amici, foto, commenti e informazioni da gruppi e pagine, secondo quanto riportato nella denuncia

Un gruppo di hacker ha pubblicato su Internet un’enorme quantità di file sensibili dal Dipartimento di polizia della San Francisco Bay Area, comprese accuse specifiche di abusi sui minori. Tra i file del sistema del Bay Area Rapid Transit System (BART) violati anche sei rapporti che dettagliano sospetti abusi su minori con il nome e la data di nascita dei bambini e la descrizione di un adulto e del presunto abuso.

English Translation

Technological innovation is opening a new frontier in the development agenda of countries around the world. In recent years, artificial intelligence (AI) has had and will increasingly have a profound impact on global issues in agriculture, health, and education. There is enormous potential in harnessing artificial intelligence tools to increase economic growth, but the economic and social benefits of this technology remain geographically concentrated, mainly in the Global North. Artificial intelligence could contribute up to $15.7 trillion to the global economy by 2030. While all regions of the global economy will benefit from artificial intelligence, North America and China will see the greatest gains in terms of GDP. Countries in the Global South will see more moderate increases due to much lower rates of adoption of artificial intelligence technologies. Unsurprisingly, developed nations with more economic power are generally in a better position to make large investments in research and development to develop and implement increasingly advanced artificial intelligence technology. However, there is a commitment from countries in the global South to utilise artificial intelligence, as articulated in various national strategies such as AIForAll from India. An Oxford Insight study of 181 countries around the world shows that geographic areas in the Global South are most disadvantaged in the development of AI, particularly Sub-Saharan Africa, some Central and South Asian countries, and some Latin American countries. Without a favourable operating environment, the inequalities that AI tools can contribute to global inequality.

Meta is suing Voyager Labs, for allegedly creating fake Facebook accounts in order to steal user data and feed its predictive technology. According to The Guardian, in 2021 Voyager Labs may have sold one of its services to the Los Angeles Police Department: it is said to have predicted which profiles are most likely to commit crimes in the future. The lawsuit pending in California federal court details the activities Meta claims to have uncovered in July 2022, alleging that Voyager used surveillance software, based on fake accounts, to collect data from Facebook and Instagram, and also Twitter, YouTube, LinkedIn and Telegram. Voyager allegedly created and maintained more than 38 thousand fake Facebook accounts to collect information from more than 600 thousand users of the social network, including posts, likes, friend lists, photos, comments, and information from groups and pages, according to the complaint.

A group of hackers posted a huge amount of sensitive files from the San Francisco Bay Area Police Department on the Internet, including specific allegations of child abuse. Among the Bay Area Rapid Transit System (BART) files hacked were six reports detailing suspected child abuse with the name and date of birth of the children and a description of an adult and the alleged abuse.