PRIVACY DAILY 88/2023

Le istituzioni dell’Unione Europea si tengono alla larga dalle spunte blu di Twitter. Secondo i servizi stampa delle istituzioni, la Commissione europea e il Parlamento europeo non intendono pagare Twitter per far verificare le centinaia di account ufficiali dell’UE, tra cui quelli della Presidente della Commissione Ursula von der Leyen e della Presidente del Parlamento Roberta Metsola, nell’ambito del programma “Twitter Blue”. Invertendo una precedente politica che mirava a limitare la disinformazione, Twitter ha dichiarato che questo mese rimuoverà i controlli blu tradizionali che certificavano l’autenticità degli account di funzionari governativi, giornalisti e personaggi pubblici, a meno che non paghino. Nel frattempo, anche tutti gli utenti potrebbero presto abbonarsi per ottenere la tanto agognata spunta blu. Annunciato nel novembre 2022 dopo l’acquisto della piattaforma da parte di Elon Musk, il piano ha suscitato il timore che possa provocare un’ondata di account falsi e un aumento dei messaggi falsi. La Data Protection Commission irlandese ha anche avvertito che il programma di verifica a pagamento potrebbe potenzialmente violare il GDPR. Sia la Commissione che il Parlamento hanno dichiarato di “monitorare costantemente l’eventuale uso improprio o impersonificazione” degli account delle loro istituzioni sui social network. Un portavoce della Commissione ha aggiunto che è stata prestata particolare attenzione a “diversi account di alto valore della Commissione (in particolare dei Commissari)” e che avrebbero segnalato potenziali impersonificazioni alle piattaforme.  Dopo aver inviato a febbraio un elenco di oltre 350 account di funzionari e organizzazioni delle istituzioni europee, Twitter ha assegnato un segno di spunta grigio alla maggior parte dei 175 account ufficiali della Commissione, ha dichiarato un portavoce della Commissione. Anche alla maggior parte dei 60 account dei servizi stampa del Parlamento è stata assegnata la spunta grigia, prevista per gli account governativi. Negli Stati Uniti, la Casa Bianca ha dichiarato in precedenza che non avrebbe optato per il nuovo programma di spunta blu.

In Australia la legge sulla privacy incontra ancora opposizioni. Le aziende del settore dei media hanno criticato la proposta di riforma della legge australiana sulla privacy, avvertendo che le modifiche non sono di interesse pubblico e danneggerebbero la libertà di stampa. La coalizione Right to Know avverte che la proposta presentata a febbraio, avrebbe “un impatto devastante sulla libertà di stampa e sul giornalismo in Australia senza alcuna necessità o beneficio chiaramente definiti”. La coalizione comprende il Guardian, News Corp, Nine, AAP, Free TV Australia, il sindacato dei media e le emittenti pubbliche ABC e SBS. La proposta chiede che gli australiani ottengano un maggiore controllo sulle loro informazioni personali, compresa la possibilità di scegliere di non ricevere annunci pubblicitari mirati, di cancellare i propri dati e di fare causa per gravi violazioni della privacy. La coalizione del Right to Know sostiene inoltre che ciò “comporterà un onere significativo per i tribunali e l’industria” e “andrà principalmente a beneficio di individui ricchi e di alto profilo”. La stessa ha aggiunto anche che l’impatto sarebbe maggiore sulle organizzazioni mediatiche più piccole, che dovrebbero ridurre le notizie per adeguarsi. “In alcune proposte c’è il serio pericolo che il giornalismo sia esposto a sfide legali costose e lunghe”. Il Dipartimento di Giustizia ha proposto che le aziende del settore dei media siano tenute a rispettare l’obbligo di proteggere e distruggere le informazioni private e siano obbligate a notificare le persone interessate nell’ambito del sistema di notifica delle violazioni dei dati. Il Dipartimento ha inoltre proposto che l’Office of the Australian Information Commissioner crei “criteri per adeguati standard di privacy dei media e un modello” che le aziende del settore possano adottare. Inoltre, l’OAIC dovrebbe ottenere maggiori poteri per condurre indagini e adottare sanzioni.

La polizia del Galles meridionale aveva sospeso l’uso della tecnologia di riconoscimento facciale per timori di discriminazione, ma ha dichiarato che ora la utilizzerà di nuovo. Nel 2020, infatti, la Corte d’Appello aveva sancito una violazione del diritto alla privacy da parte della Polizia del Galles del Sud, nonché delle leggi sulla protezione dei dati e sull’uguaglianza attraverso l’uso di questa tecnologia. Ora, però, la Polizia ha dichiarato che è stato stabilito un codice di condotta per definire gli obblighi della forza. Vi sarebbero “discrepanze minime” per razza e sesso quando la tecnologia viene utilizzata in determinati contesti. Addirittura, la tecnologia potrebbe distinguere tra gemelli identici. Tutto ciò secondo un rapporto commissionato dalla Polizia del Galles del Sud e dalla Polizia Metropolitana. Ma i gruppi per i diritti umani hanno avvertito che la tecnologia non dovrebbe trovare posto in una democrazia. Madeleine Stone, responsabile legale e politico di Big Brother Watch, ha dichiarato: “Questa tecnologia orwelliana può essere utilizzata in Cina e in Russia, ma non trova posto nelle forze di polizia britanniche”, aggiungendo che “alla luce delle ripetute scoperte di razzismo e sessismo istituzionale all’interno della polizia, le forze dell’ordine non dovrebbero assolutamente utilizzare questa tecnologia discriminatoria”. Lindsey Chiswick, direttore dell’intelligence della Met, ha però dichiarato: “Sappiamo che, nell’impostazione in cui l’abbiamo utilizzata, le prestazioni sono identiche per razza e sesso e la possibilità di un falso riscontro è solo una su 6.000 persone che passano davanti alla telecamera. Tutte le corrispondenze vengono esaminate manualmente da un agente. Se l’agente ritiene che si tratti di una corrispondenza, seguirà una conversazione per verificare”.

English version

The European Union institutions are staying away from Twitter’s blue checks. According to the institutions’ press services, the European Commission and the European Parliament do not intend to pay Twitter to have hundreds of official EU accounts, including those of Commission President Ursula von der Leyen and Parliament Speaker Roberta Metsola, verified under the “Twitter Blue” program. Reversing a previous policy aimed at curbing disinformation, Twitter said this month it will remove traditional blue checks that certified the authenticity of accounts of government officials, journalists and public figures unless they pay. Meanwhile, all users could also soon subscribe to get the coveted blue checkmark. Announced in November 2022 after Elon Musk’s purchase of the platform, the plan has raised fears that it could result in a wave of fake accounts and an increase in fake messages. The Irish Data Protection Commission also warned that the paid verification program could potentially violate the GDPR. Both the Commission and Parliament said they are “constantly monitoring the possible misuse or impersonation” of their institutions’ social media accounts. A Commission spokesperson added that special attention was being paid to “several high-value Commission accounts (particularly of Commissioners)” and that they would report potential impersonations to the platforms. After sending a list of more than 350 accounts of officials and organizations in the European institutions in February, Twitter assigned a gray check mark to most of the Commission’s 175 official accounts, a Commission spokesman said. Most of the 60 accounts of the Parliament’s press services were also assigned a gray checkmark, which is expected for government accounts. In the United States, the White House has previously stated that it would not opt into the new blue tick program.

In Australia, the privacy law still faces opposition. Media companies have criticized the proposed reform of Australia’s privacy law, warning that the changes are not in the public interest and would harm press freedom. The Right to Know coalition warns that the proposal submitted in February, would “have a devastating impact on press freedom and journalism in Australia without any clearly defined need or benefit.” The coalition includes the Guardian, News Corp, Nine, AAP, Free TV Australia, the media union, and public broadcasters ABC and SBS. The proposal calls for Australians to gain greater control over their personal information, including the ability to opt out of targeted advertisements, delete their data and sue for serious privacy violations. The Right to Know coalition also argues that this “will place a significant burden on the courts and industry” and “will primarily benefit wealthy and high-profile individuals.” She also added that the impact would be greatest on smaller media organizations, which would have to cut back on news to comply. “There is a serious danger in some proposals that journalism will be exposed to costly and time-consuming legal challenges.” The Justice Department has proposed that media companies be required to comply with the obligation to protect and destroy private information and be required to notify affected individuals under the data breach notification system. The Department also proposed that the Office of the Australian Information Commissioner create “criteria for appropriate media privacy standards and a template” for media companies to adopt. In addition, the OAIC should be given more powers to conduct investigations and adopt sanctions.

South Wales Police had suspended the use of facial recognition technology over concerns of discrimination, but said it would now use it again. In 2020, in fact, the Court of Appeal had ruled a violation of privacy rights by the South Wales Police, as well as data protection and equality laws through the use of this technology. Now, however, the Police said a code of conduct had been established to define the force’s obligations. There would be “minimal discrepancies” by race and gender when the technology is used in certain contexts. Even, the technology could distinguish between identical twins. All this according to a report commissioned by the South Wales Police and the Metropolitan Police. But human rights groups have warned that technology should have no place in a democracy. Madeleine Stone, legal and policy director of Big Brother Watch, said, “This Orwellian technology may be used in China and Russia, but it has no place in British police forces,” adding that “in light of the repeated findings of institutional racism and sexism within the police, law enforcement agencies should definitely not use this discriminatory technology.” Lindsey Chiswick, director of intelligence at the Met, however, said, “We know that in the setting in which we have used it, the performances are identical by race and gender, and the chance of a false match is only one in 6,000 people who pass in front of the camera. All matches are manually reviewed by an agent. If the agent believes it is a match, a conversation will follow to verify.”

Privacy Daily 20/2023

In che modo la tua città gestisce i tuoi dati digitali? Con un numero sempre maggiore di dati prodotti ogni giorno nelle nostre città, c’è una crescente necessità di un utilizzo socialmente responsabile della conoscenza generata dai dati per migliorare il processo decisionale e l’efficienza dei servizi pubblici. La tua auto parcheggiata può rimanere ferma perché hai già pagato il ticket? Vuoi segnalare una zona trafficata e dei rischi ad essa connessi, la necessità di manutenzione di una strada o del parco più vicino? In molti casi, le amministrazioni locali si servono di una serie di algoritmi che riducono gli oneri amministrativi e che veicolano le richieste/segnalazioni presso i reparti competenti (quindi, in maniera più certa e più rapida). Helsinky e Amsterdam hanno però fatto di più sforzandosi di stabilire uno standard per l’uso trasparente ed etico degli algoritmi delle amministrazioni cittadine con la creazione di un registro degli algoritmi. Grazie a questo sistema, i cittadini potranno essere messi nelle condizioni di accedere a informazioni comprensibili e aggiornate su come gli algoritmi influenzino le loro vite e potranno esercitare il diritto di conoscere effettivamente i sistemi di raccolta dei loro dati. “In questo modo – ha affermato André Sobczak, Segretario generale, Eurocities – le due città cercano di offrire una salvaguardia per le persone i cui dati possono essere utilizzati da algoritmi e un modello convalidato che altre città possono utilizzare immediatamente, senza dover investire ulteriori risorse stesse”. Basandosi sul lavoro di Amsterdam e Helsinki, Eurocities Digital Forum Lab ad esempio ha sviluppato uno schema di dati open source, che stabilisce un metodo comune che qualsiasi città può adottare quando crea un registro di algoritmi. Sebbene l’intelligenza artificiale possa essere un importante fattore abilitante per migliorare i servizi pubblici e sostenere l’elaborazione di politiche pubbliche, la sua applicazione può sollevare preoccupazioni etiche. Ad esempio, algoritmi complessi in sistemi automatizzati addestrati su dati distorti possono trasporre pregiudizi a gruppi di cittadini. I registri degli algoritmi offrono trasparenza in merito allo sviluppo e all’attuazione degli algoritmi e forniscono un’importante salvaguardia per l’uso responsabile dell’IA. Sulla base dell’esempio di Helsinky e Amsterdam anche altre città hanno deciso di andare nella stessa direzione: Barcellona, ​​Bologna, la Regione di Bruxelles Capitale, Eindhoven, Mannheim, Rotterdam e Sofia.

La posizione tedesca sul Data Act dell’UE, l’iniziativa legislativa per regolamentare le modalità di accesso, condivisione e trasmissione dei dati, è stata inviata la scorsa settimana alla presidenza svedese del Consiglio dell’UE, che sta raccogliendo feedback prima di presentare una nuova proposta di compromesso per la fine del mese. Nello specifico, la Germania ha chiesto chiarezza su una serie di argomenti tra cui l’interazione del Data Act con il regolamento generale sulla protezione dei dati dell’UE, le condizioni legali per la condivisione e il trasferimento dei dati e i tempi di passaggio al cloud. Per Berlino, un punto centrale sono le contraddizioni, le incoerenze e sovrapposizioni tra la proposta di Data Act e il Regolamento generale sulla protezione dei dati per cui il governo tedesco chiede di rendere esplicito che tutti i dati personali ottenuti tramite il Data Act debbano essere gestiti in conformità con il GDPR.

La politica della Cina sulle Big Tech diventa più chiara. O almeno così sembra, vista da Singapore. Dopo anni di politiche repressive nei confronti dei giganti tecnologici, le incertezze normative stanno per svanire e la strada per gli investitori diffidenti sembra più semplice. Così si è espresso Jeffrey Jaensubhakij, Chief Investment Officer del fondo sovrano GIC, nel corso di un panel al World Economic Forum di Davos. Il commento di Jaensubhakij arriva a margine delle dichiarazioni del vice premier cinese Liu He, che sembrano aver chiarito il quadro. Negli ultimi cinque anni, infatti, la Cina è passata da essere una fonte di profitto a un Paese quasi invisibile per via degli invadenti interventi del governo e delle restrizioni pandemiche. Ora, però, gli investitori mondiali stanno cercando di cambiare passo. E la Cina sembra essersi impegnata a rilanciare l’economia e ad accoglierli.

English translation

How does your city manage your digital data? With more and more data being produced every day in our cities, there is a growing need for socially responsible use of data-generated knowledge to improve decision-making and the efficiency of public services. Can your parked car stay parked because you have already paid the ticket? Do you want to report a busy area and its associated risks, the maintenance of a road or the nearest park? In many cases, local administrations make use of a series of algorithms that reduce the administrative burden and channel the requests/reports to the relevant departments (thus, more reliably and faster). Helsinki and Amsterdam have, however, gone further by striving to establish a standard for the transparent and ethical use of city government algorithms with the creation of an algorithm register. Thanks to this system, citizens will be able to access comprehensible and up-to-date information on how algorithms affect their lives and will be able to exercise their right to actually know about the systems that collect their data. “In this way,” said André Sobczak, Secretary General, Eurocities, “the two cities seek to offer a safeguard for people whose data can be used by algorithms and a validated model that other cities can use immediately, without having to invest additional resources themselves. Building on the work of Amsterdam and Helsinki, Eurocities Digital Forum Lab, for instance, has developed an open source data schema, which establishes a common method that any city can adopt when creating a registry of algorithms. Although artificial intelligence can be an important enabler for improving public services and supporting public policy-making, its application can raise ethical concerns. For instance, complex algorithms in automated systems trained on biased data may transpose biases to groups of citizens. Algorithm registries offer transparency regarding the development and implementation of algorithms and provide an important safeguard for the responsible use of AI. Based on the example of Helsinky and Amsterdam, other cities have also decided to go in the same direction: Barcelona, Bologna, the Brussels Capital Region, Eindhoven, Mannheim, Rotterdam and Sofia.

Germany’s position on the EU Data Act, the legislative initiative to regulate how data is accessed, shared and transmitted, was sent last week to the Swedish EU Council Presidency, which is gathering feedback before presenting a new compromise proposal by the end of the month. Specifically, Germany has asked for clarity on a number of topics including the Data Act’s interaction with the EU’s General Data Protection Regulation, the legal conditions for data sharing and transfer, and the timing of the move to the cloud. For Berlin, a central point of criticism are the contradictions and overlaps between the proposed Data Act and the General Data Protection Regulation, whereby the German government demands that it be made explicit that all personal data obtained through the Data Act must be handled in accordance with the GDPR.

China’s Big Tech policy is becoming clearer. Or so it seems, as seen from Singapore. After years of repressive policies towards tech giants, regulatory uncertainties are about to fade and the road for wary investors seems easier. So said Jeffrey Jaensubhakij, Chief Investment Officer of the sovereign wealth fund GIC, during a panel at the World Economic Forum in Davos. Jaensubhakij’s comment comes on the sidelines of statements by Chinese Vice Premier Liu He, which seem to have clarified the picture. Over the past five years, China has gone from being a source of profit to an almost invisible country due to intrusive government interventions and pandemic restrictions. Now, however, global investors are looking for a change of pace. And China seems to be committed to reviving the economy and welcoming them.