Su Striscia la notizia, “I ladri di voci che colpiscono su Internet: come difendersi?”

Marco Camisani Calzolari ieri, su Striscia la notizia ha portato in prima serata e reso mainstream una questione straordinariamente seria sulla quale gli addetti ai lavori si interrogano già da un po’.
Quella dei ladri di voci, che pescano a strascico online milioni di registrazioni della voce di chicchessia – per ora prevalentemente personaggi famosi – le analizzano, campionano, danno in pasto a algoritmi sempre più potenti e usano per far dire alle persone in questione quello che vogliono o quello che chi li paga vuole. Decine di problemi che questa pratica solleva da quelli di proprietà intellettuale a quelli di protezione dei dati personali.
Su questi ultimi, in una manciata di secondi, ho provato a dire la mia. Ma è una questione della quale dobbiamo continuare a parlare.
Frattanto grazie a MCC e Striscia per aver “alzato la palla”.

Guarda qui, il servizio di Striscia.

PRIVACY DAILY 67/2023

L’uso da parte della Polizia israeliana della tecnologia Pegasus per l’hacking dei telefoni cellulari è un esempio di come la riforma giudiziaria proposta potrebbe portare a violazioni della privacy. Lo ha dichiarato il vice procuratore generale Amit Merari davanti alla Knesset. In una sessione voluta da alcuni deputati dell’opposizione, si è discusso il rapporto sull’uso di questa tecnologia da parte della Polizia israeliana. I rischi di violazione della privacy erano stati sollevati dal giornale economico Calcalist più di un anno fa, sostenendo che la polizia aveva usato Pegasus per hackerare illegalmente i telefoni cellulari degli imputati in assenza di un ordine del magistrato. Il rapporto di Merari ha evidenziato l’infondatezza delle accuse, rivelando che, sebbene la legge in Israele sia in ritardo nella capacità di affrontare tecnologie avanzate come Pegasus, la polizia non ha mai agito senza un mandato. Il rapporto ha riconosciuto che in alcuni casi, la tecnologia “Ciphon” usata dalla polizia (meno avanzata di quella di Pegasus) ha raccolto automaticamente e sistematicamente informazioni dai telefoni cellulari andando spesso oltre i parametri stabiliti dalle ordinanze del tribunale. Ma ha anche rilevato come quasi nulla del materiale raccolto in questi casi sia mai stato poi utilizzato dalla polizia. Ha inoltre affermato che la polizia raramente ha spiegato in modo esauriente la portata dell’invasività della tecnologia utilizzata ai giudici, i quali pensavano di approvare qualcosa di simile alle intercettazioni. Merari ha quindi sottolineato la necessità che il processo di implementazione dei nuovi sistemi sia accompagnato da un’attenta sorveglianza da parte dei consulenti legali della polizia e dell’ufficio del procuratore generale. Sulla condotta di Merari e della polizia, come pure sulla gestione della questione da parte dei tribunali è stata chiesta l’istituzione di una commissione d’inchiesta. Resta il fatto, rivelato da un aggiornamento pubblicato dallo stesso Merari, che solo sei delle oltre 2.700 richieste di mandato ai tribunali per violare i telefoni cellulari degli imputati sono state respinte.

Le aziende possono fidarsi dell’IA generativa? Alcuni studi, riportati dal World Economic Forum, hanno dimostrato che, da un punto di vista psicologico, i robot e i loro risultati sarebbero da considerare più credibili delle persone. I sostenitori dell’IA generativa affermano che le informazioni prodotte dalle macchine, essendo sviluppate per essere oggettive e basandosi su dati e algoritmi matematici piuttosto che sui giudizi soggettivi delle persone, non sarebbero vulnerabili ai pregiudizi umani. Inoltre, secondo i ricercatori della Penn State, i clienti attribuirebbero alle decisioni delle macchine una maggiore validità, fattore che potrebbe condurre le aziende a sfruttare questo aspetto a loro vantaggio, soprattutto quando si tratta di informazioni finanziarie o personali dei clienti. Stando a questa ricerca, gli individui avrebbero una forte fiducia nella tecnologia, specialmente per quanto riguarda il rispetto della privacy degli interessati e alla mancanza di eventuali doppi fini sottesi alle decisioni. Le aziende dovrebbero quindi creare strategie per sostenere questa percezione dei contenuti prodotti dall’IA da parte dei clienti. Eppure, il World Economic Forum ricorda anche che non bisogna affidarsi esclusivamente all’IA generativa. Piuttosto, queste tecnologie, che hanno accelerato la creazione di contenuti e creato nuovi tipi di macchine automatiche per la generazione di contenuti, devono essere utilizzati come strumenti di assistenza.  Le aziende possono, peraltro, creare una serie di piani per migliorare l’affidabilità dell’IA generativa. L’utilizzo o la creazione di piattaforme comunicative, in cui il personale dell’azienda – ad esempio, gli agenti di marketing – possa offrire i propri feedback e input per integrare e modificare i materiali prodotti dall’IA, potrebbe essere un passo importante verso una maggiore affidabilità. Le aziende possono utilizzare pratiche di gestione agile dei progetti simili a quelle utilizzate nello sviluppo del software.

In Spagna, si discute sull’impiego del riconoscimento facciale. Sul quotidiano La Vanguardia, campeggia la seguente domanda: per monitorare poche persone, è necessario trattare i dati di milioni di cittadini? Aena ha già testato questa tecnologia negli aeroporti, Renfe vorrebbe applicare il riconoscimento facciale per identificare i “graffitari” o i passeggeri sprovvisti di biglietto, così come Transports Metropilitans de Barcelona nelle sue stazioni della metropolitana. Anche gli stadi di calcio vorrebbero sperimentare questa tecnologia per impedire l’ingresso agli spettatori a cui è vietato assistere alle partite, e alcune aziende private, soprattutto la grande distribuzione, desiderano utilizzare questi sistemi per individuare i recidivi. Ma non sempre tutto va liscio, così come testimoniato dal caso di Mercadona, società sanzionata per 2,5 milioni di euro dall’Agenzia spagnola per la protezione dei dati (AEPD) per aver installato un sistema di riconoscimento facciale nei suoi negozi. In questo quadro confuso, vi sono poche certezze. “Al momento”, afferma Leonardo Núñez, avvocato esperto di nuove tecnologie, “ci troviamo in un limbo normativo e fino a quando la posizione del Comitato europeo non sarà definitiva, è improbabile che l’AEPD possa chiarire ulteriormente la sua posizione”. L’avvertimento alle aziende iberiche emerge chiaramente tra le righe: non bisogna fare investimenti e tanto meno di installare questa tecnologia senza autorizzazione.

English version

The Israeli police’s use of the NSO’s Pegasus mobile phone hacking technology is an example of how the proposed judicial reform could lead to privacy violations. This was stated by Deputy Attorney General Amit Merari during a session of the Knesset. In a session called for by some opposition deputies, the report on the Israeli police’s use of this technology for hacking mobile phones was discussed. The risks of invasion of privacy had been raised by the business newspaper Calcalist more than a year ago, claiming that the police had used Pegasus to illegally hack into defendants’ mobile phones in the absence of a magistrate’s order. Merari’s report highlighted the baselessness of the allegations, revealing that although the law in Israel lags behind in its ability to deal with advanced technologies such as Pegasus, the police have never acted without a warrant. The report acknowledged that in some cases, the ‘Ciphon’ technology used by the police (less advanced than Pegasus) automatically and systematically collected information from mobile phones, often going beyond the parameters set by court orders. But he also noted that almost none of the material collected in these cases was ever used by the police. He also stated that the police rarely fully explained the extent of the invasiveness of the technology used to the judges, who thought they were approving something similar to wiretapping. Merari therefore emphasised the need for the implementation process of the new systems to be accompanied by careful oversight by police legal advisors and the attorney general’s office. On the conduct of Merari and the police, as well as on the courts’ handling of the matter, a commission of enquiry was called for. The fact remains, revealed by an update published by Merari himself, that only six out of more than 2,700 requests for warrants to the courts to hack into defendants’ mobile phones have been rejected.

Can companies trust generative AI? Some studies, reported by the World Economic Forum, have shown that, from a psychological point of view, robots and their results should be considered more credible than people. Proponents of generative AI claim that the information produced by machines, being developed to be objective and based on mathematical data and algorithms rather than people’s subjective judgements, would not be vulnerable to human biases. Moreover, according to the Penn State researchers, customers would attribute greater validity to machine decisions, a factor that could lead companies to exploit this to their advantage, especially when it comes to customers’ financial or personal information. According to this research, individuals would have a strong trust in technology, especially when it comes to respecting the privacy of those involved and the lack of possible ulterior motives behind decisions. Companies should therefore create strategies to support this perception of AI-produced content by customers. Yet, the World Economic Forum also reminds that one should not rely solely on generative AI. Rather, these technologies, which have accelerated content creation and created new types of automated content generation machines, should be used as support tools. Companies can, however, create a number of plans to improve the reliability of generative AI. The use or creation of communication platforms where company personnel – e.g. marketing agents – can offer their feedback and input to supplement and modify the materials produced by AI could be an important step towards greater reliability. Companies can use agile project management practices similar to those used in software development.

In Spain, the use of facial recognition is being debated. In the daily newspaper La Vanguardia, the following question stands out: to monitor a few people, is it necessary to process the data of millions of citizens? Aena has already tested this technology in airports, Renfe would like to apply facial recognition to identify ‘graffiti artists’ or ticketless passengers, as would Transports Metropilitans de Barcelona in its metro stations. Football stadiums would also like to experiment with this technology to prevent entry to spectators banned from attending matches, and some private companies, especially large retailers, would like to use these systems to identify repeat offenders. But everything does not always go smoothly, as witnessed by the case of Mercadona, a company fined EUR 2.5 million by the Spanish Data Protection Agency (AEPD) for installing a facial recognition system in its shops. In this confusing picture, there are few certainties. “At the moment,” says Leonardo Núñez, a lawyer who is an expert in new technologies, “we are in a regulatory limbo and until the position of the European Committee is final, it is unlikely that the AEPD will clarify its position further.” The warning to Iberian companies is clear between the lines: do not invest, let alone install this technology without authorisation.

“La rivoluzione informatica”, conoscenza, consapevolezza e potere nella società digitale. Il volume di Enrico Nardelli per Edizioni Themis

“La rivoluzione informatica” di Enrico Nardelli per Edizioni Themis è un libro che ha iniziato a prendere forma, come evidenzia l’autore, nel 2013, man mano che cresceva nel tempo la necessità di insegnare l’informatica. L’obiettivo del testo – che parte dai concetti base di informatica descrivendo poi l’evoluzione dell’insegnamento dell’informatica nel panorama nazionale e internazionale, tracciando l’impatto sociale dell’informatica fornendo una visione politica (nel senso aristotelico del termine) della società digitale – è quello di far comprendere l’influenza della tecnologia digitale sulle persone e sulla società in generale e cosa si dovrebbe fare e si sta facendo rispetto ad essa. Secondo l’Autore, professore ordinario di Informatica presso l’Università di “Tor Vergata”, è necessario che l’informatica come scienza sia insegna a scuola fin dai primi anni, convinto della come la scienza informatica sia componente costitutiva dell’istruzione di qualunque cittadino. L’autore si sofferma anche sulle conseguenze che la pandemia da Covid 19 ha impresso ai comportamenti sociali di gran parte dell’Umanità e sul ruolo che le tecnologie digitali hanno giocato nel tenere sotto controllo il contagio. Accanto all’attenta analisi dell’evoluzione e del ruolo dell’informatica come dell’importanza per il sistema Paese di dotarsi di della capacità di controllare e governare le infrastrutture e i dati digitali, l’Autore disegna anche delle soluzioni per attuare uno sviluppo più equilibrato della società digitale ricordando ad esempio la via del “cooperativismo delle piattaforme”, espressione resa popolare da Trebor Sholz, professore dell’Università The News School di New Yord dove dirige l’Istitutto per l’Economia Digitale Cooperativa e il Consorzio per il cooperativismo delle Piattaforme. Una locuzione quella di “cooperativismo delle piattaforme” utilizzata anche in contrapposizione a “piattaforme estrattive” cioè quei sistemi attarverso cui le big tech estraggono, “il profitto dalle interazioni tra utenti finali e lavoratori che attraverso di essere sono messi in contatto”. Un approccio questo tramite il quale la proprietà e la guida del processo di sviluppo di una piattaforma digitale – continua l’Autore richiamando Trebors – “vengono attuate in modo coordinato da parte dei loro sviluppatori informatici e della forza lavoro che attraverso di essere si relazione all’utenza finale”. In tale modo, si possono offrire servizi convenienti per gli utenti, sfruttando la relazione fornitore cliente ed anche il vantaggio sociale di evitare lo sfruttamento della forza lavoro e il guadagno nella mani di pochissimi. L’Autore osserva infine come un tema non secondario sia quello del rispetto delle comunità locali, tema trascurato nella crescita delle piattaforme ma elemento fondamentale invece per il nostro benessere e per uno sviluppo economico e sociale equilibrato.

Le iniziative delle altre Autorità

La CNIL lancia il “club della conformità” dedicato ai veicoli connessi

La CNIL sta per istituire un “club della conformità” dedicato agli operatori dei veicoli connessi e della mobilità. Questo forum di dialogo privilegiato dovrebbe consentire scambi regolari e incoraggiare un’innovazione rispettosa della loro privacy.

Sono, infatti, numerosi i dati personali generati dagli utenti di auto, scooter, biciclette e altri mezzi di trasporto.

L’accesso a questi dati può essere una fonte di progresso per molti scopi (sicurezza, comfort, manutenzione, ecc.), in particolare per la fornitura di servizi innovativi o nel contesto delle politiche pubbliche sulla mobilità.

Per giunta, questi dati (ad esempio, spostamenti o comportamenti di guida) rivelano ampie porzioni della vita privata degli interessati. Il loro utilizzo solleva quindi questioni fondamentali sulla protezione dei dati personali e sul rispetto dei diritti e delle libertà fondamentali.

La strategia della CNIL si incentra sulla creazione di un “club della conformità” per incoraggiare l’innovazione nel rispetto dei diritti e delle libertà.

In quest’ottica, l’Autorità auspica che le discussioni che si svolgeranno nell’ambito del “club della conformità” possano fornire al maggior numero possibile di attori strumenti pratici e operativi per promuovere un uso responsabile dei dati.

Per sostenere tutti gli operatori dei veicoli connessi e della mobilità (produttori, fornitori di apparecchiature, società di noleggio di veicoli, operatori di servizi di mobilità, ecc.), la CNIL sta creando un club di conformità dedicato alle loro attività. Basandosi sul modello dei “compliance club” già esistenti (nei settori assicurativo e bancario), dovrebbe permettere di instaurare un dialogo regolare con il settore su questioni identificate come prioritarie.

Questo forum di scambio e consultazione dovrebbe far emergere risposte concrete adatte alle sfide giuridiche, tecniche, sociali ed economiche. Questo approccio incoraggerà l’innovazione nel rispetto dei diritti e delle libertà fondamentali degli individui. La costituzione del club di conformità è la continuazione delle scelte adottate dalla CNIL già nel 2016, in consultazione con gli attori dell’industria automobilistica e le aziende di diversi settori (assicurazioni, telecomunicazioni, autorità pubbliche, ecc.), che ha portato alla pubblicazione di un pacchetto di conformità sui “veicoli connessi” nel 2017. Sul punto, si segnalano anche le Linee Guida adottate dall’EPDB nel 2021.

PRIVACY DAILY 66/2023

È dedicata al tema dei diritti del fanciullo dell’ambiente digitale la riunione annuale sui diritti dell’infanzia e dell’adolescenza del Consiglio dei diritti umani dell’ONU. Incentrata su “Sfide e opportunità per il pieno godimento dei diritti dei minori nell’ambiente digitale”, la prima parte della giornata è iniziata con uno scambio tra l’Alto Commissario per i diritti umani, Volker Türk e attivisti e difensori dei diritti dei minori provenienti da Colombia, Etiopia e India. In particolare, l’Alto Commissario ha sottolineato l’importanza di creare ambienti online che permettano ai bambini di interagire e svilupparsi in modo sicuro, liberi da abitudini online dannose e coinvolgenti o da incessanti e dannosi confronti tra pari. Ha menzionato i rischi per i bambini online, come il bullismo e le molestie. Türk ha inoltre sottolineato l’importanza di regolamentare la raccolta e l’uso dei dati dei bambini, nonché di investire nella formazione di genitori, insegnanti e bambini sulla sicurezza online. A livello giuridico, ha ricordato che il Comitato per i diritti del fanciullo ha adottato la sua Osservazione generale n. 25 nel 2021, che tratta specificamente dei “diritti dei bambini in relazione all’ambiente digitale” e fornisce indicazioni utili sull’equilibrio tra la gestione dei rischi su Internet e il godimento dei suoi benefici. Gli attivisti hanno poi parlato delle esigenze dei giovani in termini di accesso a Internet e di sicurezza online. In particolare, hanno sottolineato che le nuove tecnologie, come l’intelligenza artificiale, sono così avanzate che persino le autorità di regolamentazione hanno difficoltà a tenere traccia di come vengono raccolti i dati degli utenti. I giovani intervenuti ritengono che, oltre ad avere accesso a Internet, i ragazzi debbano anche imparare a usare la tecnologia in modo corretto per identificare quando è dannosa per loro; hanno raccomandato di mettere in atto meccanismi preventivi ben progettati per garantire il benessere dei bambini online. La giornata annuale è poi proseguita con una discussione concentrata  su “come rafforzare i quadri giuridici e politici per sostenere i diritti dei minori nell’ambiente digitale”. 

Nel Regno Unito, gli attivisti della privacy si schierano con Whatsapp sull’Online Safety Bill. In particolare, affermano di apprezzare la scelta della società di non fare marcia indietro nella sua opposizione alle proposte del governo britannico che potrebbero consentire la scansione dei messaggi criptati. La notizia arriva dopo che il responsabile di WhatsApp ha dichiarato che preferirebbe che agli utenti britannici venisse impedito l’uso del servizio piuttosto che permettere al governo di impattare sulla loro privacy. “Non ridurremo la sicurezza di WhatsApp”, ha detto Will Cathcart, “non lo abbiamo mai fatto e abbiamo accettato di essere bloccati in altre parti del mondo”. WhatsApp, come altre applicazioni tra cui Signal (che pure ha mosso forti critiche alla riforma), utilizzano la crittografia end-to-end in modo che nessuno al di fuori di una chat possa vedere i messaggi inviati, nemmeno il fornitore della piattaforma stessa. L’Online Safety Bill, una proposta legislativa di ampio respiro che mira a regolamentare i contenuti di Internet per mantenere la sicurezza delle persone, conferirebbe all’ente britannico di regolazione dei media (Ofcom) il potere di chiedere a tali piattaforme di identificare e rimuovere determinati contenuti (es. materiale pedopornografico). Se si rifiutano di adeguarsi, le aziende potrebbero incorrere in multe salate. La proposta di legge è tornata in parlamento alla fine dello scorso anno, dopo diversi ritardi, e gode del sostegno di alcune importanti associazioni di beneficenza, di attivisti per la sicurezza e, secondo i sondaggi, di un gran numero di adulti britannici. Ma le aziende tecnologiche hanno espresso il timore che il disegno di legge sia di portata troppo ampia e poco chiaro su ciò che sarà loro richiesto di censurare, mentre alcuni parlamentari hanno affermato che potrebbe avere un impatto sulla libertà di espressione.

In occasione delle elezioni, il governo nigeriano è stato richiamato al rispetto dei diritti digitali dei cittadini dalle associazioni attive nel settore. Il Digital Rights and Information Partnership (DRIP), un consorzio di organizzazioni, ha, infatti, esortato l’esecutivo federale ad abbracciare la trasparenza elettorale e a rispettare i diritti digitali dei nigeriani. Il portavoce del gruppo, Edozie Chukwuma, ha dichiarato che i nigeriani dovrebbero essere messi in condizione di votare con la certezza che i loro voti avranno un peso. Alla luce delle elezioni presidenziali e dell’Assemblea nazionale del 25 febbraio, il gruppo ha affermato che i nigeriani meritano di essere protetti contro le interferenze di cui si è parlato durante le elezioni presidenziali. “Internet ha le sue sfide uniche a causa del nostro dinamico panorama politico, come è stato evidente nelle elezioni appena concluse. La Commissione ha investito molto in tecnologia, come i sistemi BVAS e IReV, per garantire la trasparenza e la trasmissione diretta dei risultati elettorali dalle unità elettorali”, ha dichiarato Chukwuma. Tuttavia, ha osservato che i risultati delle unità elettorali sono stati trasmessi manualmente a causa di segnalazioni di interferenze esterne e problemi di connettività, che evidenziano le questioni relative alla protezione dei dati dei cittadini e della governance di Internet. Ha esortato il governo federale a salvaguardare lo spazio civico limitando le interruzioni illegali e garantendo la libertà di espressione e di riunione online per tutti i nigeriani. Chukwuma ha affermato che il Digital Rights and Freedom Bill (DRFB) all’esame dell’Assemblea nazionale, tra le altre cose, mira a vietare indebite interferenze con la privacy digitale dei cittadini nigeriani e a proteggere il diritto di riunione e associazione pacifica di tutti i nigeriani attraverso i social network e le piattaforme.

English version

The UN Human Rights Council’s annual meeting on the rights of the child in the digital environment is dedicated to the theme of the rights of the child. Focusing on “Challenges and opportunities for the full enjoyment of children’s rights in the digital environment”, the first part of the day began with an exchange between the High Commissioner for Human Rights, Volker Türk, and child rights activists and defenders from Colombia, Ethiopia and India. In particular, the High Commissioner emphasised the importance of creating online environments that allow children to interact and develop safely, free from harmful and addictive online habits or incessant and damaging peer comparisons. He mentioned the risks for children online, such as bullying and harassment. Türk also stressed the importance of regulating the collection and use of children’s data, as well as investing in training for parents, teachers and children on online safety. At the legal level, he recalled that the Committee on the Rights of the Child adopted its General Comment No. 25 in 2021, which specifically addresses ‘children’s rights in relation to the digital environment’ and provides useful guidance on the balance between managing risks on the Internet and enjoying its benefits. The activists then spoke about the needs of young people in terms of Internet access and online safety. In particular, they pointed out that new technologies, such as artificial intelligence, are so advanced that even regulators find it difficult to keep track of how user data are collected. The youth speakers believed that, in addition to having access to the Internet, children should also learn how to use technology properly to identify when it is harmful to them; they recommended putting in place well-designed preventive mechanisms to ensure the well-being of children online. The annual day continued with a discussion focused on ‘how to strengthen legal and policy frameworks to uphold children’s rights in the digital environment’.

In the UK, privacy activists are siding with Whatsapp on the Online Safety Bill. In particular, they say they welcome the company’s decision not to back down in its opposition to the UK government’s proposals that could allow the scanning of encrypted messages. The news comes after the head of WhatsApp stated that he would rather UK users be prevented from using the service than allow the government to impact their privacy. “We’re not going to reduce the security of WhatsApp,” said Will Cathcart, “we’ve never done that and we’ve accepted being blocked in other parts of the world.” WhatsApp, like other apps including Signal (which has also been highly critical of the reform), uses end-to-end encryption so that no one outside a chat can see the messages sent, not even the platform provider itself. The Online Safety Bill, a far-reaching legislative proposal that aims to regulate Internet content to keep people safe, would give the UK media regulator (Ofcom) the power to require such platforms to identify and remove certain content (e.g. child pornography). If they refuse to comply, companies could face heavy fines. The bill returned to parliament late last year, after several delays, and has the support of some major charities, security activists and, according to polls, a large number of British adults. But technology companies have expressed fears that the bill is too broad in scope and unclear on what they will be required to censor, while some MPs have said it could impact on freedom of expression.

On the occasion of the elections, the Nigerian government was urged to respect the digital rights of citizens by associations active in the field. The Digital Rights and Information Partnership (DRIP), a consortium of organisations, urged the federal executive to embrace electoral transparency and respect the digital rights of Nigerians. The group’s spokesperson, Edozie Chukwuma, said Nigerians should be enabled to vote with the confidence that their votes will count. In light of the presidential and National Assembly elections on 25 February, the group said Nigerians deserve to be protected against the interference that was talked about during the presidential election. “The Internet has its own unique challenges because of our dynamic political landscape, as was evident in the just concluded elections. The Commission has invested heavily in technology, such as BVAS and IReV systems, to ensure transparency and direct transmission of election results from polling units,” Chukwuma said. However, he noted that results from polling units were being transmitted manually due to reports of external interference and connectivity issues, which highlight issues of citizens’ data protection and Internet governance. He urged the Federal Government to safeguard the civic space by limiting illegal disruptions and ensuring freedom of expression and assembly online for all Nigerians. Chukwuma said the Digital Rights and Freedom Bill (DRFB) before the National Assembly, among other things, aims to prohibit undue interference with the digital privacy of Nigerian citizens and protect the right of peaceful assembly and association of all Nigerians through social networks and platforms.

13 marzo, webinar “Le tutele del segnalante e del segnalato. Le implicazioni privacy sul whistleblowing”

Le implicazioni privacy sul tema del whistleblowing sono innumerevoli poiché le segnalazioni comportano un trattamento di dati personali di segnalanti, di segnalati ed di eventuali terzi interessati. Ne parliamo domani dalle ore 17.45 al webinar “Le tutele del segnalante e del segnalato. Le implicazioni privacy sul whistleblowing” organizzato da My Governance – Zucchetti. Per info e partecipare qui.

PRIVACY DAILY 65/2023

La Corte Suprema del Giappone ha stabilito che l’istituzione del sistema di identificazione individuale “My Number” non contrasta con la Costituzione. È stato, infatti, respinto il ricorso presentato da coloro che chiedevano l’abolizione del sistema. La legge sull’uso dei numeri per identificare un individuo specifico nelle procedure amministrative è stata istituita nel maggio 2013 e da gennaio 2016 sono stati assegnati numeri identificativi di 12 cifre a tutte le persone che vivono in Giappone. My Number integra la gestione delle informazioni relative alla sicurezza sociale, alle tasse e ad altre procedure. I ricorrenti avevano presentato una serie di azioni legali per chiedere la sospensione del sistema My Number presso otto tribunali distrettuali a livello nazionale dal dicembre 2015, prima dell’implementazione del sistema. Secondo quanto sostenuto dai ricorrenti, poiché nel sistema sono registrate informazioni altamente riservate, tra cui i pagamenti delle tasse e l’eventuale presenza di familiari a carico, l’utilizzo di tali informazioni da parte degli organi amministrativi viola il diritto al controllo in capo agli individui e, soprattutto, la loro privacy. In primo grado, gli otto tribunali distrettuali aditi hanno che il sistema My Number non fosse in contrasto con la Costituzione, sottolineando che “non possono essere confermati pericoli specifici, come la raccolta del My Number che si discosta dalla gamma di scopi legittimi e la fuga di notizie sul My Number”. Per quanto riguarda il secondo grado di giudizio, tutte e cinque le Alte corti che hanno conosciuto il caso in appello hanno appoggiato le sentenze di primo grado. La questione è così giunta dinanzi alla Corte Suprema che ha sostanzialmente confermato quanto stabilito nei precedenti gradi di giudizio, nelle cause incardinate originariamente presso i tribunali distrettuali di Sendai, Nagoya e Fukuoka (tre delle otto in totale).

Cerebral ha rivelato di aver condiviso le informazioni sanitarie private di oltre 3,1 milioni di pazienti negli Stati Uniti con inserzionisti e giganti dei social media come Facebook, Google e TikTok. La startup di telemedicina, diventata popolare durante la pandemia, ha rivelato la falla nella sicurezza in un documento depositato presso il governo federale, in cui si afferma che ha condiviso le informazioni personali e sanitarie dei pazienti che hanno utilizzato l’app per cercare una terapia o altri servizi di salute mentale. Cerebral ha dichiarato di aver raccolto e condiviso nomi, numeri di telefono, indirizzi e-mail, date di nascita, indirizzi IP e altri dati demografici, oltre ai dati raccolti da chi abbia effettuato l’autovalutazione online sulla salute mentale, che potrebbero includere anche i servizi selezionati dal paziente, le risposte alla valutazione e altre informazioni sanitarie associate. Per gli utenti che hanno anche acquistato un piano di abbonamento, le informazioni divulgate possono ricomprendere anche il tipo di abbonamento, le date degli appuntamenti e altre informazioni di prenotazione, il trattamento e altre informazioni cliniche, le informazioni sulle prestazioni dell’assicurazione sanitaria/farmacia. Cerebral condivideva i dati dei pazienti con i giganti tecnologici in tempo reale attraverso tracker e altri codici di raccolta dati che la startup inseriva nelle sue app. Cerebral ha dichiarato nella sua comunicazione ai clienti – sepolta in fondo al suo sito web – che la raccolta e la condivisione dei dati sono in corso dall’ottobre 2019, quando la startup è stata fondata e che il codice di tracciamento è stato ora rimosso dalle sue app. Sebbene non siano stati menzionati, i giganti tecnologici non hanno l’obbligo di cancellare i dati che Cerebral ha condiviso con loro. Secondo il Dipartimento della Salute e dei Servizi Umani degli Stati Uniti, la violazione dei dati di Cerebral è la seconda più grande violazione dei dati sanitari nel 2023.

“I cittadini possono essere certi che in nessuna circostanza, nessuno scenario, nessuna ipotesi, la loro identità sarà compromessa. C’è un impegno da parte nostra a proteggere l’identità dell’elettore. Vogliamo trasmettere fiducia e sicurezza”, ha affermato Jesús María Casal, presidente della Commissione nazionale venezuelana delle primarie (Cndp), in rappresentanza dei principali partiti del fronte anti governativo al termine dell’incontro con il Consiglio nazionale elettorale (Cne) l’organo cui compete l’organizzazione del voto nel Paese. Per le opposizioni, chiamate a scegliere il candidato alle presidenziali del 2024 che avrà il compito di sconfiggere l’attuale Presidente del Venezuela Nicolas Maduro, il Consiglio nazionale elettorale è diretta emanazione del Governo e rappresenta una vera e propria interferenza in un processo democratico che dovrebbe essere di esclusiva competenza dell’opposizione. La reputazione del CNE è in dubbio da anni, soprattutto dopo che Smartmatic, la società incaricata dell’organizzazione del voto per l’Assemblea costituente del 2017, ha denunciato la manipolazione dei risultati. Oltre a quelle per l’Assemblea costituente, l’opposizione venezuelana non ha riconosciuto neanche le elezioni presidenziali del 2018 in cui Maduro è stato rieletto e le elezioni legislative del 2020, considerate fraudolente. Il timore delle opposizioni è che l’organo del Governo Maduro possa boicottare la scelta delle opposizioni e far saltare le stesse primarie. Per le elezioni primarie fissate ad ottobre, diversi leader dell’opposizione hanno confermato la loro candidatura: Juan Guaidó, che per quattro anni è stato riconosciuto come presidente incaricato del Venezuela dagli Stati Uniti e da altri cinquanta paesi; il due volte candidato presidenziale Henrique Capriles e María Corina Machado, leader dell’ala più radicale dell’opposizione.

English version

The Supreme Court of Japan ruled that the establishment of the ‘My Number’ individual identification system does not contravene the Constitution. The appeal filed by those seeking the abolition of the system was rejected. The law on the use of numbers to identify a specific individual in administrative procedures was established in May 2013 and since January 2016, 12-digit identification numbers have been assigned to all people living in Japan. My Number integrates the management of information related to social security, taxes and other procedures. The plaintiffs had filed a series of lawsuits seeking the suspension of the My Number system in eight district courts nationwide since December 2015, prior to the implementation of the system. According to the plaintiffs, since highly confidential information is recorded in the system, including tax payments and the possible presence of dependents, the use of such information by administrative bodies violates the right to control in the hands of individuals and, more importantly, their privacy. In the first instance, the eight district courts hearing the case held that the My Number system did not contravene the Constitution, emphasising that ‘specific dangers, such as the collection of My Number deviating from the range of legitimate purposes and the leaking of My Number information, cannot be confirmed’. As for the second instance, all five High Courts that heard the case on appeal upheld the first instance rulings. Thus, the matter came before the Supreme Court, which essentially upheld what had been decided in the previous instances, in the cases originally filed in the district courts of Sendai, Nagoya and Fukuoka (three out of eight in total).

Cerebral revealed that it shared the private health information of more than 3.1 million patients in the US with advertisers and social media giants such as Facebook, Google and TikTok. The telemedicine startup, which became popular during the pandemic, revealed the security breach in a document filed with the federal government, which states that it shared the personal and health information of patients who used the app to seek therapy or other mental health services. Cerebral said it collected and shared names, phone numbers, email addresses, dates of birth, IP addresses, and other demographic data, as well as data collected from those who took the online mental health self-assessment, which could also include the services the patient selected, responses to the assessment, and other associated health information. For users who have also purchased a subscription plan, the information disclosed may also include the type of subscription, appointment dates and other booking information, treatment and other clinical information, and health insurance/pharmacy benefit information. Cerebral shared patient data with the tech giants in real time through trackers and other data collection codes that the start-up included in its apps. Cerebral stated in its customer communication – buried at the bottom of its website – that data collection and sharing has been ongoing since October 2019, when the startup was founded, and that the tracking code has now been removed from its apps. Although not mentioned, the tech giants are under no obligation to delete the data Cerebral has shared with them. According to the US Department of Health and Human Services, Cerebral’s data breach is the second largest health data breach in 2023.

“Citizens can be assured that under no circumstances, no scenario, no assumption, will their identity be compromised. There is a commitment on our part to protect the identity of the voter. We want to transmit confidence and security,’ said Jesús María Casal, president of the Venezuelan National Primary Commission (CNDP), representing the main parties of the anti-government front at the end of the meeting with the National Electoral Council (CNE), the body in charge of organising the vote in the country. For the oppositions, called upon to choose the candidate for the 2024 presidential elections who will have the task of defeating the current President of Venezuela Nicolas Maduro, the National Electoral Council is a direct emanation of the government and represents a real interference in a democratic process that should be the sole responsibility of the opposition. The reputation of the CNE has been in doubt for years, especially after Smartmatic, the company in charge of organising the vote for the 2017 Constituent Assembly, denounced the manipulation of the results. In addition to those for the Constituent Assembly, the Venezuelan opposition also failed to recognise the 2018 presidential elections in which Maduro was re-elected and the 2020 legislative elections, which were considered fraudulent. The opposition’s fear is that the Maduro government body will boycott the opposition’s choice and blow up the primaries themselves. For the primary elections set for October, several opposition leaders have confirmed their candidature: Juan Guaidó, who for four years has been recognised as president in charge of Venezuela by the United States and fifty other countries; two-time presidential candidate Henrique Capriles; and María Corina Machado, leader of the most radical wing of the opposition.

Diritti degli interessati: il datore di lavoro deve rispondere alle richieste di accesso dei dipendenti

Nuovo appuntamento con la rubrica #iprovvedimentispiegatisemplice su Agenda Digitale. In questo numero parliamo del diritto di accesso ai propri dati personali, una delle più importanti espressioni del diritto alla privacy.