PRIVACYDAILY

N. 175/2023

LE TRE NEWS DI OGGI:

  • FINANCE WATCH CHIEDE PIU’ PRIVACY NELL’USO DELL’EURO DIGITALE 
  • INSTAGRAM E FACEBOOK A PAGAMENTO PER NAVIGARE SENZA PUBBLICITA’ 
  • SCUOLA MATERNA ACCUSATA DI VIOLAZIONE DEI DATI A SEGUITO DI UN CASO DI PEDOFILIA

La lobby dei consumatori Finance Watch ha dichiarato martedì che sono necessarie misure di tutela della privacy più severe per l’utilizzo dell’euro digitale online, nell’ultimo tentativo di far fronte alle crescenti preoccupazioni del “Grande Fratello” da parte dei responsabili politici.La Banca Centrale Europea dovrà pronunciarsi questo mese sull’eventuale introduzione dell’euro digitale, una delle tante banche centrali del mondo, tra cui la Federal Reserve e la Banca d’Inghilterra, che cercano di tenere il passo con i progressi tecnologici nel settore dei pagamenti.La Commissione europea ha proposto una bozza di legge che darebbe un supporto legale all’euro digitale, ma i critici temono che mancherà l’anonimato dell’uso del contante e soppianterà il denaro contante. Finance Watch ha sostenuto in un documento politico di martedì che un euro digitale, garantito da adeguate misure di protezione della privacy e dei dati, potrebbe ridurre la dipendenza dei cittadini europei da un piccolo numero di società di pagamento dominanti e di operatori di piattaforme Big Tech, e impedire un’ulteriore concentrazione del mercato.Finance Watch ha dichiarato di accettare che si debbano fare alcune eccezioni per garantire che l’euro digitale non venga utilizzato per il riciclaggio di denaro, rendendo difficile l’anonimato completo dei pagamenti digitali, simile a quello del contante. Tuttavia, così come è stata redatta, la proposta di legge dell’UE offre livelli più elevati di privacy per l’uso offline di un euro digitale memorizzato in un “portafoglio” del cliente, ha affermato Finance Watch.”Se da un lato l’approccio proposto per le transazioni offline va nella direzione di offrire una privacy simile a quella del contante, dall’altro un livello più elevato di privacy e protezione dei dati dovrebbe essere applicato anche alle transazioni online di piccolo importo”, ha dichiarato Finance Watch.Il mese scorso il responsabile dei servizi finanziari dell’UE, Mairead McGuinness, ha dichiarato che la bozza di legge, ora in fase di approvazione da parte degli Stati dell’UE e del Parlamento europeo, non dovrebbe essere affrettata. La Banca d’Inghilterra ha dichiarato che è necessaria una “conversazione nazionale” per placare i timori dell’opinione pubblica che una versione digitale della sterlina permetta al governo di spiare i cittadini.

Meta Platforms sta studiando un piano a pagamento per gli utenti nell’Unione Europea per un costo fino a 14 dollari per accedere alle versioni senza pubblicità di Instagram o Facebook o accettare annunci personalizzati per le versioni gratuite, ha riferito lunedì il Wall Street Journal. Secondo il piano, Meta addebiterebbe circa 10 euro (10,46 dollari) al mese per un account Facebook o Instagram, e circa 6 euro per ogni account aggiuntivo collegato. Sui dispositivi mobili, il prezzo per un singolo account salirebbe a circa 13 euro perché Meta terrà conto delle commissioni addebitate dagli app store di Apple e Google.Meta è stata multata per 390 milioni di euro all’inizio di quest’anno dal commissario irlandese per la privacy per aver violato gli obblighi di trasparenza e aver adottato una base giuridica non corretta nel trattamento dei dati personali degli utenti ai fini pubblicitari.Un portavoce di Meta ha affermato al Journal che la società crede in “servizi gratuiti supportati da annunci personalizzati” ma sta esplorando “opzioni per garantire il rispetto dei requisiti normativi in evoluzione”. Secondo le indiscrezioni del Wsj, Meta ha detto alle autorità di regolamentazione europee che spera di implementare il piano senza pubblicità, che chiama abbonamento senza pubblicità (Sna), nei prossimi mesi per gli utenti in Europa.L’ipotesi di un abbonamento per Instagram e Facebook per gli utenti Ue era già circolata qualche settimana fa sul New York Times, ma non c’erano le cifre. Anche Elon Musk nelle scorse settimane ha prospettato la possibilità di introdurre abbonamenti per X-Twitter ma allo scopo di ridurre la proliferazione dei bot, i profili automatici.

L’operatore di una scuola materna di Tokyo è sotto esame per le sue inadeguate procedure di tutela della privacy, dopo l’arresto di due ex insegnanti sospettati di aver condiviso online informazioni personali di studenti e foto scattate sotto le gonne di bambine.Sosho Mori, 24 anni, è sospettata di aver filmato sotto le gonne bambine di 7 anni e di aver condiviso le immagini con un gruppo di chat online di pedofili tra maggio e agosto. Si ritiene che Narumi Nakamura, 26 anni, abbia aiutato Mori nel crimine.Non è ancora chiaro quante studentesse possano essere state abusate, poiché le indagini sono ancora in corso.Oltre a Mori, il Dipartimento di Polizia Metropolitana ha deferito ai pubblici ministeri anche l’operatore, Yotsuya Otsuka Inc. per sospetta violazione della legge sulla protezione dei dati personali.Il caso ha evidenziato la mancanza di protezione della privacy presso la principale catena di scuole di preparazione agli esami e ha sollevato gravi preoccupazioni tra gli studenti e le loro famiglie.Tra i dati personali che Mori ha condiviso nel gruppo di chat ci sono anche i nomi degli studenti, gli indirizzi e i numeri di telefono dei loro genitori.Fonti investigative hanno anche affermato che Mori ha inserito nei post commenti che incoraggiavano altri a fare del male fisico agli studenti. La privacy degli studenti è stata violata dopo che Mori ha abusato della sua posizione e ha avuto accesso al database dei clienti del suo datore di lavoro, che comprendeva le informazioni personali degli studenti.A Mori e ad altri insegnanti autorizzati era stato consentito l’accesso al database, che conteneva i dati sensibili degli studenti appartenenti alle loro filiali.Dopo questo episodio, l’accesso al database è stato limitato ai direttori delle filiali e a poche altre persone, secondo quanto dichiarato dall’operatore, che gestisce più di 30 filiali a Tokyo e nelle prefetture limitrofe.Yotsuya Otsuka ha riconosciuto che non erano state adottate misure per garantire che tutti i dipendenti comprendessero la politica di sicurezza delle informazioni dell’azienda.Mori ha dichiarato di aver prestato poca attenzione alla formazione biennale sulla sicurezza dei dati che riceveva in azienda.

English version

  • CONSUMER FINANCE GROUP SEEKS MORE PRIVACY IN DIGITAL EURO USE
  • INSTAGRAM AND FACEBOOK TO PAY TO NAVIGATE WITHOUT ADVERTISING
  • CHILDREN’S SCHOOL ACCUSED OF DATA BREACH FOLLOWING PAEDOPHILIA CASE

Tougher privacy safeguards are needed for using a digital euro online, consumer lobby Finance Watch said on Tuesday, in the latest sign of mounting “Big Brother” concerns policymakers are having to confront.The European Central Bank is due this month to say if it will push ahead with a digital euro, one of many central banks across the world, including the Federal Reserve and Bank of England, seeking to keep ahead of technological advances in payments.The European Union’s executive European Commission has proposed a draft law that would give legal underpinning to a digital euro, but critics worry it will lack the anonymity of using cash and supplant cash.Finance Watch said in a policy paper on Tuesday that a digital euro, protected by adequate privacy and data protection measures, could reduce the dependency of European citizens on a small number of dominant payment firms and Big Tech platform operators, and prevent further market concentration.Finance Watch said it accepted that some concessions would have to be made to ensure a digital euro is not used for money-laundering, making full, cash-like anonymity of digital payments difficult to achieve.Nevertheless, as drafted, the proposed EU law gives higher levels of privacy to offline use of a digital euro stored in a customers “wallet”, Finance Watch said.”While the proposed approach to offline transactions goes a long way towards offering cash-like privacy, a higher level of privacy and data protection should also be applied to small, low-value online transactions,” Finance Watch said.EU financial services chief Mairead McGuinness said last month that the draft law, now being approved by EU states and the European Parliament, should not be rushed.The Bank of England has said a “national conversation” is needed to assuage public fears that a digital version of the pound would allow government to spy on people.

Meta Platforms is studying a pay-as-you-go plan for users in the European Union for up to $14 to access ad-free versions of Instagram or Facebook or accept customised ads for the free versions, the Wall Street Journal reported on Monday.Under the plan, Meta would charge about 10 euros ($10.46) per month for a Facebook or Instagram account, and about 6 euros for each additional linked account. On mobile devices, the price for a single account would rise to about 13 euros because Meta would take into account the fees charged by Apple and Google’s app stores.Meta was fined 390 million euros earlier this year by the Irish Privacy Commissioner for breaching transparency obligations and adopting an incorrect legal basis in the processing of users’ personal data for advertising purposes.A Meta spokesperson told the Journal that the company believes in ‘free services supported by personalised ads’ but is exploring ‘options to ensure compliance with evolving regulatory requirements’. According to Wsj rumours, Meta has told European regulators that it hopes to implement the ad-free plan, which it calls ad-free subscription (Sna), in the coming months for users in Europe.The hypothesis of a subscription for Instagram and Facebook for EU users had already circulated a few weeks ago in the New York Times, but there were no figures. Even Elon Musk in recent weeks has raised the possibility of introducing subscriptions for X-Twitter, but with the aim of reducing the proliferation of bots, the automatic profiles.

The operator of a Tokyo kindergarten is under scrutiny for its inadequate privacy procedures, following the arrest of two former teachers suspected of sharing personal information of students and photos taken under the skirts of little girls online.Sosho Mori, 24, is suspected of filming 7-year-old girls under their skirts and sharing the images with an online chat group of paedophiles between May and August. Narumi Nakamura, 26, is believed to have aided Mori in the crime.It is not yet clear how many schoolgirls may have been abused, as the investigation is still ongoing.In addition to Mori, the Metropolitan Police Department also referred the operator, Yotsuya Otsuka Inc. to prosecutors on suspicion of violating the Personal Data Protection Act. The case highlighted the lack of privacy protection at the leading chain of exam preparation schools and raised serious concerns among students and their families.Among the personal data Mori shared in the chat group were students’ names, addresses and phone numbers of their parents.Investigative sources also claimed that Mori included comments in the posts encouraging others to physically harm students. Students’ privacy was violated after Mori abused his position and gained access to his employer’s customer database, which included students’ personal information.Mori and other authorised teachers were allowed access to the database, which contained sensitive student data belonging totheir subsidiaries. After this incident, access to the database was restricted to branch managers and a few other people, according to the operator, who runs more than 30 branches in Tokyo and neighbouring prefectures.Yotsuya Otsuka acknowledged that no measures had been taken to ensure that all employees understood the company’s information security policy.Mori stated that he paid little attention to the biannual data security training he received at the company.

PRIVACYDAILY

N. 174/2023

LE TRE NEWS DI OGGI:

  • L’Assemblea legislativa dello Stato della California ha approvato delle misure legislative volte a rafforzare la privacy per gli automobilisti. Il Senate Bill 296 richiede che i conducenti siano informati quando le telecamere di bordo delle auto scattano fotografie o fanno registrazioni video dalle e vieta alle aziende produttrici dei veicoli di vendere tali dati a scopi pubblicitari. Questa legislazione rappresenta una sfida regolamentare significativa per i produttori di auto e potrebbe spingere altri Stati americani a introdurre leggi simili sulla privacy e la raccolta di dati degli automobilisti. Il passaggio di questa legge in California arriva in un momento di crescente preoccupazione per la privacy dei veicoli, anche per via dell’inchiesta della Mozilla Foundation. In particolare, le pratiche che si intendono contrastare sono la raccolta e la condivisione eccessive di dati da parte delle auto, nonché la mancanza di controllo da parte degli automobilisti sui propri dati e sulle modalità del loro utilizzo. Il Senate Bill 296 cerca di affrontare specificamente il rischio per la privacy derivante dalle scattate all’interno dei veicoli. La legge richiederebbe ai produttori di veicoli di informare i conducenti se sono presenti telecamere all’interno dell’auto e impedirebbe la vendita o l’uso di registrazioni fotografiche o video per scopi pubblicitari senza il consenso dell’utente. Violare queste norme può comportare multe fino a $2,500 per veicolo dotato di telecamera. Questa legislazione sembra unica nel suo genere nell’area specifica della privacy automobilistica, ma potrebbe essere ispiratrice di future regolamentazioni.
  • I timori per la cybersicurezza legati a TikTok sono “un’assurdità” e il governo irlandese sta cedendo alla “febbre” americana ed europea, ha dichiarato l’ambasciatore cinese in Irlanda. L’ambasciatore He Xiangdong ha affermato che, contrariamente a quanto ritenuto da alcuni politici, la Cina non ha mai utilizzato le apparecchiature di telecomunicazione cinesi per spiare altri Paesi. In un’intervista rilasciata all’Irish Examiner, ha inoltre affermato che i recenti commenti del Ministro irlandese Micheál Martin potrebbero “danneggiare” le relazioni commerciali ed economiche tra i due Paesi. Nell’aprile di quest’anno, a seguito di iniziative simili in Europa, Stati Uniti, Gran Bretagna e Canada, il Centro nazionale per la sicurezza informatica ha consigliato al personale dei dipartimenti e delle agenzie governative di rimuovere TikTok dai loro dispositivi ufficiali, dopo una dettagliata analisi dei rischi. A settembre, TikTok è stata multata per 345 milioni di euro dal Commissario irlandese per la protezione dei dati per non aver protetto la privacy dei bambini. Tik Tok si è rivolta all’Alta Corte per annullare tale decisione. Nel frattempo, le leggi sulla sicurezza informatica avviate dal ministro Ossian Smyth all’inizio di quest’anno hanno cercato di escludere i fornitori “ad alto rischio”, ma il linguaggio è stato successivamente attenuato per indicare i fornitori “rilevanti” anche a seguito dell’obiezione del signor He. Questi ha dichiarato che la paura per la cybersicurezza delle apparecchiature cinesi secondo lui è “un’assurdità” e che la cosiddetta minaccia alla cybersicurezza rappresentata da tali apparecchiature è stata “tremendamente esagerata”, perché qualsiasi problema relativo alla protezione dei dati è una questione tecnica che deve essere risolta dagli scienziati. Ha anche detto che individuare una società cinese è “totalmente ingiusto”, nonché una “tattica” utilizzata da alcuni Paesi, in particolare gli Stati Uniti, per cercare di ottenere un vantaggio competitivo sleale sulle società di proprietà cinese. La sua speranza è che il Governo continui a fornire un ambiente commerciale “equo e trasparente” alle aziende cinesi e che le tratti “allo stesso modo in cui si tratta qualsiasi altro investimento straniero”, sottolineando che gli scambi commerciali tra i due Paesi sono a favore dell’Irlanda e che gli oltre 5.000 studenti cinesi che vivono in Irlanda contribuiscono all’economia irlandese con circa 40.000 euro a testa ogni anno. In risposta ai commenti di Martin all’inizio di quest’anno, l’ambasciata ha affermato che le osservazioni “mettono a rischio un futuro più luminoso” per le relazioni tra i due Paesi, che la convinzione che la Cina sia impegnata nello spionaggio attraverso le aziende tecnologiche è “basata sulla disinformazione” e che spera “che con la comunicazione si possa avere una migliore comprensione reciproca su molte questioni, compresa questa”.
  • La Philippine Health Insurance Corporation (PhilHealth) ha chiesto la costituzione di una task force congiunta, compresi rappresentanti delle forze dell’ordine, al fine di esaminare il recente attacco informatico che ha bloccato i suoi sistemi. I funzionari dell’agenzia statale hanno affermato che la task force sarà composta, oltre che da membri della polizia nazionale filippina, da rappresentanti dell’ufficio investigativo nazionale, della commissione nazionale per la privacy e del dipartimento di tecnologia dell’informazione e della comunicazione. “Questa non è solo una preoccupazione di PhilHealth, ma riguarda l’intero Paese. E per questo motivo, abbiamo richiesto una task force congiunta per esaminare questo problema”, ha detto il direttore operativo di PhilHealth Eli Dino Santos durante un briefing lunedì. Santos ha affermato che il gruppo è inoltre pronto a procurarsi ulteriori sistemi di sicurezza informatica e infrastrutturale per rafforzare la protezione contro possibili attacchi simili. Nel frattempo, il capo di PhilHealth, Emmanuel Ledesma Jr., ha affermato che il gruppo è “completamente preparato” per l’attacco informatico e che la risposta e l’aiuto da parte delle agenzie interessate sono stati immediati.

English version

  • The California State Assembly passed legislation to strengthen privacy for motorists. Senate Bill 296 requires drivers to be informed when in-car cameras take photographs or make video recordings of them, and prohibits vehicle manufacturers from selling such data for advertising purposes. This legislation poses a significant regulatory challenge to car manufacturers and could spur other US states to introduce similar privacy and data collection laws for drivers. The passage of this law in California comes at a time of growing concern about vehicle privacy, not least because of the Mozilla Foundation investigation. Specifically, the practices intended to be countered are the excessive collection and sharing of data by cars, as well as the lack of control by motorists over their own data and how it is used. Senate Bill 296 seeks to specifically address the privacy risk posed by in-vehicle snapshots. The bill would require vehicle manufacturers to inform drivers if there are cameras inside the car and would prevent the sale or use of photo or video recordings for advertising purposes without the user’s consent. Violating these regulations can result in fines of up to $2,500 per vehicle equipped with a camera. This legislation seems unique in the specific area of automotive privacy, but could inspire future regulations.
  • The cybersecurity fears related to TikTok are ‘nonsense’ and the Irish government is giving in to the American and European ‘fever’, said the Chinese Ambassador to Ireland. Ambassador He Xiangdong said that contrary to the belief of some politicians, China has never used Chinese telecommunications equipment to spy on other countries. In an interview with the Irish Examiner, he also said that recent comments by Irish Minister Micheál Martin could ‘damage’ trade and economic relations between the two countries. In April this year, following similar initiatives in Europe, the US, the UK and Canada, the National Cyber Security Centre advised staff in government departments and agencies to remove TikTok from their official devices after a detailed risk analysis. In September, TikTok was fined EUR 345 million by the Irish Data Protection Commissioner for failing to protect children’s privacy. Tik Tok appealed to the High Court to overturn this decision. Tik Tok appealed to the High Court to overturn this decision. Meanwhile, the cybersecurity laws initiated by Minister Ossian Smyth earlier this year sought to exclude ‘high-risk’ vendors, but the language was later toned down to refer to ‘relevant’ vendors even over Mr. He’s objection. Mr. He stated that the cybersecurity scare of Chinese equipment in his view was “nonsense” and that the so-called cybersecurity threat posed by such equipment was “tremendously exaggerated”, because any data protection issue is a technical matter to be solved by scientists. He also said that singling out a Chinese company is ‘totally unfair’ and a ‘tactic’ used by some countries, notably the US, to try to gain an unfair competitive advantage over Chinese-owned companies. His hope is that the government will continue to provide a ‘fair and transparent’ business environment for Chinese companies and treat them ‘in the same way as any other foreign investment’, pointing out that trade between the two countries is in Ireland’s favour and that the more than 5,000 Chinese students living in Ireland contribute around €40,000 per head to the Irish economy each year. Responding to Martin’s comments earlier this year, the embassy said that the remarks ‘jeopardise a brighter future’ for relations between the two countries, that the belief that China is engaged in espionage through technology companies is ‘based on misinformation’, and that it hoped ‘with communication we can have a better mutual understanding on many issues, including this one’.
  • The Philippine Health Insurance Corporation (PhilHealth) has called for the formation of a joint task force, including representatives of law enforcement agencies, to examine the recent cyber-attack that crashed its systems. Officials of the state agency said that the task force will be composed of members of the Philippine National Police as well as representatives of the National Bureau of Investigation, the National Privacy Commission and the Department of Information and Communication Technology. “This is not only a concern of PhilHealth, but affects the entire country. And for that reason, we have requested a joint task force to look into this issue,” PhilHealth Chief Operating Officer Eli Dino Santos said during a briefing on Monday. Santos said the group is also ready to procure additional IT and infrastructure security systems to strengthen protection against possible similar attacks. Meanwhile, PhilHealth chief Emmanuel Ledesma Jr. said the group was “fully prepared” for the cyber attack and that the response and help from the agencies concerned was immediate.

PRIVACYDAILY

N. 172/2023

LE TRE NEWS DI OGGI:

  • AMNESTY, LA NUOVA POLICY DI X RISCHIA DI VIOLARE LA PRIVACY DI MILIONI DI PERSONE
  • UE LANCIA UNA PIATTAFORMA PER CONDIVIDERE IMMAGINI SUL CANCRO NEL RISPETTO DELLA PROTEZIONE DEI DATI
  • CANADA, IL CODICE DI CONDOTTA PER L’AI IN ARRIVO TRA MORMORII E POLEMICHE

In risposta alla notizia che X, la piattaforma di social media,  ha introdotto una nuova politica sulla privacy che le consente di raccogliere i dati biometrici degli utenti e di accedere ai messaggi criptati, Michael Kleinman, direttore dell’Iniziativa Silicon Valley di Amnesty International, ha dichiarato:”Biometrico” è un termine ampio che si riferisce agli attributi fisici di una persona e deve essere spiegato chiaramente. Anche se la nuova politica di X chiede agli utenti il consenso alla raccolta di dati biometrici, c’è il rischio concreto che il loro diritto alla privacy venga violato.”La nuova politica non spiega chiaramente come verranno conservati i dati e quali misure di sicurezza verranno adottate per garantire che le informazioni raccolte non vengano utilizzate per scopi illegali. Con oltre 500 milioni di utenti, una simile raccolta a livello di sistema di dati estremamente sensibili comporta enormi rischi per la sicurezza e la privacy. Ancora più preoccupante è la clausola secondo cui X raccoglierà informazioni sulla posizione degli utenti e sui loro messaggi privati, il che potrebbe costituire una sorveglianza di massa.”Le informazioni degli utenti saranno utilizzate anche per addestrare i modelli di apprendimento automatico e di intelligenza artificiale di X. Tuttavia, agli utenti non viene data esplicitamente la possibilità di acconsentire all’utilizzo dei loro dati per questo scopo. X sostiene di essere una piattaforma che promuove la libertà di espressione, ma il suo approccio “carta bianca” alla creazione di profitti rappresenta un serio rischio per i diritti individuali. “X è la piattaforma precedentemente nota come Twitter. Elon Musk ha cambiato il nome a luglio, dopo aver acquisito la piattaforma lo scorso anno. La nuova “X Privacy Policy” sostituisce la precedente “Current Privacy Policy”. La nuova politica entra in vigore oggi.Oltre alla raccolta di dati biometrici, la nuova policy introduce la raccolta di informazioni sulla storia lavorativa degli utenti e, soprattutto, prevede la condivisione di messaggi criptati per motivi di sicurezza.Secondo la politica di X, essa raccoglie “metadati relativi ai messaggi criptati e quando si utilizzano i messaggi diretti, compresi i contenuti dei messaggi, i destinatari, la data e l’ora dei messaggi”.

La European Cancer Imaging Initiative ha raggiunto una prima importante pietra miliare della sua tabella di marcia verso la realizzazione di un’infrastruttura europea federata di dati sulle immagini del cancro per supportare i fornitori di assistenza sanitaria, gli istituti di ricerca e gli innovatori nell’utilizzare al meglio le soluzioni innovative basate sui dati per il trattamento e la cura del cancro. Questa iniziativa flagship, lanciata nel dicembre 2022, fa parte del piano “Europe’s Beating Cancer” e mira a promuovere l’innovazione e l’impiego di tecnologie digitali nella ricerca, nel trattamento e nella cura del cancro, al fine di ottenere un processo decisionale clinico, una diagnostica, un trattamento e una medicina predittiva più precisi e più rapidi, a beneficio dei pazienti oncologici. La prima versione di questa infrastruttura digitale, realizzata dal progetto EUropean Federation for Cancer IMages (EUCAIM), presenta un registro pubblico di set di dati di imaging oncologico provenienti dai repository dei progetti finanziati dall’UE relativi all’intelligenza artificiale per l’imaging sanitario, nonché uno strumento di ricerca per comprendere le informazioni disponibili nei siti dei fornitori di dati in tutta l’UE. Oggi, la piattaforma Cancer Image Europe collega 36 set di immagini di 9 tipi di cancro (seno, colon, polmone, prostata, retto, fegato, glioma pontino intrinseco diffuso, neuroblastoma, glioblastoma), per un totale di oltre 200 000 serie di immagini di circa 20 000 individui. È stata inoltre pubblicata una prima versione delle regole per i fornitori e gli utenti dei dati e delle procedure operative; l’accesso ai dati può essere richiesto ai fornitori in linea con le norme etiche e di protezione dei dati applicabili.Il risultato di oggi è un passo importante verso la costruzione dell’Atlante di imaging del cancro, con oltre 60 milioni di dati anonimizzati di immagini del cancro provenienti da oltre 100.000 pazienti. L’innovazione tecnologica combinata con la protezione dei dati può creare un quadro di riferimento affidabile per ricercatori, innovatori, medici e pazienti. Grazie alla nuova Iniziativa europea per l’imaging del cancro, i ricercatori avranno un accesso efficiente a un maggior numero di dati di alta qualità per studiare e far progredire la comprensione della malattia. Gli innovatori potranno sviluppare e testare soluzioni basate sui dati per la cura del cancro. La promozione dello sviluppo di soluzioni guidate dai dati consentirà ai medici di prendere decisioni cliniche, diagnostiche, terapeutiche e di medicina predittiva più precise e più rapide, a beneficio dei pazienti oncologici. Inoltre, l’iniziativa sosterrà l’altruismo dei dati da parte dei cittadini, che potranno dare il loro consenso o la loro autorizzazione volontaria a rendere disponibili i dati da loro generati, come modo per arricchire le serie di dati sanitari.Un’infrastruttura transfrontaliera, interoperabile e sicura che preservi la privacy è essenziale per accelerare l’innovazione nella ricerca medica. Per questo motivo, diversi Stati membri dell’UE hanno espresso interesse a creare un Consorzio europeo per le infrastrutture digitali (EDIC) per la piattaforma Cancer Image Europe sviluppata dal progetto EUCAIM. La Commissione europea ha avviato un gruppo di lavoro per approfondire questa idea.

Alle aziende che lavorano con l’intelligenza artificiale in Canada è stato presentato un nuovo codice di condotta volontario sulle modalità di utilizzo e sviluppo dell’intelligenza artificiale generativa applicata in questo Paese.Se da un lato c’è già stato il sostegno della comunità imprenditoriale, dall’altro si teme che possa frenare l’innovazione e la capacità di competere con le aziende con sede al di fuori del Canada.L’intelligenza artificiale generativa avanzata si riferisce spesso a tipi di IA in grado di generare contenuti. La ChatGPT è un esempio popolare, ma anche la maggior parte dei sistemi che generano audio, video, immagini o testo.Le aziende che sottoscrivono il codice accettano diversi criteri, tra cui la trasparenza dei loro sistemi di IA su dove e come vengono utilizzate le informazioni raccolte e l’esistenza di metodi per affrontare i potenziali pregiudizi del sistema.Inoltre, accettano il monitoraggio umano dei sistemi di IA e che gli sviluppatori che creano sistemi generativi di IA per uso pubblico creino sistemi che consentano di riconoscere qualsiasi cosa generata dal loro sistema. “Penso che se chiedete alla gente per strada, vogliono che agiamo ora per assicurarci che abbiamo misure specifiche che le aziende possono adottare ora per costruire la fiducia nei loro prodotti di IA”, ha detto il ministro dell’Industria François-Philippe Champagne in una conferenza incentrata sull’IA a Montreal mercoledì scorso. Il codice volontario offrirebbe quindi al governo federale un altro metodo per definire le regole che le aziende devono seguire per realizzare prodotti di cui ci si possa fidare prima ancora di utilizzarli, o di scegliere di utilizzarli del tutto.La legislazione, come il disegno di legge C-27, che aggiornerebbe la legislazione sulla privacy e aggiungerebbe norme che regolano l’intelligenza artificiale, sta ancora attraversando il Parlamento.

English version

  • AMNESTY, X’S NEW POLICY RISKS VIOLATING THE PRIVACY OF MILLIONS OF PEOPLE
  • EU LAUNCHES PLATFORM TO SHARE CANCER IMAGES IN COMPLIANCE WITH DATA PROTECTION
  • CANADA, THE CODE OF CONDUCT FOR AI COMING AMONG SURPRISES AND POLEMICS

Reacting to news that X, the social media platform formerly known as Twitter, has introduced new privacy policy which allows it to collect users’ biometric data and access encrypted messages Michael Kleinman, Director of Silicon Valley Initiative at Amnesty International, said:“’Biometric’ is a broad term which relates to a person’s physical attributes and needs to be clearly explained. Even though X’s new policy asks users for their consent regarding the collection of biometric data, there is a real risk that their right to privacy will be violated.“The new policy does not clearly spell out how that data will be stored and the safety measures in place to ensure that the information collected will not be used for unlawful purposes. With over 500 million users, such a system-wide collection of extremely sensitive data poses huge security and privacy risks. Even more concerning is the provision that X will collect information about the location of users and their private messages, which may constitute mass surveillance.“Users’ information will also be used to train X’s machine learning and artificial intelligence models. Yet users are not explicitly given the option of agreeing that their data should be used for this purpose. X claims to be a platform that promotes freedom of expression but its carte blanche approach to profit-making poses a serious risk to individual rights.”X is the platform that was previously known as Twitter. Elon Musk changed the name in July following his takeover of the platform last year. The new “X Privacy Policy” replaces what was previously known as the “Current Privacy Policy.” The new policy takes effect today.As well as the collection of biometric data, the new policy introduces the collection of information about users’ employment history and most notably, makes provision for the sharing of encrypted messages for security reasons.According to X’s policy, it collects “metadata related to Encrypted Messages and when you use Direct Messages, including contents of the messages, the recipients, and date and time of the messages.”

Today, the European Cancer Imaging Initiative has reached a first major milestone of its roadmap towards delivering a European federated infrastructure of cancer images data to support healthcare providers, research institutes and innovators in making the best use of innovative data-driven solutions for cancer treatment and care.This flagship initiative launched in December 2022  is part of  the Europe’s Beating Cancer Plan and aims to foster innovation and deployment of digital technologies in cancer research, treatment and care, to achieve more precise and faster clinical decision-making, diagnostics, treatments and predictive medicine for the benefit of cancer patients.The first version of this digital infrastructure, delivered by the EUropean Federation for CAncer IMages (EUCAIM) project, features a public catalogue of cancer imaging datasets from the repositories EU-funded projects related to of Artificial Intelligence for Health Imaging, as well as a searching tool to understand the information available at the data providers’ sites across EU. Today, the Cancer Image Europe platform links up 36 datasets of images of 9 cancer types (breast, colon, lung, prostate, rectum, liver, diffuse intrinsic pontine glioma, neuroblastoma, glioblastoma), for a total of over 200 000 image series of about 20 000 individuals. A first version of the rules for data providers and users and the operational procedures have been also published; access to data can be requested to data providers in line with applicable ethics and data protection rules.Today’s achievement is a major step towards building the Atlas of Cancer Imaging with over 60 million anonymised cancer image data from over 100,000 patients.Technological innovation that is combined with data protection can create a trusted framework for researchers, innovators, doctors, and patients. Thanks to the new European Cancer Imaging Initiative, researchers will have efficient access to more high-quality data to study and advance our understanding of the disease. Innovators will be able to develop and test data-driven solutions for cancer care. The facilitation of the development of data-driven solutions will allow doctors to make more precise and faster clinical decisions, diagnostics, treatments and predictive medicine, for the benefit of cancer patients. Furthermore, the initiative will support data altruism from citizens, who could give their consent or permission voluntarily to make available data that they generate, as a way of enriching the health datasets.A cross-border, interoperable, and secure infrastructure that will preserve privacy is essential to speed up innovation in medical research. Therefore, several EU Member States have expressed interest in establishing an European Digital Infrastructure Consortium (EDIC) for the Cancer Image Europe platform developed by the EUCAIM project. A working group has been launched by the European Commission to further explore this idea.

Companies working with AI in Canada are being presented with a new voluntary code of conduct around how advanced generative artificial intelligence is used and developed in this country.And while there has already been support from the business community, there are also concerns being raised that it could stifle innovation and the ability to compete with companies based outside of Canada.Advanced generative artificial intelligence often refers to the types of AI that can produce content. ChatGPT is a popular example, but most systems that generate audio, video, images or text would count as well.Companies that sign onto the code are agreeing to multiple principles, including that their AI systems are transparent about where and how information they collect is used, and that there are methods to address potential bias in a system.In addition, they agree to human monitoring of AI systems and that developers who create generative AI systems for public use create systems so that anything generated by their system can be detected.”I think that if you ask people in the street, they want us to take action now to make sure that we have specific measures that companies can take now to build trust in their AI products,” said Industry Minister François-Philippe Champagne at a conference focusing on AI in Montreal last Wednesday.Hence, the voluntary code would give another method for the federal government to set out rules for companies to make products people can trust before they even use them, or whether they opt to use them at all.Legislation such as Bill C-27, which would update privacy legislation and add rules governing artificial intelligence, is still working its way through Parliament.

PRIVACYDAILY

N. 171/2023

LE TRE NEWS DI OGGI:

  • USA, POLEMICHE POLITICHE SUL RAPPORTO DELL’OVERSIGHT BOARD PER LA PRIVACY E I DIRITTI CIVILI
  • IRLANDA, TIK TOK IMPUGNA LA SANZIONE DA 345 MILIONI INFLITTA DALLA DPC
  • GHANA, OMS AUSPICA CHE SIA DATA PRIORITA’ ALLA SICUREZZA DEI DATI DEI PAZIENTI NELLO SVILUPPO DELL’AI MEDICA

In quello che doveva essere un giorno di festa, un importante organo federale di controllo della privacy si è improvvisamente trovato a fronteggiare dure divisioni interne e, agli occhi dei suoi critici, grandi interrogativi sulle sue principali conclusioni. Pochi istanti dopo aver pubblicato un rapporto molto atteso su un controverso programma di sorveglianza all’estero, i due repubblicani che fanno parte del Comitato di supervisione per la privacy e le libertà civili, composto da cinque membri, hanno rilasciato una dichiarazione alla stampa in cui si criticavano le conclusioni dei tre membri democratici nominati dal Comitato in quanto “contrarie all’evidenza e slegate dalla legge”, dove l’organo di controllo bipartisan ha presentato i risultati del suo esame, durato mesi, della sezione 702 del Foreign Intelligence Surveillance Act.La Sezione 702, che in assenza di un’azione del Congresso scadrà alla fine di quest’anno, autorizza la comunità di intelligence degli Stati Uniti a raccogliere testi, e-mail e altre comunicazioni digitali di stranieri che si trovano all’estero e che corrispondono utilizzando le piattaforme di aziende tecnologiche americane, come Microsoft e Google. Mentre gli scettici di grandi riforme sfruttano le divisioni del comitato per mettere in dubbio il suo ultimo rapporto, i sostenitori protestano che le critiche taglienti dei membri repubblicani sono spacconate politiche.La divisione tra maggioranza e minoranza è “più retorica che sostanziale”, ha dichiarato in un’intervista Travis LeBlanc, uno dei tre democratici del gruppo.Anche i tre democratici hanno ripetutamente minimizzato le divisioni con le loro controparti repubblicane durante l’evento di giovedì. “Il fatto che non ci sia una risposta unanime su cui tutti siano d’accordo non significa che la sostanza e l’analisi di una parte siano sbagliate”, ha detto LeBlanc nell’intervista. “È solo un riconoscimento del fatto che si tratta di una questione molto complessa”. Le spaccature all’interno del consiglio hanno iniziato a farsi sentire mercoledì, quando il gruppo ha condiviso il suo rapporto sulla Sezione 702 con il Congresso e la Casa Bianca.

TikTok ha promosso un ricorso presso l’Alta Corte di Giustizia per annullare la decisione della Commissione per la protezione dei dati di multarla per 345 milioni di euro per non aver protetto la privacy dei bambini sul suo sito di social media. All’inizio di questo mese, la DPC ha imposto la multa dopo aver indagato su TikTok in merito alla conformità di alcune impostazioni e funzioni di privacy con gli obblighi previsti dal Regolamento generale sulla protezione dei dati dell’UE.A seguito delle varie ordinanze emesse nei suoi confronti, la filiale irlandese del servizio di video hosting online, TikTok Technolgies Limited, ha avviato un procedimento di revisione giudiziaria in cui chiede varie ordinanze e dichiarazioni nei confronti del DPC, dell’Irlanda e del Procuratore generale.Nel ricorso, TikTok sostiene che le decisioni e le conclusioni del DPC nei confronti del servizio di social media sono errate e dovrebbero essere annullate.La questione è stata brevemente affrontata davanti al giudice Brian Cregan durante l’odierna seduta di vacanza dell’Alta Corte.Declan McGrath SC per TikTok ha dichiarato che, nell’ambito della sua azione, il suo cliente contesterà la costituzionalità del Data Protection Act del 2018 e che ha presentato un ricorso legale contro la decisione del DPC presso la Circuit Court.McGrath ha detto che il suo cliente ha anche presentato un ricorso legale contro la decisione del DPC presso la Circuit Court, ma ha aggiunto che sta presentando anche il ricorso all’Alta Corte perché potrebbe non essere in grado di sollevare alcune delle questioni che intende sollevare nel ricorso legale.Il giudice, che ha ordinato di notificare ai convenuti le richieste di risarcimento contro di loro a titolo di favore, ha rinviato la causa a ottobre, quando inizierà il nuovo mandato legale.

Il dottor Francis Kasolo, Rappresentante nazionale dell’Organizzazione Mondiale della Sanità (OMS), ha esortato i professionisti del settore medico a dare priorità alla sicurezza dei dati dei pazienti nell’ambito dell’applicazione dell’Intelligenza Artificiale (IA) nella fornitura di assistenza sanitaria in Ghana. L’applicazione dell’Intelligenza Artificiale nella fornitura di assistenza sanitaria potrebbe esporre i dati e le cartelle cliniche dei pazienti a qualsiasi tipo di violazione e abuso.  Pertanto, i professionisti del settore medico devono includere strumenti di protezione dei dati nell’uso dell’IA nella diagnostica e in altri servizi sanitari.  La dott.ssa Kasolo ha lanciato l’appello in occasione dell’apertura della Festa della Conoscenza Medica 2023, organizzata dal Ghana College of Physicians and Surgeons ad Accra, sul tema “Sfruttare l’Intelligenza Artificiale per creare una Paese sostenibile e sano, grazie al ruolo dei professionisti della salute”.  È ancora più importante salvaguardare la privacy dei dati, dando priorità a efficaci misure di sicurezza e rispettando la riservatezza dei dati, che è fondamentale per la costruzione dei dati sanitari dei pazienti”, ha dichiarato il dottor Kasolo.  Ha elogiato i progressi significativi nell’applicazione dell’A1 nella fornitura di assistenza sanitaria in Ghana, in particolare l’uso di droni per la consegna di farmaci essenziali nelle aree rurali. Il professor Frank Edwin, presidente dell’evento, ha sottolineato l’importanza dell’A1 nella fornitura di assistenza sanitaria, affermando che l’applicazione dell’AI ha ridotto il carico di lavoro degli operatori sanitari nel Paese.  Ha affermato che, dato l’esodo di professionisti del settore medico dal Paese, l’applicazione dell’IA ridurrà l’impatto del deficit emerso a seguito dell’esodo.  Ha esortato le parti interessate del settore medico ad affrontare le sfide etiche nell’applicazione dell’IA nella fornitura di assistenza sanitaria.

English version

  • USA, POLITICAL POLEMICS OVER THE OVERSIGHT BOARD’S REPORT ON PRIVACY AND CIVIL RIGHTS
  • IRELAND, TIK TOK APPEALS THE 345 MILLION FINE INFlICTED BY THE DPC
  • GHANA, WHO CALLS FOR PRIORITY TO BE GIVEN TO PATIENT DATA SECURITY IN MEDICAL AI DEVELOPMENT

On what was meant to be a celebratory day, a top federal privacy watchdog suddenly finds itself fending off bitter internal divisions — and in the eyes of its critics, big questions about its key findings.Moments after releasing a much-anticipated report on a controversial foreign spying program, the two Republicans on the five-member Privacy and Civil Liberties Oversight Board issued a press statement blasting the conclusions of the panel’s three Democratic appointees as “contrary to the evidence and unmoored from the law.”The Republican appointees, Beth Williams and Richard DiZinno, then skipped an afternoon press conference at the Ronald Reagan Building in downtown Washington, D.C., where the bipartisan watchdog unveiled the results of its monthslong review into Section 702 of the Foreign Intelligence Surveillance Set to expire at the end of this year absent congressional action, Section 702 authorizes the U.S. intelligence community to collect the texts, emails and other digital communications of foreigners located abroad who correspond using the platforms of American tech companies, like Microsoft and Google.While skeptics of major reforms are seizing on the board’s divisions to cast doubt on its newest report, supporters protest that the Republican members’ sharp critiques are political bluster.The split between the majority and the minority is “rhetoric more than it actually is substance,” Travis LeBlanc, one of the group’s three Democrats, said in an interview.The three Democrats also repeatedly downplayed the divisions with their Republican counterparts at Thursday’s event. “The fact that there isn’t maybe one unanimous answer that everyone agrees on doesn’t mean that the substance and analysis of one side is flawed,” LeBlanc said in the interview. “It’s just a recognition that it’s a very complex issue.”The fissures within the board started to catch attention on Wednesday, when the group shared its report on Section 702 with Congress and the White House.

TikTok has launched a High Court challenge aimed at quashing the Data Protection Commission’s decision to fine it €345m for failing to protect children’s privacy on its social media site.Earlier this month, the DPC imposed the fine after it investigated TikTok over how some of its privacy settings and features complied with obligations under the EU’s General Data Protection Regulation.Arising out of the various orders made against it the online video hosting service’s Irish-based subsidiary, TikTok Technolgies Limited, has launched judicial review proceedings where it seeks various orders and declarations against both the DPC, as well as Ireland and the Attorney General.In its action, TikTok claims that the DPC’s decisions and findings against the social media service are flawed and should be set aside.The matter was briefly mentioned before Mr Justice Brian Cregan during today’s vacation sitting of the High Court.Declan McGrath SC for the TikTok said that as part of its action his client will be challenging the constitutionality of the 2018 Data Protection Act.Mr McGrath said that his client has also filed a statutory appeal against the DPC’s decision with the Circuit Court.However, he said that it was also bringing the High Court action because it may not be able to raise some of the issues it wants to raise in the statutory appeal.The judge, who directed that the respondents in the case be served with the claims against them as a matter of courtesy, adjourned the case to date in October when the new legal term begins.

Dr Francis Kasolo, the World Health Organization(WHO) Country Representative, has urged medical professionals to prioritise the data security of patients in the application of Artificial Intelligence (AI) in healthcare delivery in Ghana. He said the application of AI in healthcare delivery could subject the data and diagnostic records of patients to all manner of breaches and abuse.  Thus, medical professionals must include data protection tools in the use of AI in diagnostics and other healthcare services.  Dr Kasolo made the call at the opening of the 2023 Medical Knowledge Fiesta organized by the Ghana College of Physicians and Surgeons in Accra.It is on the theme,” Leveraging Artificial Intelligence to Build a Sustainable and Health Nation, the Role of Health Professionals.”  “More importantly, we need to safeguard data privacy by prioritizing robust security measures and respecting data privacy which is paramount in building the health data of patients,’ Dr Kasolo stated.  He praised the significant progress in the application of A1 in healthcare delivery in Ghana particularly the use of drones to deliver essential medicines in rural areas. Professor Frank Edwin, Chairperson for the occasion highlighted the relevance of A1 in healthcare delivery.He said the application of AI reduced the workload of medical professionals in the country.  He said that given the exodus of medical professionals leaving the country, the application of AI would lessen the impact of the deficit that emerged as a result of the exodus.  He urged stakeholders in the medical sector to address the ethical challenges in the application of AI in healthcare delivery.

PRIVACYDAILY

N. 170/2023

LE TRE NEWS DI OGGI:

  • CHAT GPT POTRA’ ACCEDERE ANCHE AD INFO AGGIORNATE
  • IRLANDA, LE DICHIARAZIONI DEL WHISTLEBLOWER DEI DATI DA PARTE DEL MINISTERO DELLA SALUTE
  • INDONESIA, BANNATE LE TRANSAZIONI E-COMMERCE SUI SOCIAL

OpenAI, creatore di ChatGPT , ha confermato che il chatbot può ora navigare in Internet per fornire agli utenti informazioni aggiornate.In precedenza il sistema basato sull’intelligenza artificiale era stato addestrato solo con dati fino a settembre 2021.Questo significa che alcuni utenti premium potranno porre al chatbot domande sull’attualità e accedere alle notizie.All’inizio della settimana, OpenAI ha anche rivelato che il chatbot sarà presto in grado di intrattenere conversazioni vocali con gli utenti.ChatGPT e altri sistemi simili utilizzano enormi quantità di dati per creare risposte convincenti e simili a quelle umane alle domande degli utenti.Finora, però, la “conoscenza” del chatbot virale è rimasta congelata nel tempo. Il suo database è stato ricavato dai contenuti di Internet come era nel settembre 2021. Non poteva navigare in rete in tempo reale.Così, ad esempio, se si chiede alla versione gratuita quando un terremoto ha colpito per l’ultima volta la Turchia o se Donald Trump è ancora vivo, il chatbot risponde: “Mi dispiace, ma non posso fornire informazioni in tempo reale”.L’incapacità di ChatGPT di prendere in considerazione gli eventi recenti è stata fonte di insoddisfazione per alcuni potenziali utenti.”Se questa funzionalità o capacità non ci fosse, si dovrebbe andare su Google o su Twitter o sulla propria testata giornalistica preferita. Ora, invece, si può considerare questo strumento come una fonte di notizie, pettegolezzi ed eventi attuali”, afferma Tomas Chamorro-Premuzic, professore di psicologia aziendale presso l’University College di Londra.”L’implicazione principale è che questo strumento assorbirà molte delle domande e delle richieste in entrata che venivano rivolte ai motori di ricerca o alle testate giornalistiche”, ha affermato Chamorro-Premuzic. Ma Chamorro-Premuzic ha aggiunto che l’uso della piattaforma per le ricerche potrebbe essere un’arma a doppio taglio.”Penso che sia una buona cosa in termini di risposte rapide alle domande più urgenti e scottanti”, ha detto, ma ha avvertito che, in assenza di fonti, le informazioni fornite tramite ChatGPT potrebbero essere fuorvianti.”Se non si indica in modo affidabile quali sono le fonti, e si fa semplicemente un mix di ciò che esiste là fuori… allora le preoccupazioni riguardano l’accuratezza e le persone pensano che le informazioni che ricevono siano affidabili quando non lo sono”.

Quando, più di due anni fa, un informatore ha rivelato tecniche controverse di raccolta di informazioni all’interno del Dipartimento della Salute, una famiglia del sud-ovest si è preoccupata. “Quando l’ho guardato e riguardato, mi sono subito detta: “Oh, mio Dio, la maggior parte di queste informazioni riguarda noi””, ha detto Sharon Keogh.È stata una reazione istintiva, basata sulla consapevolezza che nel 2007 aveva intentato una causa presso l’Alta Corte di Giustizia contro lo Stato al solo scopo di ottenere un’istruzione primaria adeguata per suo figlio Adam, al quale era stato diagnosticato l’autismo.Legalmente la causa era inattiva, ma nella sua mente era finita: la richiesta era quella di ottenere un sostegno sufficiente per le esigenze speciali di suo figlio Adam nella scuola primaria. Il figlio aveva finito da tempo la scuola primaria e quindi non aveva senso riattivare l’azione.”Quando parlai con l’avvocato, forse nel 2007, forse nel 2008, non ricordo le date esatte, ma non volevo andare avanti con quel caso. In seguito mi è stato detto che si trattava di un caso sospeso, ma per me era finito, era stato archiviato, non avevo più nulla a che fare con quel caso. Non ci ho mai più pensato.”Ho detto loro che stavo ricevendo abbastanza servizi da mio figlio in quel momento e che non ero più disposta a lottare. Avevo già abbastanza battaglie in corso senza dover affrontare anche l’Alta Corte”, ha dichiarato la donna. Anche se il caso non era mai andato avanti, non era stato formalmente chiuso, quindi c’era ancora un potenziale problema di costi.Per questo motivo, il caso era ancora monitorato dal personale del Dipartimento e, come parte della strategia di contenzioso, erano stati tenuti dei dossier sulle famiglie coinvolte.Il contenuto di questi fascicoli ha sconvolto a tal punto il funzionario Shane Corr da indurlo a fare una rivelazione “protetta” nel 2020.

Il ministro del Commercio ha dichiarato mercoledì che l’Indonesia ha vietato le transazioni di commercio elettronico sulle piattaforme di social media, un colpo alla app di video brevi TikTok, che sta raddoppiando la sua presenza nella più grande economia del Sud-Est asiatico per incrementare il suo business di commercio elettronico.Il governo ha dichiarato che la misura, che ha effetto immediato, è volta a proteggere i commercianti e i mercati offline, aggiungendo che i prezzi praticati sulle piattaforme di social media minacciano le piccole e medie imprese. La mossa arriva solo tre mesi dopo che TikTok si è impegnata a investire un miliardo di dollari nel sud-est asiatico, principalmente in Indonesia, nei prossimi anni, in un’importante spinta per costruire la sua piattaforma di e-commerce TikTok Shop.TikTok, di proprietà della cinese ByteDance, ha 125 milioni di utenti attivi mensili in Indonesia e sta cercando di tradurre l’ampia base di utenti in un’importante fonte di reddito per l’e-commerce.Un portavoce di TikTok Indonesia ha dichiarato di voler intraprendere un percorso costruttivo e di essere “profondamente preoccupato” per l’annuncio, “in particolare per l’impatto che avrà sui mezzi di sussistenza dei 6 milioni” di venditori locali attivi su TikTok Shop. Il Ministro del Commercio indonesiano Zulkifli Hasan ha dichiarato mercoledì ai giornalisti che il regolamento è volto a garantire una concorrenza commerciale “equa e giusta”, aggiungendo che è anche volto a garantire la protezione dei dati degli utenti.Ha messo in guardia dal lasciare che i social media diventino una piattaforma di e-commerce, un negozio e una banca allo stesso tempo.Il nuovo regolamento prevede anche che le piattaforme di e-commerce in Indonesia fissino un prezzo minimo di 100 dollari per alcuni articoli acquistati direttamente dall’estero, secondo il documento del regolamento esaminato da Reuters, e che tutti i prodotti offerti debbano rispettare gli standard locali.

English version

  • CHAT GPT WILL ALSO BE AVAILABLE TO ACCESS UPDATED INFO
  • IRELAND, WHISTLEBLOWER’S STATEMENTS ON DATA FROM MINISTRY OF HEALTH
  • INDONESIA, E-COMMERCE TRANSACTIONS ON SOCIALS BANNED

OpenAI, the Microsoft-backed creator of ChatGPT, has confirmed the chatbot can now browse the internet to provide users with current information.The artificial intelligence-powered system was previously trained only using data up to September 2021.The move means some premium users will be able to ask the chatbot questions about current affairs, and access news.OpenAI said the feature would open up to all users soon.Earlier in the week, OpenAI also revealed the chatbot will soon be able to have voice conversations with users.ChatGPT and other similar systems use huge amounts of data to create convincing human-like responses to user queries.They are expected to dramatically change the way people search for information online.But until now the viral chatbot’s “knowledge” has been frozen in time. Its database has been drawn from the contents of the internet as it was in September 2021. It could not browse the net in real time.So, for example, ask the free version when an earthquake last struck Turkey, or whether Donald Trump is still alive and it replies “‘I’m sorry, but I cannot provide real-time information”.ChatGPT’s inability to take recent events into account has been a turn-off for some potential users.”If this functionality or capability weren’t there, you would need to go to Google or to Twitter or to your preferred news outlet. Now, you can treat this as a source of the latest news, gossip and current events,” says Tomas Chamorro-Premuzic, professor of business psychology at University College London.”So the main implication is that it’s going to absorb a lot of the incoming questions and inquiries that were going to search engines or going to news outlets,” he said.But, Mr Chamorro-Premuzic added that using the platform to search could be a double-edged sword.”I think that’s a good thing in terms of getting quick responses to your pressing, burning questions,” he said, but warned that without sourcing, information provided through ChatGPT could be misleading.”If it’s not stating in a reliable way what the sources are, and it’s simply doing a mix and a mish mash of what exists out there… then the concerns are around accuracy and people just assume the information they get there is reliable when it’s not.”

When a whistleblower went public more than two years ago to reveal controversial information gathering techniques within the Department of Health – one family in the southwest felt worried. “I knew instantly when I looked and watched it, I was like, ‘oh, my God, the majority of that’s about us,'” said Sharon Keogh.It was an instinctive reaction based on the knowledge that in 2007 she had taken a High Court case against the State with the sole purpose of getting proper primary school education for her son Adam who had been diagnosed with autism.Legally the case was dormant but in her mind it was dead – the claim had been to secure sufficient special needs support for her son Adam in primary school. He was long finished primary school and so there was no point to reactivating the action.”When I spoke to solicitor back in could have been 2007, 2008 maybe, I can’t remember the exact dates, but I wasn’t going any further with that case. I was told afterwards it was called a dormant case, but to me it was done, it was dusted, I had no more to do with it. I never thought about it again.”I told them I was getting enough services from my son at the time and I just wasn’t willing to fight anymore. I had enough other fights on my hand without dealing with a High Court as well,” she said.However, for the Department there was still one loose end. Even though the case had never progressed, it had not been formally closed so there was still a potential issue of costs.For this reason, the case was still being monitored by departmental staff and, as part of its litigation strategy, there were dossiers kept on the families involved.It was the contents of these files that disturbed civil servant, Shane Corr, so much that he made a protected disclosure in 2020.

Indonesia has banned e-commerce transactions on social media platforms, the trade minister said on Wednesday, in a blow to short video app TikTok, which is doubling down on Southeast Asia’s biggest economy to boost its e-commerce business.The government said the move, which takes effect immediately, is aimed at protecting offline merchants and marketplaces, adding that predatory pricing on social media platforms is threatening small and medium-sized enterprises.The move comes just three months after TikTok pledged to invest billion of dollars in Southeast Asia, mainly in Indonesia, over the next few years in a major push to build its e-commerce platform TikTok Shop.TikTok, owned by China’s ByteDance, has 125 million active monthly users in Indonesia and has been looking to translate the large user base into a major e-commerce revenue source.A TikTok Indonesia spokesperson said it would pursue a constructive path forward and was “deeply concerned” with the announcement, “particularly how it would impact the livelihoods of the 6 million” local sellers active on TikTok Shop.Indonesia Trade Minister Zulkifli Hasan on Wednesday told reporters that the regulation is intended to ensure “fair and just” business competition, adding that it was also intended to ensure data protection of users.He warned of letting social media become an e-commerce platform, shop, and bank all at the same time.The new regulation also requires e-commerce platforms in Indonesia to set a minimum price of $100 for certain items that are directly purchased from abroad, according to the regulation document reviewed by Reuters, and that all products offered should meet local standards.

PRIVACYDAILY

N. 169/2023

LE TRE NEWS DI OGGI:

  • HUNTER BIDEN DENUNCIA GIULIANI PER IL “TOTALE ANNIENTAMENTO” DELLA SUA PRIVACY DIGITALE 
  • UN’IMPORTANTE REVISIONE DELLA PRIVACY PORTERA’ TIK TOK ALL’ATTENZIONE DEI LEGISLATORI 
  • OTTAWA PRESENTERA’ LE NUOVE MISURE PER L’AI

Hunter Biden ha citato in giudizio Rudy Giuliani e il suo avvocato, sostenendo che la sua privacy digitale è stata “completamente annientata” dai tentativi di collegare i suoi problemi legali e personali al padre, il presidente Joe Biden, attraverso affermazioni su un famigerato computer portatile e un hard disk. Depositata presso il tribunale distrettuale degli Stati Uniti in California, dove Hunter Biden vive, la causa afferma che l’ex sindaco di New York, diventato avvocato di Donald Trump, e il suo stesso avvocato, Robert Costello, “sono tra coloro … che sono stati i principali responsabili di ciò che è stato descritto come il ‘totale annientamento’ della privacy digitale [di Hunter Biden]”.Gli imputati avrebbero “dedicato una notevole quantità di tempo ed energia alla ricerca, all’hacking, alla manomissione, alla manipolazione, alla copia, alla diffusione e, in generale, a una vera e propria ossessione per i dati che sono stati loro forniti e che sono stati presi o rubati dai dispositivi o dalle piattaforme di archiviazione di [Hunter Biden], compresi quelli che gli imputati sostengono di aver ottenuto dal presunto computer “portatile” di [Biden]”.Hunter Biden è al centro delle mosse repubblicane per l’impeachment del padre, sulla base di accuse di corruzione non dimostrate. I problemi legali del figlio del Presidente sono molto estesi e riguardano la tassazione e le accuse di possesso di armi da fuoco.Giuliani stesso è in grave pericolo dal punto di vista legale, non da ultimo a causa di una causa intentata da Costello, il suo stesso avvocato, per parcelle non pagate.Giuliani deve anche affrontare una causa di 10 milioni di dollari da parte di un’ex assistente personale che sostiene di aver subito reati, tra cui la violenza sessuale, e un procedimento disciplinare professionale. Ma il suo lavoro per Trump, in particolare nel tentativo di ribaltare la vittoria di Joe Biden sull’ex presidente alle elezioni del 2020, è la fonte dei suoi problemi. In Georgia si è dichiarato non colpevole di 13 accuse di racket e cospirazione.Gli avvocati di Giuliani hanno dichiarato che sta lottando per pagare le bollette. Il suo appartamento a New York è stato messo in vendita.

Le nuove leggi proibiranno alle aziende di indirizzare gli annunci pubblicitari ai bambini e di vendere i loro dati privati, nell’ambito delle più ampie riforme apportate alla legge australiana sulla privacy da decenni a questa parte.Le modifiche, che saranno annunciate mercoledì, richiederanno inoltre alle aziende di ottenere il “consenso informato” degli utenti quando trattano i loro dati personali.Le riforme arrivano dopo un’ampia revisione della legge sulla privacy guidata dal procuratore generale Mark Dreyfus, che a febbraio ha presentato centinaia di nuove proposte importanti. Dreyfus aveva già chiesto “riforme urgenti” della legge sulla privacy, vecchia di decenni, a seguito di una serie di gravi fughe di notizie da parte di grandi aziende che hanno compromesso i dati personali di milioni di australiani.Ciò significa che le app per smartphone dovranno dare segnali evidenti quando utilizzano la localizzazione dei minori di 18 anni e consentire l’accesso alle informazioni ad altri solo se il bambino lo consente nelle impostazioni del telefono.Secondo una ricerca pubblicata nel Parenting Report di Finder, più di un terzo dei ragazzi australiani di età inferiore ai 12 anni possiede un proprio smartphone.Si stima che 537.000 ragazzi in tutto il Paese utilizzino la piattaforma online TikTok, che è stata ampiamente esaminata per l’uso di “pubblicità occulta” sui giovani. Come parte delle nuove riforme, il governo federale introdurrà un “codice sulla privacy online dei bambini”, che molto probabilmente costringerà le aziende a rivedere le loro attuali politiche di marketing e tecnologiche.Il nuovo codice si applicherà a tutti i servizi online utilizzati dai bambini e si baserà sulle leggi introdotte nel Regno Unito nel 2021.

Il ministro dell’Industria François-Philippe Champagne annuncerà mercoledì nuove misure governative per aiutare il Canada ad assumere un ruolo guida nel settore dell’intelligenza artificiale.Martedì scorso Champagne ha dichiarato alla commissione industria e tecnologia dei Comuni che sono in arrivo nuove misure.Champagne stava rispondendo a una domanda della deputata liberale Julie Dabrusin, la cui circoscrizione di Toronto-Danforth comprende un certo numero di attori che hanno chiesto cosa farà il Canada per proteggere gli artisti dai problemi sollevati dall’IA, come l’uso delle loro voci o immagini.Questioni come queste sono tra quelle che hanno alimentato i recenti scioperi di scrittori e attori di Hollywood.Al di fuori dell’incontro, Champagne è stato schivo, rifiutandosi di dare anche solo un accenno a ciò che intende annunciare alla conferenza All In di Montreal.”Ci sono una serie di cose che faremo e proporremo… cose che andranno nella direzione di fornire una leadership canadese sull’IA”, ha detto Champagne a CBC News.”Ci sono cose che possiamo fare per rendere il Canada un leader”, ha detto, tra cui una proposta di aggiornamento della legge sulla privacy, “e questo è ciò che faremo”.Testimoniando davanti ai parlamentari, Champagne ha detto che il Canada è all’avanguardia quando si tratta di sviluppare un quadro e delle regole per l’uso dell’intelligenza artificiale – qualcosa che gli Stati Uniti e l’Europa stanno osservando da vicino, dato che la tecnologia si sviluppa rapidamente.”Spero che i colleghi sentano il mio stesso sentimento di urgenza, perché ogni giorno veniamo a conoscenza di un nuovo aspetto di questa tecnologia che va oltre quello che abbiamo già visto. Quindi, credo che un quadro di riferimento sia molto necessario e che ci aiuterà ad avere un’IA responsabile”, ha dichiarato. Il governo ha intrapreso i primi passi per disciplinare l’IA, tra cui la legge sull’intelligenza artificiale e i dati, parte del più ampio disegno di legge C-27, presentato nel giugno 2022. La legislazione aggiornerà anche la legge canadese sulla privacy – cosa che non è stata fatta in due decenni, prima dei social media e di molti sviluppi tecnologici.Martedì Champagne ha annunciato una serie di emendamenti a questa legge, affermando che essi rispondono ai feedback ricevuti.

English version

  • HUNTER BIDEN SUES GIULIANI FOR TOTAL ANNIHILATION OF HIS DIGITAL PRIVACY
  • A MAJOR PRIVACY REVIEW WILL BRING TIK TOK TO THE ATTENTION OF LEGISLATORS
  • OTTAWA WILL PRESENT NEW MEASURES FOR THE AI

Hunter Biden has sued Rudy Giuliani and his lawyer, alleging “total annihilation” of his digital privacy through attempts to tie his legal and personal problems to his father, President Joe Biden, through claims about an infamous laptop and hard drive.Filed in US district court in California, where Hunter Biden lives, the suit says the former New York mayor turned Donald Trump attorney and his own lawyer, Robert Costello, “are among those … primarily responsible for what has been described as the ‘total annihilation’ of [Hunter Biden’s] digital privacy.The defendants are alleged to have “dedicated an extraordinary amount of time and energy toward looking for, hacking into, tampering with, manipulating, copying, disseminating, and generally obsessing over data that they were given that was taken or stolen from [Hunter Biden’s] devices or storage platforms, including what defendants claim to have obtained from [Biden’s] alleged ‘laptop’ computer”.Hunter Biden is at the centre of Republican moves to impeach his father, based on unsubstantiated allegations of corruption. The president’s son’s own legal problems are extensive, over taxation and firearms charges.Giuliani is in great legal jeopardy himself – not least from a suit from Costello, his own lawyer, alleging unpaid fees.Giuliani also faces a $10m suit from a former personal assistant alleging offences including sexual assault and professional disciplinary proceedings. But his work for Trump, particularly in the attempt to overturn Joe Biden’s victory over the former president in the 2020 election, is the wellspring of his problems. In Georgia, he has pleaded not guilty to 13 racketeering and conspiracy charges.Lawyers for Giuliani have said he is struggling to pay his bills. His apartment in New York has been put up for sale.

New laws will prohibit companies from targeting ads at children and selling their private data under the most sweeping reforms made to Australia’s privacy act in decades.The changes, which will be announced on Wednesday, will also require companies to obtain the “informed consent” of users when handling their personal data.Reforms come after a wide-ranging review of the Privacy Act led by Attorney-General Mark Dreyfus, which put forward hundreds of major proposals in February.Mr Dreyfus had previously called for “urgent reforms” to the decades-old privacy laws following a series of back-to-back major leaks from large companies that compromised the personal data of millions of Australians.Under the new changes, online businesses will be legally required to “recognise the best interests of the child when handling their personal information”.This means smartphone apps must give obvious signs when using location tracking on those under the age of 18, and only allow information to be accessible to others if the child enables it in their phone settings.More than a third of kids aged under 12 in Australia own their own smartphone, according to research published in Finder’s Parenting Report.An estimated 537,000 kids across the country use the online platform TikTok, which has been widely scrutinised for its use of ‘hidden advertising’ on young people.As part of the new reforms, the federal government will introduce a ‘children’s online privacy code,’ which will most likely force companies to overhaul their existing marketing and tech policiesThe new code would apply to all online services used by children, and will be based on laws introduced in the United Kingdom in 2021.

Industry Minister François-Philippe Champagne will announce new government measures Wednesday designed to help Canada take the lead in the area of artificial intelligence.Champagne told the Commons industry and technology committee on Tuesday that new steps are on the way.Champagne was responding to a question from Liberal MP Julie Dabrusin, whose riding of Toronto–Danforth includes a number of actors who have been asking what Canada will do to protect artists from the issues raised by AI, such as the use of their voices or images.Questions such as those are among the issues that have fuelled the recent strikes by Hollywood writers and actors.Outside the meeting, Champagne was coy, refusing to even give hints of what he plans to announce at the All In conference in Montreal.”There are a number of things that we will be doing and proposing … things that will go in the direction of providing Canada’s leadership on AI,” Champagne told CBC News.”There are things that we can do to make Canada a leader,” he said, including a proposed update to the privacy law, “and that is what we are going to be doing.”Testifying before MPs, Champagne said Canada is at the forefront when it comes to developing a framework and rules for the use of artificial intelligence — something that the U.S. and Europe are watching closely as the technology develops quickly.”I hope that colleagues feel the same level of urgency I feel, because every day we kind of learn of a new aspect of that technology that goes beyond what we have already seen. So having a framework, I think, will be much needed and it will help with responsible AI,” he said. The government has taken first steps to govern AI including the Artificial Intelligence and Data Act, part of the broader Bill C-27, which was tabled in June 2022. The legislation would also update Canada’s privacy law — something that hasn’t been done in two decades, before social media and many technological developments.Champagne announced a series of amendments to that legislation on Tuesday, saying they respond to feedback he has received.

PRIVACYDAILY

N. 168/2023

LE TRE NEWS DI OGGI:

  • L’AGENZIA PER L’IMMIGRAZIONE STATUNITENSE RACCOGLIE PIU’ DATI SUI MIGRANTI DI QUANTO SI SAPESSE
  • LA CONFORMITA’ DEL QUEBEC ALLA PROPIA LEGGE SULLA PRIVACY E’ SCARSA
  • SCUOLA MULTATA PER AVER USATO FOTO DI MINORI SENZA IL CONSENSO

Un programma di controllo dell’immigrazione degli Stati Uniti che segue quasi 200.000 migranti raccoglie molti più dati sulle persone che sorveglia di quanto i funzionari abbiano condiviso in precedenza, e li conserva per molto più tempo di quanto si sapesse in precedenza, come rivela il Guardian. Documenti appena rilasciati mostrano che l’Agenzia statunitense per l’immigrazione e l’applicazione delle leggi doganali (Ice) conserva alcune informazioni personali raccolte sui migranti attraverso app per smartphone, cavigliere e smartwatch fino a 75 anni. Un’applicazione di riconoscimento facciale che fa parte del programma raccoglie informazioni sulla posizione ogni volta che qualcuno si collega all’applicazione o effettua una videochiamata, come risulta dai documenti, a differenza di quanto dichiarato dall’Ice, secondo cui l’applicazione registra i dati sulla posizione solo quando un migrante completa un check-in obbligatorio attraverso l’applicazione.Essi rivelano che la raccolta di dati da parte dell’Ice è più capillare di quanto fosse noto in precedenza al pubblico e persino ai legislatori, e sollevano nuovi interrogativi sulla mancanza di trasparenza da parte dell’agenzia per l’immigrazione e della società che gestisce il programma, la BI Inc.”Abbiamo appreso che la privacy dei dati non esiste nel contesto della sorveglianza governativa di massa”, ha dichiarato Hannah Lucal, ricercatrice di dati e tecnologia presso Just Futures Law. “I documenti mostrano l’allarmante portata e l’ampiezza del crescente sistema di raccolta dei dati e di monitoraggio elettronico dell’Ice”.Il programma in questione, l’Intensive Supervision Appearance Program (Isap), è gestito per conto dell’Ice dalla BI, che è una filiale della grande società carceraria privata Geo Group.Presentato come un’alternativa umana al fermo delle persone mentre il loro caso si muove attraverso il sistema di immigrazione, il programma tiene traccia dei migranti attraverso cavigliere, smartwatch, controlli telefonici o visite di persona.Ma i legislatori e i sostenitori chiedono da tempo maggiore trasparenza su come BI e Ice gestiscono il programma, su quali dati raccolgono attraverso il sistema di sorveglianza, su quanto a lungo conservano queste informazioni e su come le usano.

Il governo e l’industria della cybersicurezza hanno sottolineato le analogie tra la legge del Quebec sulla protezione delle informazioni personali online e la legge europea su cui si basa. Tuttavia, ci sono ancora alcune differenze notevoli, che potrebbero portare il governo a non rispettare la propria legge, secondo un esperto. “L’Assemblea Nazionale del Quebec ha bisogno del vostro consenso per l’utilizzo dei cookie su questo sito web”, recita una finestra pop-up recentemente installata all’ingresso del sito web del Parlamento del Quebec. L’Assemblea Nazionale non è la sola ad aver adottato questo approccio. Molti siti web lo hanno fatto per conformarsi alla seconda delle tre ondate di misure previste dal disegno di legge 25, che tra le altre cose intende fornire un quadro migliore per il modo in cui i siti web raccolgono dati sui loro visitatori. Il processo è iniziato nel settembre 2022 e si concluderà l’anno prossimo.La formulazione scelta dall’Assemblea nazionale è conforme in tutto e per tutto ai requisiti del Regolamento generale sulla protezione dei dati (GDPR), in vigore in Europa da cinque anni. Ma non è esattamente quello che la legge del Quebec richiede”, osserva Stéphane Hamel, docente presso la Faculté des sciences de l’administration dell’Université Laval e specialista in marketing digitale”. Il banner dell’Assemblea Nazionale parla di cookie piuttosto che di informazioni personali più generali”, afferma Hamel, che avrebbe richiesto una maggiore chiarezza su ciò che viene fatto con questi dati in seguito. “Ad esempio, non c’è alcuna dichiarazione che le informazioni personali vengano utilizzate da terze parti situate al di fuori del Quebec”, spiega l’esperto. “Il sito dell’Assemblea Nazionale è un esempio, ma vedo gli stessi problemi anche altrove. Il problema è che i siti governativi dovrebbero essere l’esempio da seguire, ma al momento non lo sono”.

In una dichiarazione rilasciata martedì, la Roma School, un istituto con sede a Uthiru, Nairobi, avrebbe pubblicato foto di minori senza il consenso dei genitori.La Roma School, un’istituzione scolastica con sede a Uthiru, è stata multata di 4.550.000 scudi per aver pubblicato foto di minori senza il consenso dei genitori”, si legge nel comunicato.Secondo il commissario, questa è la prima e più alta sanzione comminata a una struttura scolastica.I commissari hanno sottolineato che le istituzioni impareranno la lezione dalla punizione di non utilizzare i dati dei minori senza il consenso dei genitori.”Questo manda un messaggio alle scuole e alle altre strutture che trattano dati di minori, affinché ottengano il consenso dei genitori/tutori prima di trattare i dati dei minori”, si legge nella dichiarazione.Il direttore della scuola ha dichiarato di non aver ricevuto alcun reclamo in merito alla diffusione delle immagini dei minori.”Ho ricevuto la lettera dall’ufficio per la protezione dei dati, ma non capisco cosa stia succedendo perché non ho ricevuto alcun reclamo da parte di nessuno in merito alla questione”, ha detto. “Dovrò andare nei loro uffici”, ha aggiunto.Secondo l’ufficio del commissario per i dati personali, le sanzioni sono state emesse ai sensi degli articoli 62 e 63 della legge sulla protezione dei dati del 2019 (legge) e dei regolamenti 20 e 21 del regolamento sulla protezione dei dati (procedura di gestione dei reclami e applicazione) del 2021.Il Commissario per i dati Immaculate Kassait ha esortato gli enti a rispettare la Legge sulla protezione dei dati implementando i principi e le garanzie di protezione dei dati.Ha inoltre invitato i responsabili e gli incaricati del trattamento dei dati a garantire che il trattamento dei dati personali sia conforme alle disposizioni della legge.”La mancata osservanza della legge comporterà l’avvio di procedure di applicazione”, ha dichiarato Kassait.

English version

  • STATE IMMIGRATION AGENCY COLLECTS MORE DATA ON MIGRANTS THAN WAS KNOWN
  • QUEBEC’S COMPLIANCE WITH ITS PRIVACY LAW IS POOR
  • SCHOOL FINED FOR USING PHOTOS OF MINORS WITHOUT CONSENT

A US immigration enforcement program that tracks nearly 200,000 migrants is collecting far more data on the people it surveils than officials previously shared, and storing that data for far longer than was previously known, the Guardian can reveal.Newly released documents show that the US Immigration and Customs Enforcement Agency (Ice) stores some personal information the program collects on migrants through smartphone apps, ankle monitors and smartwatches for up to 75 years.A facial recognition app that’s part of the program collects location information whenever someone logs into the app or makes a video call, the documents show, contrary to Ice statements that the app only logs location data when a migrant completes a mandated check-in through the app.The documents were obtained by immigrants rights groups Just Futures Law, Mijente Support Committee, and Community Justice Exchange through a freedom of information request and a lawsuit.They reveal that data collection by Ice is more extensive than was previously known to the public and even lawmakers, and raise fresh questions over the lack of transparency from the immigration agency and the company that runs the program, BI Inc.“We learned there’s really no such thing as data privacy in the context of government mass surveillance,” said Hannah Lucal, a data and tech fellow at Just Futures Law. “The documents convey the alarming scope and scale of Ice’s growing system of data extraction and electronic surveillance monitoring.”Ice and BI Inc did not respond to a request for comment before publication.The program in question, the Intensive Supervision Appearance Program (Isap), is run on behalf of Ice by BI, which is a subsidiary of the large private prison corporation the Geo Group.Billed as a humane alternative to keeping people in detention while their case moves through the immigration system, the program keeps track of migrants through ankle monitors, smartwatch trackers, phone check-ins or in-person visits.But lawmakers and advocates have long demanded more transparency around how BI and Ice run the program, what data they collect through that surveillance system, how long they store that information and how they use it.

The government and the cybersecurity industry have made much of the similarities between Quebec’s law on the protection of personal information online and the European law on which it is based. However, there are still some notable differences, which could result in the government not complying with its own law, according to one expert.”The Quebec National Assembly needs your consent for this website to use cookies,” says a pop-up window newly installed at the entrance to the Quebec Parliament website. The National Assembly is not alone in adopting this approach. Many websites have done so in order to comply with the second of three waves of measures provided for in Bill 25, which among other things is intended to provide a better framework for the way in which websites collect data on their visitors. This began in September 2022 and will be completed next year.The wording favoured by the National Assembly complies in every respect with the requirements of the General Data Protection Regulation (GDPR), which has been in force in Europe for five years. But it’s not quite what Quebec law requires,” notes Stéphane Hamel, a lecturer at Université Laval’s Faculté des sciences de l’administration and a specialist in digital marketing.” The National Assembly’s banner talks about cookies rather than more general personal information,” he says, which would have required greater clarity about what is done with this data afterwards. “For example, there is no statement that personal information is used by third parties located outside Quebec,” explains the expert. “The National Assembly site is a case in point, but I see the same problems elsewhere. The problem is that government sites should be the example to follow – and they’re not, at the moment.”

In a statement released on Tuesday, Roma School an institution based in Uthiru, Nairobi, allegedly posted minors’ photos without parental consent.This resulted in the institution being slapped with a Sh4.5 million penalty for breaching the act.“Roma School, an Educational Institution based in Uthiru has been fined Sh4,550,000 for posting minors’ pictures without parental consent,” reads the statement.According to the commissioner, this is the first and highest penalty an education facility has been accorded.They noted the institutions will learn a lesson from the punishment of not using minors’ data without parents’ consent.“This sends a message to schools and other facilities handling minors’ data to obtain consent from parents/guardians before processing minors’ data,” reads the statement.Speaking to the school’s director, he said he hasn’t received any complaint about the release of the minors’ images.“I received the letter from the data protection office but I don’t understand what is happening because I have not received any complaint from anyone regarding the matter,” he said.”I will have to go to their offices,” he said.According to the office of the data commissioner, the penalty notices have been issued pursuant to Sections 62 and 63 of the Data Protection Act, 2019 (Act) and Regulations 20 and 21 of the Data Protection (Complaints Handling Procedure and Enforcement) Regulations, 2021.Data Commissioner Immaculate Kassait urged entities to comply with the Data Protection Act by implementing data protection principles and safeguards.She also called upon data controllers and Data Processors to ensure that the processing of personal data is in accordance with the provision of the Act.“Failure to comply with the Act will result in instituting enforcement procedures,” Kassait said.

PRIVACYDAILY

N. 167/2023

LE TRE NEWS DI OGGI:

  • BELGIO, UNA AI PER SPOGLIARE LE DONNE
  • IRLANDA, COME I SUPERMARKET HANNO TRASFORMATO LE FIDELITY CARD IN UN TESORO DI DATI
  • USA, ILLINOIS INDUSTRIA MEDICA PORTA ALLA CORTE SUPREMA LEGGE SULLA PRIVACY BIOMETRICA

È stato un inizio difficile del nuovo anno scolastico per una ventina di adolescenti di Almendralejo, nel sud della Spagna. Hanno ricevuto foto di loro stesse completamente nude. Di loro stesse? Beh, non proprio. Le foto non sono mai state scattate. Sono state generate da un’intelligenza artificiale sulla base di foto prese dai loro account Instagram. Secondo diversi media spagnoli, riportati da Euronews, le foto sono state generate da ragazzini. Questo è un crimine”, ha dichiarato Miriam Al Adib, madre di una delle ragazze, su Instagram. “È la barbarie di adolescenti che non si rendono conto di ciò che hanno fatto […] Potrebbe finire su Onlyfans o su siti porno. È un reato molto grave”, ha detto, suggerendo alle madri delle altre ragazze vittime di sextortion di unirsi per sporgere denuncia. Il caso è stato sottoposto alla procura minorile e il sindaco della città ha anche lanciato un avvertimento, come riporta Euronews. “Può essere iniziato come uno scherzo, ma le implicazioni sono molto più grandi e potrebbero avere gravi conseguenze per chi ha scattato queste foto”.Le madri delle ragazze si sono riunite per prendere posizione, sporgere denuncia e ricordare alle ragazze che loro non c’entrano nulla. Tre giorni dopo è stato persino pubblicato un fumetto per sensibilizzare i ragazzi sui pericoli di questo tipo di comportamento, con questo commento: “Quello che è successo con le ragazze dell’Almendralejo ci dà speranza, sembra che ci sia un improvviso cambiamento di coscienza”. Prima che @miriam_al_adib denunciasse quello che era successo a sua figlia (e a molte altre ragazze), questi  pensavano di farla franca. La storia si è ripetuta: le vittime erano angosciate, si vergognavano e tacevano. E ora sono tutte insieme, senza paura e con l’atteggiamento “Questo fuoco lo spegniamo insieme!”. Ecco altre storie in cui ci uniamo e perdiamo la paura!”hanno creato direttamente dei video su Instagram per denunciare questi comportamenti.

L’analisi: le carte fedeltà erano un tempo un modo per premiare i clienti abituali, ma i dati che producono sono ora una redditizia fonte di guadagno per i supermercati. Come il resto del mondo, anche l’Irlanda sta assistendo a un’impennata dei prezzi dei prodotti alimentari. Di conseguenza, i clienti dei supermercati sono tentati più che mai da offerte speciali, coupon e pubblicità personalizzate, e per ottenerle devono iscriversi ai programmi fedeltà. Secondo lo European Brand Loyalty Report 2023, il 41% dei consumatori europei è più propenso a partecipare a un programma di fidelizzazione quest’anno rispetto all’anno scorso. Il prezzo della loro fedeltà? Fornire ai rivenditori i loro dati personali e di acquisto.L’idea alla base dei programmi di fidelizzazione può essere fatta risalire al desiderio di premiare i clienti per il loro comportamento e incoraggiarli a tornare in negozio. Oggi, costruendo profili delle abitudini di consumo, le aziende possono inserire questi dati nelle loro attività di ordini, logistica, stoccaggio, gestione della catena di fornitura, personalizzazione di massa e marketing.In media, il 61,3% degli adulti europei è iscritto ad almeno un programma di fidelizzazione. Nel mercato irlandese, il 75,4% dei clienti è iscritto a un programma di fidelizzazione. La mia ricerca mostra che il numero crescente di clienti che si iscrivono ai programmi di fidelizzazione suggerisce che le preoccupazioni relative alla privacy e alla protezione dei dati non sono un disincentivo molto forte, rispetto ai vantaggi percepiti (come pagare di meno) e alla convenienza (per esempio, quando si riceve via e-mail un elenco personalizzato di ciò che interessa).Ma con tutti i dati dei clienti che raccolgono attraverso i loro programmi di fidelizzazione, i rivenditori di generi alimentari hanno una capacità di prim’ordine di comprendere il comportamento dei clienti e di indirizzare i loro clienti con pubblicità personalizzata. Con l’81% dei clienti che afferma che l’adesione a un programma di fidelizzazione influenza la loro probabilità di effettuare un acquisto, i rivenditori in generale possono utilizzare i programmi di fidelizzazione per stimolare il coinvolgimento all’interno del punto vendita, aumentando al contempo l’acquisizione, la fidelizzazione e la conversione dei clienti. Non sorprende quindi che la prossima impresa dei rivenditori di generi alimentari sia rappresentata dai dati dei programmi fedeltà. In poche parole, i vostri dati sono il loro nuovo prodotto redditizio.D’altra parte, i rivenditori di generi alimentari sono attualmente accusati di “greedflation”, ovvero di sfruttare l’inflazione per creare profitti eccessivi. Tuttavia, i profitti operativi nel settore della vendita al dettaglio sono diminuiti. Il gigante dei supermercati Tesco ha rivelato all’inizio del 2023 che il suo utile ante imposte è diminuito a causa dell’aumento dei costi di gestione e dei prezzi applicati dai suoi fornitori.

La Corte Suprema dell’Illinois ha ascoltato le argomentazioni verbali in un paio di cause collettive intentate da due infermiere Lucille Mosby e Yana Mazya, che sostengono che i loro datori di lavoro hanno violato la legge sulla privacy delle informazioni biometriche dello Stato. Questa legge storica del 2008 dà ai residenti dell’Illinois la possibilità di fare causa alle aziende che fanno un uso improprio dei dati biometrici, come le impronte digitali o le scansioni facciali.È la stessa legge che ha costituito la base di diverse cause di alto profilo che hanno portato a sanzioni o accordi massicci, come i 650 milioni di dollari che Facebook ha accettato di pagare ai suoi utenti dell’Illinois dopo il presunto uso improprio dei dati biometrici.Le infermiere sostengono che, richiedendo l’uso di scanner di impronte digitali per aprire gli armadietti dei medicinali, la Northwestern Medicine, la UChicago Medicine e la Becton, Dickinson and Co. l’azienda che produce gli armadietti dei medicinali, hanno violato il Biometric Information Privacy Act.Secondo i documenti depositati in tribunale, i centri ospedalieri non hanno raccolto le liberatorie scritte che consentivano loro di utilizzare i dati delle impronte digitali, né hanno fornito informazioni su come i dati biometrici sarebbero stati conservati o eventualmente distrutti. Ma gli avvocati degli imputati hanno sostenuto che l’uso della biometria per gestire la medicina rientra in un’esenzione dalla legge perché, secondo le parole della legge, è considerato “trattamento, pagamento o operazioni di assistenza sanitaria ai sensi dell’Health Insurance Portability and Accountability Act federale”.L’esatta formulazione della legge e la definizione di “ai sensi” sono state oggetto di esame da parte degli avvocati di entrambe le parti in causa, che hanno discusso sull’intersezione tra il Biometric Information Privacy Act e la legge federale HIPAA.”Se l’imputato ha ragione, significa che l’Assemblea generale ha deciso che il 10% della forza lavoro dell’Illinois non deve avere alcuna protezione della privacy biometrica, semplicemente per il fatto di lavorare nel settore sanitario”, ha dichiarato alla corte l’avvocato delle infermiere, Jim Zouras.

English version

  • BELGIUM, AN AI TO UNDRESS WOMAN
  • IRELAND, HOW SUPERMARKETERS TURNED FIDELITY CARDS INTO A TREASURE OF DATA
  • USA, ILLINOIS MEDICAL INDUSTRY TAKES BIOMETRIC PRIVACY LAW TO SUPREME COURT

It was a difficult start to the new school year for around twenty teenage girls from Almendralejo in southern Spain. They received photos of themselves completely naked. Of themselves? Well, not really. The photos were never taken. They were generated by artificial intelligence on the basis of photos taken from their Instagram accounts.Although they were fully clothed in these photos, the artificial intelligence made it possible to expose these minors. According to several Spanish media outlets reported by Euronews, the photos were generated by young boys. This is a crime”, said Miriam Al Adib, the mother of one of the girls, on Instagram. “It’s the barbarity of teenagers who don’t realise what they’ve done […] This could end up on Onlyfans or porn sites. It’s a really serious offence”, she said, suggesting that the mothers of the other young girls who had been victims of sextortion should join forces to lodge a complaint. The case has been referred to the juvenile prosecutor’s office, and the town’s mayor has even issued a warning, reports Euronews. “It may have started out as a joke, but the implications are much greater and could have serious consequences for those who took these photos.”The mothers of these young girls have come together to take a stand, lodge a complaint and remind the girls that they had nothing to do with it. Three days later, a comic book was even published to raise awareness among young boys of the dangers of this kind of behaviour, with this comment: “What happened with the Almendralejo girls gives us hope, there seems to be a sudden change in consciousness. Before @miriam_al_adib blew the whistle on what had happened to her daughter (and many other girls), these c******* thought they’d get away with it. History repeated itself: the victims were in anguish, ashamed and silent. And now they’re all together, fearless and with the attitude “This fire we put out together!” Here’s to more stories where we unite and lose our fear!”directly created videos on Instagram to denounce these behaviours.

The idea behind loyalty programmes can be traced back to the desire to reward customers for their patronage to encourage them to come back to the store. Nowadays, by building profiles of consumption habits, businesses can feed this data into their ordering, logistics, storage, supply chain management, mass customisation and marketing.On average, 61.3% of European adults are members of at least one loyalty programme. In the Irish market, 75.4% of customers have loyalty memberships. My research shows that the rising number of customers signing up for loyalty schemes suggests that privacy and data protection concerns are not a very powerful disincentive, compared with perceived benefits (like paying less) and convenience (for example, when you’re emailed a customised list of what you are interested in).But with all the customer data they collect through their loyalty schemes, grocery retailers have a top-notch ability to understand customer behaviour and target their customers with personalised advertising. With 81% of customers saying that a loyalty programme membership influences their likelihood of making a purchase, retailers in general can use loyalty programmes to drive in-store engagement, while increasing customer acquisition, retention and conversion. It is no surprise, then, that grocery retailers next venture is loyalty programme data. Simply put, your data is their new lucrative product.On the other hand, grocery retailers are currently accused of “greedflation” or exploiting the inflation to create excessive profits. However, operating profits in the retail sector have fallen. Supermarket giant Tesco revealed in early 2023 that their pre-tax profit fell due to rises in the cost of running its operations and the rise in prices that its suppliers were charging.

The medical industry is going to court over the state’s stringent laws on biometrics privacy as lawmakers are thinking about broader privacy frameworks for children’s online data.The Illinois Supreme Court has heard oral arguments in a pair of class action suits brought by two suburban nurses, Lucille Mosby and Yana Mazya, who allege their employers violated the state’s Biometric Information Privacy Act. The landmark 2008 law gives Illinois residents the ability to sue companies that misuse biometric data, such as fingerprints or facial scans.It’s the same act that formed the basis of several high-profile lawsuits that have led to massive penalties or settlements, such as the $650 million Facebook agreed to pay its Illinois users after it was alleged to have misused biometric data.The nurses allege that, by requiring the use of fingerprint scanners to open medicine cabinets, Northwestern Medicine, UChicago Medicine and Becton, Dickinson and Co. – the company that makes the medicine cabinets – violated the Biometric Information Privacy Act.According to court filings, the hospital systems did not collect written releases allowing them to use the fingerprint data, nor did the hospitals provide information about how the biometrics would be stored or eventually destroyed. They also failed to obtain consent to disclose the fingerprint data to third-party vendors that host it.But lawyers for the defendants argued the use of biometrics to manage medicine falls under an exemption to the law because it counts as, in the words of the law, “health care treatment, payment, or operations under the federal Health Insurance Portability and Accountability Act.”The exact wording of the law, and the definition of “under,” faced scrutiny from lawyers on both sides of the case as they argued about the intersection of the Biometric Information Privacy Act and the federal HIPAA law.“If the defendant is correct, that means the General Assembly decided that as much as 10 percent of the Illinois workforce should have no biometric privacy protection whatsoever, simply by virtue of working in the health care field,” the nurses’ attorney, Jim Zouras, told the court.

PRIVACYDAILY

N. 166/2023

LE TRE NEWS DI OGGI:

  • IL PONTE DATI TRA UK E US APERTO APRIRA’ IL 12 OTTOBRE 
  • L’AUTORE DELLA LEGGE CALIFORNIANA SULLA PRIVACY DEI MINORI MESSA IN SOSPESO DAL TRIBUNALE VEDE FORTI PROSPETTIVE DI APPELLO
  • IL GOVERNO AVVERTE LE ORGANIZZAZIONI DI AUMENTARE LA SICUREZZA INFORMATICA

Tra poco meno di tre settimane, giovedì 12 ottobre, sarà formalmente aperto al traffico il previsto ponte per i dati tra Regno Unito e Stati Uniti, che consentirà alle aziende e alle organizzazioni britanniche di trasferire dati a organizzazioni certificate negli Stati Uniti.I regolamenti di adeguatezza che istituiscono il tanto atteso “ponte” sono stati depositati in Parlamento da Michelle Donelan, ministro per la scienza, l’innovazione e la tecnologia, giovedì 21 settembre, tre giorni dopo che il procuratore generale degli Stati Uniti Merrick Garland ha approvato lo status del Regno Unito come “Stato qualificante” ai sensi dell’Ordine esecutivo 14086. Questa designazione consente a tutti gli individui del Regno Unito i cui dati personali sono stati trasferiti negli Stati Uniti nell’ambito di qualsiasi meccanismo di trasferimento – compresi gli articoli 46 e 49 del GDPR britannico – di accedere al nuovo meccanismo di ricorso nel caso in cui ritengano che le autorità statunitensi abbiano avuto accesso illegalmente ai loro dati.Il Dipartimento per la Scienza, l’Innovazione e la Tecnologia (DSIT) ha dichiarato che il ministro ha stabilito che il ponte, che ufficialmente è l’estensione britannica del quadro sulla privacy dei dati UE-USA, non pregiudica il livello di protezione dei dati per gli interessati del Regno Unito quando i loro dati vengono trasferiti negli Stati Uniti, essenzialmente perché il quadro mantiene uno standard accettabilmente elevato di privacy per i dati dei cittadini britannici.Westminster spera che la creazione di un ponte per i dati, che ora è il suo “termine preferito” per indicare un accordo di adeguatezza dei dati, acceleri i processi per le imprese, riduca i costi e aumenti le opportunità per le organizzazioni britanniche che esportano servizi basati sui dati, che nel 2021 hanno esportato oltre 79 milioni di sterline di servizi basati sui dati nei soli Stati Uniti.

L’autore repubblicano di una legge californiana che prevede la protezione online degli adolescenti ha dichiarato che ci sono ottime prospettive di appello per annullare la decisione di un giudice federale di bloccare l’attuazione della misura.L’ex rappresentante di Stato Jordan Cunningham è stato uno dei legislatori che ha scritto il California Age Appropriate Design Code, una legge che limiterebbe la capacità delle app di raccogliere dati su chiunque abbia 18 anni o meno e richiederebbe loro di implementare i più alti standard di privacy per bambini e adolescenti. Il Gov. Gavin Newsom (D-CA) ha firmato la legge nel settembre 2022 dopo che era stata approvata dalla legislatura con un sostegno unanime, ma la legge è stata bloccata dalla Corte distrettuale per il distretto settentrionale della California su richiesta del gruppo conservatore dell’industria tecnologica NetChoice. Intepellato sull’ingiunzione, Cunningham ha dichiarato al Washington Examiner di provare “profonda delusione”, ma di ritenere la decisione “abbastanza vulnerabile all’appello”. Ha affermato che la decisione “ha oltrepassato il limite e ha applicato il livello di controllo più severo possibile”.”Abbiamo dedicato centinaia di ore di lavoro a questa proposta di legge, per darle forma e farla passare attraverso la legislatura”, ha detto. “Voglio dire, è passata all’assemblea statale per 74 a zero”.Cunningham ha affermato che l’ingiunzione blocca l’AADC in base allo standard legale del Primo Emendamento “strict scrutiny”. Lo standard richiede che il governo dimostri che la legge è il “mezzo meno restrittivo” per promuovere un interesse governativo “impellente” relativo alla parola. Ma l’AADC non influisce sul discorso, ha sostenuto Cunningham.

Il più alto funzionario informatico del governo ha avvertito venerdì le organizzazioni di aumentare le misure di sicurezza per proteggere le informazioni sensibili in loro possesso, aggiungendo che l’errore umano è sempre un fattore di violazione dei dati.I suoi commenti arrivano dopo che mercoledì scorso alcuni hacker hanno colpito il Consiglio dei consumatori, poche settimane dopo il furto di informazioni personali di varie persone dal Cyberport, di proprietà del governo. In entrambi i casi sono stati chiesti dei riscatti, con la prospettiva che i dati rubati venissero diffusi su Internet.Il Chief Information Officer del governo, Tony Wong, ha dichiarato che, sebbene gli attacchi degli hacker siano comuni, le organizzazioni devono adottare misure per proteggere i propri dati.”L’errore umano è una parte molto importante di tutti gli incidenti…. per esempio, ci sono alcune modifiche di sicurezza che [gli individui] dimenticano di fare nel sistema. Oppure ci sono persone che dimenticano di mantenere una password forte o che cliccano accidentalmente su un link dannoso”, ha affermato. “Naturalmente, in quanto azienda responsabile, devono anche avere una protezione dei dati sufficiente”. Wong ha detto che i funzionari hanno aiutato il parco tecnologico e l’ente di vigilanza, condividendo esperienze e offrendo supporto tecnico. Prima dell’ultimo attacco, il Segretario per l’Innovazione, la Tecnologia e l’Industria Sun Dong ha dichiarato che i dipartimenti governativi e le organizzazioni pubbliche sono stati invitati a rivedere le loro misure di sicurezza e ha dato ordine all’ufficio di Wong di agire per evitare che si ripeta quanto accaduto a Cyberport.Nel frattempo, il commissario per la privacy Ada Chung ha esortato le organizzazioni a fare tutto il necessario per evitare il ripetersi di incidenti simili, come ad esempio cancellare i dati personali di volta in volta. “Al fine di rafforzare i sistemi di sicurezza dei dati per prevenire attacchi malevoli ai loro sistemi, le organizzazioni dovrebbero adottare misure di sicurezza in modo tempestivo”, ha così concluso.

English version

  • UK-US DATA BRIDGE TO OPEN TO TRAFFIC ON 12 OCTOBER 
  • AUTHOR OF CALIFORNIA CHILD PRIVACY LAW PAUSED BY COURT SEES STRONG APPEAL PROSPECTS
  • GOVT AGAIN WARNS ORGANISATIONS TO BOOST CYBER SECURITY

The proposed UK-US data bridge will formally open to traffic in just under three weeks, on Thursday 12 October, enabling UK businesses and organisations to transfer data to certified organisations in the US.The adequacy regulations establishing the long-awaited bridge were laid in Parliament by Michelle Donelan, the minister for science, innovation and technology, on Thursday 21 September, three days after US attorney general Merrick Garland signed off on the UK’s status as a “qualifying state” under Executive Order 14086.This designation allows all UK individuals whose personal data has been transferred to the US under any transfer mechanism – including Articles 46 and 49 of the UK GDPR – access to the new redress mechanism should they believe US authorities have unlawfully accessed their data.The Department for Science, Innovation and Technology (DSIT) said the minister had determined that the bridge, which is officially the UK Extension to the EU-US Data Privacy Framework, does not undermine the level of data protection for UK data subjects when their data is transferred to the US, essentially that the framework maintains an acceptably high standard of privacy for data on UK citizens.Westminster hopes that establishing the data bridge, which is now its “preferred term” for a data adequacy agreement, will speed up processes for businesses, reduce costs and increase opportunities for UK organisations exporting data-enabled services – such organisations exported over £79m of data-enabled services to the US alone in 2021.

The Republican author of a California law providing online protections for teenagers said there are strong prospects for an appeal to undo a decision by a federal judge to pause implementation of the measure.Former State Rep. Jordan Cunningham was one of the legislators who wrote the California Age Appropriate Design Code, a law that would restrict apps’ ability to collect data on anyone 18 or younger and require them to implement their highest privacy standards for children and teenagers. It also would require platforms to add technology to verify users’ age before allowing access.Gov. Gavin Newsom (D-CA) signed the law in September 2022 after it passed the legislature with unanimous support, only for the law to be blocked by the District Court for the Northern District of California at the request of the conservative tech industry group NetChoice.When asked about the injunction, Cunningham told the Washington Examiner that he felt “profound disappointment” but believes the decision to be “quite vulnerable to appeal.” He said that the decision “overreached and applied the strictest level of scrutiny possible.”We spent hundreds of hours of work on this bill shaping it, getting it through the legislature,” he said. “I mean, it passed the state assembly for 74 to zero.”Cunningham said that the injunction blocks the AADC under the legal standard of First Amendment-related “strict scrutiny.” The standard requires the government to prove that the law is the “least restrictive means” to advance a “compelling” government interest related to speech. But the AADC doesn’t affect speech, Cunningham argued.

The government’s top IT official on Friday warned organisations to step up security measures to protect sensitive information they hold, adding that human error is always a factor in data breaches.His comments come after hackers struck at the Consumer Council on Wednesday, just weeks after personal information on various people was stolen from government-owned Cyberport. In both cases, ransoms were demanded, amid threats that the data stolen would be leaked on the internet.Government Chief Information Officer Tony Wong said that while hacker attacks are common, organisations must take steps to protect their data.”Human [error] is a very important part of every incident….for example, there are some security patches that [individuals] forget to do in the system. Or there are some individuals who forget to maintain a strong password, or accidentally click a malicious link,” he said. “Of course, as a responsible corporation, they also need to have sufficient data protection.” Wong said officials have been helping the technology park and watchdog, by sharing experiences and offering technical support. Before the latest attack, Innovation, Technology and Industry Secretary Sun Dong said government departments and public organisations had been told to review their security measures and he had directed Wong’s office to take action to avoid a repeat of what happened to Cyberport.Meanwhile, Privacy Commissioner Ada Chung urged organisations to do what it takes to prevent a repeat of similar incidents, such as deleting personal data from time to time. “In order to strengthen the data security systems to prevent malicious attacks on their systems, organisations should adopt security measures in a timely manner,” she said.

PRIVACYDAILY

N. 165/2023

LE TRE NEWS DI OGGI:

  • UK, SIGNAL RIBADISCE CHE LASCERA’ IL REGNO UNITO SE L’ONLINE SAFETY BILL NON CAMBIERA’
  • USA, GRUPPI DI CONSUMATORI ACCUSANO MASTERCARD DI VENDERE I DATI
  • AUSTRALIA, POLIZIA FEDERALE UTILIZZA AI PER ANALIZZARE I DATI

Sul palco del TechCrunch Disrupt 2023, Meredith Whittaker, presidente della Signal Foundation, che gestisce l’app di messaggistica senza scopo di lucro Signal, ha ribadito che Signal lascerà il Regno Unito se la legge sulla sicurezza online recentemente approvata dal Paese costringerà Signal a inserire “backdoor” nella sua crittografia end-to-end.”Lasceremmo il Regno Unito o qualsiasi altra giurisdizione se dovessimo scegliere tra il backdooring della nostra crittografia e il tradimento delle persone che contano su di noi per la privacy, oppure andarcene”, ha dichiarato Whittaker. “E questo non è mai stato vero”.Il disegno di legge sulla sicurezza online, approvato a settembre, include una clausola – la 122 – che, a seconda di come viene interpretata, potrebbe consentire all’ente regolatore delle comunicazioni del Regno Unito, Ofcom, di violare la crittografia di app e servizi con il pretesto di assicurarsi che materiale illegale come lo sfruttamento sessuale dei minori e i contenuti di abuso vengano rimossi.In base alla legge, l’Ofcom potrebbe multare le aziende non in regola fino a 18 milioni di sterline (22,28 milioni di dollari) o al 10% del loro fatturato annuo globale, a seconda di quale sia il valore più alto.La Whittaker non ha usato mezzi termini nell’esternare i suoi timori per le implicazioni della legge sulla sicurezza online: “Non ci occupiamo di trovate politiche, quindi non raccoglieremo i nostri prodotti e non ce ne andremo a casa per mostrare ai cattivi del Regno Unito che si stanno comportando male”, ha detto. “Siamo davvero preoccupati per le persone nel Regno Unito che vivrebbero sotto un regime di sorveglianza come quello che sembra essere preso in giro dal Ministero dell’Interno e da altri nel Regno Unito”.Whittaker ha fatto notare che Signal adotta una serie di misure per garantire che i suoi utenti rimangano anonimi, indipendentemente dalle leggi e dai regolamenti del loro paese. Alla domanda su quali dati Signal ha consegnato nei casi in cui ha ricevuto mandati di perquisizione, Whittaker ha risposto che si è limitato al numero di telefono registrato su un account Signal e all’ultima volta che un utente ha avuto accesso al proprio account.

Mastercard conserva registri dettagliati delle abitudini di spesa dei titolari di carte di credito, che poi vende a società terze, spesso all’insaputa dei clienti.È quanto emerge da un rapporto pubblicato giovedì dal Public Interest Research Group (PIRG) degli Stati Uniti, secondo cui Mastercard ha creato una divisione separata dedicata alla vendita dei dati sulle transazioni dei clienti, che è diventata un enorme fonte di guadagno per l’azienda globale di tecnologia dei pagamenti. In una dichiarazione rilasciata a CBS MoneyWatch, Mastercard ha negato di vendere i dati dei clienti. Il problema è che la maggior parte dei consumatori non è consapevole del grado di tracciamento e vendita dei propri dati o del fatto che la vendita di tali dati personali li espone a furti d’identità e truffe, oltre che a pubblicità “inquietantemente invasive”, avverte il gruppo di difesa dei consumatori.”Mastercard è così poco trasparente nella vendita dei suoi dati che è quasi certo che la maggior parte dei titolari di carta non si renda conto di ciò che la società sta facendo con i loro dati”, ha dichiarato a CBS MoneyWatch R.J. Cross, analista politico di U.S. PIRG. Secondo il rapporto PIRG, i dati venduti da Mastercard sono “aggregati e anonimizzati”, il che significa che le terze parti non dispongono delle informazioni individuali dei clienti. Sebbene ciò attenui alcuni dei rischi per i consumatori derivanti dalla monetizzazione dei dati, non impedisce alle aziende di “raggiungere le persone a livello individuale sulla base dei dati” o di essere bombardate con annunci fastidiosi, secondo l’agenzia per i consumatori. In considerazione di ciò, questa settimana i difensori dei consumatori di nove organizzazioni, tra cui l’American Civil Liberties Union e il Center for Digital Democracy, hanno inviato una lettera all’amministratore delegato di Mastercard Michael Miebach chiedendogli di interrompere la vendita dei dati dei clienti. “Siamo chiari: Mastercard non vende i dati personali dei titolari di carta di credito a fini di marketing, localizzazione o pubblicità mirata”, ha dichiarato giovedì Will Tsang, portavoce della società, a CBS MoneyWatch. “Abbiamo risposto alla signora Cross mesi fa, quando ci ha contattato. Tuttavia, i nostri chiarimenti sui fatti e la nostra offerta di incontrarla sono rimasti senza risposta”.

La polizia federale australiana ha dichiarato di utilizzare l’IA per analizzare i dati ottenuti con mandati di vigilanza mentre l’agenzia promette piena trasparenza sull’uso della tecnologia.In un documento di presentazione al documento di discussione del governo federale sull’uso responsabile dell’IA, l’AFP ha dichiarato che il suo uso della tecnologia è stato finora limitato, compreso l’uso dell’IA per tradurre materiale straniero in inglese.Tuttavia, ha osservato che gli strumenti di IA – compresi i modelli linguistici di grandi dimensioni (LLM) – offrono all’AFP l’opportunità di trovare informazioni utili in grandi insiemi di dati raccolti legalmente.”Accelerando il compito di individuare le informazioni, i membri possono prendere decisioni in anticipo ed eseguire le azioni necessarie di conseguenza”, ha dichiarato l’AFP, che ha indicato che l’AI potrebbe anche aiutare ad analizzare i dati transazionali per identificare modelli irregolari come il riciclaggio di denaro e le potenziali frodi.Nel 2021, l’AFP è stata messa sotto accusa dal commissario per la privacy per l’utilizzo da parte dei dipendenti della controversa tecnologia di riconoscimento facciale Clearview AI, che ha costruito il suo set di dati a partire da foto di persone prese dai social media senza il loro permesso. L’AFP ha smesso di usare la tecnologia, ma ha incontrato segretamente Clearview AI dopo aver dichiarato di aver smesso di usarla.Nella sua presentazione, l’AFP ha affermato che sarà trasparente e “intraprenderà proattivamente la due diligence sulle tecnologie prima della loro distribuzione”, tenendo conto di considerazioni etiche e di una solida governance e supervisione.”La polizia è profondamente legata alla società e deve riflettere i valori, le norme e le aspettative della comunità che serve e richiede in modo critico la supervisione e la responsabilità umana”.Un portavoce dell’AFP ha confermato che le informazioni sensibili ottenute dai mandati di cattura saranno inserite in LLM o reti neurali. Ma l’agenzia ha dichiarato di garantire la protezione dei dati, sia che si tratti di uno strumento interno che di un prodotto commerciale, in modo che non confluiscano in set di dati pubblici.I dati raccolti legalmente e utilizzati potrebbero includere dati raccolti in base a un mandato, tra cui dati di intercettazione delle telecomunicazioni e dati di sorveglianza.Il portavoce ha inoltre dichiarato che tutte le traduzioni linguistiche sono controllate da un operatore umano.

English version

  • UK, SIGNAL REITERATES THAT IT WILL LEAVE THE UNITED KINGDOM IF THE ONLINE SAFETY BILL DOES NOT CHANGE
  • USA, CONSUMER GROUPS ACCUSE MASTERCARD OF SELLING DATA
  • AUSTRALIA, FEDERAL POLICE USE AI TO ANALYSE DATA

Onstage at TechCrunch Disrupt 2023, Meredith Whittaker, the president of the Signal Foundation, which maintains the nonprofit Signal messaging app, reaffirmed that Signal would leave the U.K. if the country’s recently passed Online Safety Bill forced Signal to build “backdoors” into its end-to-end encryption.“We would leave the U.K. or any jurisdiction if it came down to the choice between backdooring our encryption and betraying the people who count on us for privacy, or leaving,” Whittaker said. “And that’s never not true.”The Online Safety Bill, which was passed into law in September, includes a clause — clause 122 — that, depending on how it’s interpreted, could allow the U.K.’s communications regulator, Ofcom, to break the encryption of apps and services under the guise of making sure illegal material such as child sexual exploitation and abuse content is removed.Ofcom could fine companies not in compliance up to £18 million ($22.28 million), or 10% of their global annual revenue, under the bill — whichever is greater.Whittaker didn’t mince words in airing her fears about the Online Safety Bill’s implications.“We’re not about political stunts, so we’re not going to just pick up our toys and go home to, like, show the bad U.K. they’re being mean,” she said. “We’re really worried about people in the U.K. who would live under a surveillance regime like the one that seems to be teased by the Home Office and others in the U.K.”Whittaker noted that Signal takes a number of steps to ensure its users remain anonymous regardless of the laws and regulations in their particular country. Asked onstage what data Signal’s handed over in the instances that it’s received search warrants, Whittaker said that it’s been limited to the phone number registered to a Signal account and the last time a user accessed their account.

Mastercard keeps detailed records of the spending habits of its credit card holders, which it then sells to third-party companies — often without customers’ knowledge.That’s according to a report published Thursday by the U.S. Public Interest Research Group (PIRG), which says that Mastercard has built a separate division dedicated to the selling of customer transaction data which has become a huge revenue stream for the global payments technology company. In a statement to CBS MoneyWatch, Mastercard denied selling customers’ data. The problem is that most consumers are not aware of the degree to which their data is being tracked and sold or that the sale of such personal data exposes them to identity theft and scams, in addition to “creepily invasive” advertising, the consumer advocacy group warns.”Mastercard is so opaque about its data sales it’s almost certain most cardholders don’t realize what the company is doing with their data,” R.J. Cross, policy analyst for U.S. PIRG, told CBS MoneyWatch. The data Mastercard sells is “aggregated and anonymized,” meaning third-parties don’t have customers’ individual information, according to the PIRG report. While that mitigates some of the consumer risks that come with data monetization, it does not prevent companies from “reaching people on an individual level based on data” or being bombarded with annoying ads, according to the consumer agency.With that in mind, consumer advocates from nine organizations, including the American Civil Liberties Union and the Center for Digital Democracy, sent a letter to Mastercard CEO Michael Miebach this week asking him to stop selling customers’ data. “Let us be clear – Mastercard does not sell personal cardholder data for marketing, location tracking or targeted advertising,” Will Tsang, a company spokesman, told CBS MoneyWatch on Thursday. “We had responded to Ms. Cross months ago when she originally contacted us. However, our clarification of the facts and an offer to meet with her went unanswered.”

The Australian federal police has said it uses AI to analyse data obtained under telecommunications and surveillance warrants, as the agency promises full transparency over the use of the technology. In a submission to the federal government’s discussion paper on the responsible use of AI, the AFP said its use of the technology had been limited so far, including using AI to translate foreign materials into English.But it noted that AI tools – including large language models (LLMs) – gave the AFP an opportunity to find useful information in large, lawfully collected datasets.“By speeding the discovery task, members can make decisions earlier and execute the necessary actions accordingly,” the AFP said.The AFP indicated it could also potentially help analyse transactional data to identify irregular patterns like money laundering and potential fraud.In 2021, the AFP came under fire from the privacy commissioner over employees using the controversial Clearview AI facial recognition technology, which built its dataset from photos of people taken from social media without their permission. The AFP has ceased using the technology, but secretly met with Clearview AI after it claimed to have stopped using the technology.The AFP said in its submission that it would be transparent and “proactively undertake due diligence into technologies before deployment”, taking into account ethical considerations and robust governance and oversight.“Policing is deeply connected to society and must reflect the values, norms and expectations of the community it serves and critically requires human oversight and accountability.”A spokesperson for the AFP confirmed that sensitive information obtained from warrants would be fed into LLMs or neural networks. But the agency said it ensures the data is protected, whether it is an in-house tool or when using a commercial product, so it would not feed into public datasets.The lawfully collected data used could include data collected under a warrant, including telecommunications interception data and surveillance data.The spokesperson also said all language translations are checked by a human.