Privacy Daily

PRIVACYDAILY

N. 140/2023

LE TRE NEWS DI OGGI:

  • SVEZIA, SPOTIFY SANZIONATA PER CIRCA 5 MILIONI DI EURO
  • UK, IL GOVERNO VUOLE RICORRERE SEMPRE PIU’ ALL’AI, MA GLI ATTIVISTI PRIVACY INVOCANO CAUTELA
  • A TOR VERGATA, NASCE L’OSSERVATORIO PER MONITORARE I BREACH SUI DISPOSITIVI MEDICI SVILUPPATI DALL’ATENEO

Spotify ha ricevuto una multa da 5 milioni di euro per violazione del Regolamento generale sulla protezione dei dati dell’Unione europea (Gdpr). La multa è arrivata dopo quattro anni di contenzioso portato avanti da Noyb, organizzazione no profit per i diritti digitali, dopo che l’azienda di streaming musicale svedese non ha rispettato il diritto degli utenti ad avere accesso ai loro dati e alle informazioni relative a come vengono usati. La causa contro Spotify è cominciata nel 2019, quando è stata denunciata per violazione dell’articolo 15 del Gdpr che sancisce il “diritto di accesso dell’interessato”. In base a questa disposizione, gli utenti hanno diritto all’accesso ai propri dati personali forniti, a conoscere le finalità del trattamento dei dati, il periodo di conservazione, la loro destinazione verso terze parti e il diritto a richiedere la loro cancellazione.Avendo Spotify sede in Svezia, la gestione del caso è stata affidata al Garante per la privacy svedese (Imy), ma per quattro anni l’Autorità per la protezione dei dati ha evitato di pronunciarsi, dichiarando addirittura che i titolari dei reclami non avessero diritto a essere parte in causa contro l’azienda. Una impasse già vista in Irlanda tra l’autorità locale e Meta. Così per sbloccare il procedimento, il 22 giugno 2022 Noyb ha fatto causa per inadempienza contro l’Imy presso la corte svedese, che si è schierata a favore del reclamo. E anche se la causa è ancora all’esame della Corte amministrativa suprema della Svezia, il 13 giugno l’Imy ha finalmente emesso la sua sentenza, condannando Spotify a 5 milioni di euro di multa.“Ottenere informazioni complete su come vengono elaborati i propri dati è un diritto fondamentale di ogni utente – ha dichiarato l’avvocato Stefano Rossetti specializzato in privacy di Noyb -. Siamo lieti di vedere che l’autorità svedese abbia finalmente agito, ma sosteniamo che debba assolutamente accelerare le sue procedure”.

Il governo rischia di minare la fiducia nell’IA se non diventa più aperto sul proprio uso della tecnologia, hanno avvertito gli attivisti. Il primo ministro Rishi Sunak ha cercato di posizionare il Regno Unito come leader nella progettazione di nuove regole sull’IA a livello globale. Ma gli attivisti per la privacy sostengono che l’uso che il Regno Unito fa dei sistemi guidati dall’IA è troppo opaco e rischia di essere discriminatorio. Il governo ha dichiarato di essere impegnato a creare “forti barriere” per l’IA. Il rapido sviluppo dell’intelligenza artificiale (IA) ha portato a una raffica di titoli di giornale carichi di sventura sui rischi che potrebbe comportare per l’umanità. Sunak ha dichiarato di volere che il Regno Unito diventi la “patria geografica” delle nuove norme di sicurezza e che in autunno ospiterà un vertice globale sulla regolamentazione. Tuttavia, diversi gruppi di attivisti sostengono che il governo britannico non stia facendo abbastanza per gestire i rischi posti dal crescente uso dell’IA in settori quali il welfare, l’immigrazione e l’edilizia abitativa. In un documento inviato ai parlamentari dei gruppi interpartitici sull’IA e l’analisi dei dati, visionato dalla BBC, si afferma che il pubblico dovrebbe ricevere maggiori informazioni su dove e come vengono utilizzati tali sistemi. Il documento è stato firmato da organizzazioni per le libertà civili, tra cui Liberty, Big Brother Watch, Open Rights Group e Statewatch, oltre che da numerosi gruppi per i diritti dei migranti e avvocati per i diritti digitali. Shameem Ahmad, direttore esecutivo del Public Law Project (PLP), un’associazione di beneficenza legale che ha coordinato la dichiarazione, ha affermato che il governo è “in ritardo” nella gestione dei rischi derivanti dall’uso dell’IA. Ha aggiunto che, mentre il chatbot ChatGPT ha “attirato l’attenzione di tutti”, le autorità pubbliche hanno utilizzato la tecnologia AI per anni, a volte in modo “segreto”. L’attuale strategia del governo per l’AI, definita in una dichiarazione politica di marzo, si è concentrata principalmente sul modo migliore per regolare il suo uso emergente nell’industria. Non ha stabilito nuovi limiti legali al suo utilizzo nel settore pubblico o privato, sostenendo che farlo ora potrebbe soffocare l’innovazione. Le autorità di regolamentazione esistenti elaboreranno invece nuove linee guida per l’industria. Ciò segna un contrasto con l’Unione Europea, che intende vietare alle autorità pubbliche l’uso dell’IA per classificare il comportamento dei cittadini e introdurre limiti severi al riconoscimento facciale alimentato dall’IA per l’applicazione della legge negli spazi pubblici. Anche l’uso di strumenti di IA per la gestione delle frontiere sarebbe soggetto a nuovi controlli, come la registrazione in un registro a livello europeo. Nella loro dichiarazione, i gruppi della campagna hanno affermato che il progetto del Regno Unito ha perso una “opportunità vitale” di rafforzare le salvaguardie sulle modalità di utilizzo dell’IA da parte degli enti governativi.

Pressione, temperatura, presenza di infezioni nel cuore. Sono tante le informazioni che il pace-maker di un paziente cardiopatico può trasmettere al medico, anche a distanza. Basta un piccolo sensore. Stesso discorso per gli infusori utilizzati dai diabetici. All’Università Tor Vergata si lavora per rendere questi strumenti sempre più intelligenti senza però dimenticare la privacy e la sicurezza. I dati dei pazienti potrebbero infatti essere trafugati per carpire preziose informazioni sulla salute. Per questo motivo è nato Cyber4health, il primo osservatorio mondiale sulle vulnerabilità dei dispositivi medicali sviluppato dall’ateneo Tor Vergata all’interno di un consorzio di cui fanno parte le università romane e una serie di aziende del settore. A correre rischi sono soprattutto personaggi in vista come politici o militari possibili bersagli di attacchi hacker. Un ricatto a cui sono esposti anche i produttori dei dispositivi. Tutti gli strumenti connessi alla rete, come i macchinari per le TAC o i robot chirurgici, se non protetti a dovere, potrebbero essere attaccati

English version

  • SWEDEN, SPOTIFY FINISHED FOR ABOUT 5 MILLION EUROS
  • UK, GOVERNMENT WANTS TO USE AI MORE AND MORE, BUT PRIVACY ACTIVISTS CALL FOR CAUTION
  • AT TOR VERGATA, OBSERVATORY IS BORN TO MONITOR BREACHES ON MEDICAL DEVICES DEVELOPED BY THE ATHENAEUM

Spotify has received a €5 million fine for violating the European Union’s General Data Protection Regulation (GDPR). The fine came after four years of litigation brought by Noyb, a nonprofit digital rights organization, after the Swedish music streaming company failed to respect users’ right to access their data and information about how it is used. The lawsuit against Spotify began in 2019, when it was sued for violating Article 15 of the GDPR, which enshrines the “data subject’s right of access.” According to this provision, users have the right to access their personal data provided, to know the purpose of the data processing, the retention period, its destination to third parties, and the right to request its deletion.As Spotify is based in Sweden, the case was handled by the Swedish Data Protection Authority (Imy), but for four years the DPA avoided ruling, even declaring that the holders of the complaints had no right to be a party to the lawsuit against the company. An impasse already seen in Ireland between the local authority and Meta. So to unblock the proceedings, on June 22, 2022, Noyb filed a default suit against Imy in the Swedish court, which sided with the complaint. And although the case is still before the Supreme Administrative Court of Sweden, Imy finally issued its ruling on June 13, condemning Spotify to a €5 million fine. “Getting full information about how your data is processed is a fundamental right of every user,” said Noyb privacy lawyer Stefano Rossetti. “We are glad to see that the Swedish authority has finally acted, but we argue that it absolutely must speed up its procedures.

The government risks undermining faith in AI unless it becomes more open about its own use of the technology, campaigners have warned. Prime Minister Rishi Sunak has sought to position the UK as a leader in designing new AI rules at a global level. But privacy campaigners say its own use of AI-driven systems is too opaque and risks discrimination. The government said it was committed to creating “strong guardrails” for AI. The rapid development of artificial intelligence (AI) has led to a flurry of doom-laden headlines about the risks it could pose to humanity. Mr Sunak has said he wants the UK to become the “geographical home” of new safety rules, and will host a global summit on regulation in the autumn. However, several campaign groups say the UK government is not doing enough to manage the risks posed by its own increasing use of AI in fields such as welfare, immigration and housing. In a document sent to MPs on cross-party groups on AI and data analytics, seen by the BBC, they say the public should be given more information about where and how such systems are used. It has been signed by civil liberties organisations including Liberty, Big Brother Watch, Open Rights Group and Statewatch, as well as a number of migrant rights groups and digital rights lawyers. Shameem Ahmad, chief executive of the Public Law Project (PLP), a legal charity co-ordinating the statement, said the government was “behind the curve” in managing risks from its AI use. She added that whilst AI chatbot ChatGPT had “caught everyone’s attention”, public authorities had been using AI-powered technology for years, sometimes in a “secretive” manner.The government’s current strategy for AI, set out in a policy statement in March, focused mainly on how best to regulate its emerging use in industry. It did not set out any new legal limits on its use in either the private or public sectors, arguing that to do so now could stifle innovation. Instead, existing regulators will come up with new industry guidance. It marks a contrast with the European Union, which is set to ban public authorities using AI to classify citizens’ behaviour, and bring in strict limits on AI-powered facial recognition for law enforcement in public spaces. The use of AI tools for border management would also be subject to new controls, such as being recorded in an EU-wide register. In their statement, the campaign groups said the UK’s own blueprint had missed a “vital opportunity” to beef up safeguards on how government bodies use AI.

Blood pressure, temperature, presence of infection in the heart. There is so much information that a heart patient’s pacemaker can transmit to the doctor, even remotely. All it takes is a small sensor. Same goes for infusers used by diabetics. At Tor Vergata University, work is being done to make these instruments increasingly smart, but without forgetting privacy and security. In fact, patients’ data could be stolen to steal valuable health information. For this reason, Cyber4health, the world’s first observatory on the vulnerabilities of medical devices developed by the Tor Vergata University within a consortium that includes Roman universities and a number of companies in the sector, was born. At risk are mainly prominent figures such as politicians or military personnel who are possible targets of hacker attacks. A blackmail to which the manufacturers of the devices are also exposed. All network-connected instruments, such as CT machines or surgical robots, if not properly protected, could be attacked.