PRIVACYDAILY

N. 123/2023

LE TRE NEWS DI OGGI:

  • IRLANDA, META SANZIONATA PER 1,2 MILIARDI DI EURO
  • COMMISSIONE EU: L’ANALLISI DEI MESSAGGI PER CONTRASTARE LA PEDOPORNOGRAFIA NON E’ CONTRO I DIRITTI FONDAMENTALI
  • IL CAPO DEGLI AFFARI INTERNI PEZZULLI E’ STATO INTERROGATO SULLE REGOLE DEI SOCIAL DOPO IL DIVIETO DI TIKTOK

L’Autorità garante della privacy irlandese ha deciso di infliggere una multa record da 1,2 miliardi di euro a Meta per violazione delle legge europea sulla protezione dei dati tramite il social Facebook. Lo ha reso noto il Garante europeo per la privacy. Si tratta della più alta sanzione imposta da un regolatore della protezione dei dati in Europa, risultato di un’indagine avviata nel 2020. Meta, che intende presentare ricorso, è stata condannata per aver “continuato a trasferire dati personali” di utenti dallo Spazio economico europeo (See) agli Stati Uniti in violazione delle norme europee in materia, ha indicato nella sua decisione la Commissione irlandese per la protezione dei dati (Dpc). Meta deve inoltre “sospendere qualsiasi trasferimento di dati personali negli Stati Uniti entro cinque mesi” dalla notifica della decisione e deve conformarsi entro sei mesi, si legge ancora nella nota. Meta definisce la multa “ingiustificata e non necessaria” e avvierà un’azione legale per sospenderla, ha reagito immediatamente il gigante dei social media in una dichiarazione. “Migliaia di aziende e organizzazioni fanno affidamento sulla capacità di trasferire dati tra Ue e Usa” e “c’è un conflitto di diritti fondamentali tra le regole del governo Usa sull’accesso ai dati e i diritti europei alla privacy” ha spiegato il colosso californiano

La Commissione europea ha difeso la sua proposta legislativa per combattere il materiale pedopornografico (CSAM) in un documento informale, sostenendo che non è incompatibile con la Carta dei diritti fondamentali dell’UE e con la giurisprudenza. La legge sul materiale pedopornografico autorizzerebbe le autorità giudiziarie a emettere ordini di rilevamento che impongano a piattaforme come WhatsApp e Gmail di implementare strumenti automatizzati per analizzare tutte le comunicazioni sui loro servizi al fine di individuare contenuti sospetti e tentativi di “pedofilia”. Da quando la proposta è stata presentata l’anno scorso, ha ricevuto un’accoglienza contrastante, dovuta in parte al suo effetto sproporzionato sui diritti fondamentali, da parte del Garante europeo della protezione dei dati (GEPD), da una valutazione esterna del Parlamento europeo e dal servizio giuridico del Consiglio dell’UE. Proprio quest’ultimo, particolarmente influente nel processo decisionale dell’UE, sembra aver spinto la Commissione europea ad assumere una posizione difensiva in un documento informale del 16 maggio all’organo tecnico competente del Consiglio dell’UE. “I servizi della Commissione ritengono che le norme proposte e la giurisprudenza disponibile fino ad oggi, considerate nella loro interezza e correttamente interpretate, non forniscano alcun motivo per concludere che su questo punto il regolamento proposto sia incompatibile con la Carta [dei diritti fondamentali dell’UE]”, si legge nel documento, a cui EURACTIV ha avuto accesso. Per garantire ciò, le ingiunzioni possono essere emesse solo dopo una “valutazione preventiva obbligatoria del rischio e un processo di mitigazione”. Il tribunale nazionale competente deve innanzitutto valutare se vi siano prove di un rischio significativo che il servizio sia utilizzato per abusi sessuali su minori e se le ragioni per emettere l’ingiunzione siano superiori alle conseguenze negative, dopo aver bilanciato tutti i diritti fondamentali e altri diritti e interessi in gioco. Inoltre, la Commissione europea ha sottolineato che anche le autorità pubbliche indipendenti devono essere coinvolte nel processo. Una delle garanzie a questo proposito è che i fornitori di servizi soggetti a un ordine di rilevamento “devono riferire regolarmente sull’attuazione e l’autorità nazionale competente deve valutare regolarmente se l’obbligo di rilevamento debba essere modificato”, al fine di garantire “un’efficace gestione dei ricorsi e dei reclami” e altri controlli.

Il gabinetto federale sta chiedendo il parere del Dipartimento degli Affari Interni sui rischi per la sicurezza di Instagram, Netflix, Twitter e delle app di incontri, sulla scia del divieto di TikTok sui dispositivi in dotazione al governo. Il segretario del Dipartimento Mike Pezzullo ha confermato che il rapporto di una revisione interna dei rischi dei social media è stato fornito al Ministro degli Affari Interni Clare O’Neil a marzo, durante l’audizione del Senato di lunedì scorso. Pezzullo si è rifiutato di rivelare la natura del parere, ma ha lasciato intendere che il gabinetto stava prendendo in considerazione la possibilità di limitare l’uso di applicazioni diverse da TikTok quando ha detto che la signora O’Neil aveva deciso di presentare la revisione al gabinetto. Il ministro ha deciso di sottoporre la questione ai suoi colleghi. È attualmente oggetto di considerazione da parte di tutto il governo”, ha dichiarato. “Ha chiesto l’approvazione per l’esame della questione attraverso i processi di governo”. Pezzullo ha fatto queste osservazioni dopo che gli era stato chiesto se il dipartimento avesse svolto una “due diligence” sull’uso di applicazioni diverse da TikTok sui telefoni e sui computer portatili dei dipendenti pubblici, sulla scia dell’ampio divieto francese. A marzo il governo francese ha annunciato un divieto non solo su Tik Tok, ma su tutte le piattaforme di social media, giochi e applicazioni di video-streaming come Twitter, Instagram, Netflix e Candy Crush, a causa di problemi di cybersicurezza e privacy. Pezzullo ha risposto a una domanda se avrebbe fornito una copia della revisione dei rischi dei social media da parte degli Affari interni alla commissione del Senato che sta conducendo l’audizione sulle stime, dicendo che avrebbe chiesto indicazioni alla signora O’Neil in merito alla sua pubblicazione. Ha confermato che l’analisi faceva parte della più ampia indagine che il Ministro degli Interni Clare O’Neil ha commissionato all’inizio dell’anno sui rischi posti dall’uso delle piattaforme di social media sui dispositivi in dotazione al governo. Tale indagine ha spinto il governo Albanese a vietare TikTok sui telefoni e sui computer di politici e dipendenti pubblici ad aprile, per timori legati alla sicurezza che l’app cinese rappresentasse un rischio di spionaggio e a seguito di divieti simili in altri Paesi occidentali.Il governo non ha annunciato un divieto su altre piattaforme.

English version

  • IRELAND, META SANCTIONETED FOR 1.2 BILLION EUROS.
  • EU COMMISSION: ANALYSIS OF MESSAGES TO COUNTER PEDOPORNOGRAPHY IS NOT AGAINST FUNDAMENTAL RIGHTS
  • HEAD OF INTERNAL AFFAIRS PEZZULLI WAS QUESTIONED ABOUT SOCIAL MEDIA RULES AFTER TIKTOK BAN

Ireland’s Privacy Authority has decided to impose a record €1.2 billion fine on Meta for violating European data protection laws through the social Facebook. This was announced by the European Privacy Authority. It is the highest fine imposed by a data protection regulator in Europe, the result of an investigation launched in 2020. Meta, which plans to appeal, was convicted of “continuing to transfer personal data” of users from the European Economic Area (EEA) to the United States in violation of relevant European rules, the Irish Data Protection Commission (Dpc) indicated in its decision. Meta must also “suspend any transfer of personal data to the U.S. within five months” of notification of the decision and must comply within six months, the memo further states. Meta calls the fine “unjustified and unnecessary” and will initiate legal action to suspend it, the social media giant reacted immediately in a statement. “Thousands of companies and organizations rely on the ability to transfer data between the EU and the U.S.” and “there is a fundamental rights conflict between U.S. government rules on data access and European privacy rights,” the California-based giant explained.

The European Commission has defended its legislative proposal to combat child sexual abuse material (CSAM) in a non-paper, arguing that it is not incompatible with the EU Charter of Fundamental Rights and case law. The Child Sexual Abuse Material Act would empower judicial authorities to issue detection orders requiring platforms such as WhatsApp and Gmail to implement automated tools to analyze all communications on their service to detect suspicious content and attempts at “pedophilia.” Since the proposal was introduced last year, it has received a mixed reception due in part to its disproportionate effect on fundamental rights from the European Data Protection Supervisor (EDPS), an external evaluation by the European Parliament, and the EU Council’s legal service. It is precisely the latter, which is particularly influential in EU policy-making, that seems to have prompted the European Commission to take a defensive stance in a May 16 non-paper to the relevant technical body of the EU Council. “The Commission services consider that the proposed rules and the case law available to date, considered in their entirety and correctly interpreted, provide no reason to conclude that on this point the proposed regulation is incompatible with the Charter [of Fundamental Rights of the EU],” reads the non-paper, accessed by EURACTIV.The document reiterates that detection orders are meant to be used only as a last resort. To ensure this, injunctions can only be issued after a “mandatory prior risk assessment and mitigation process.” The competent national court must first consider whether there is evidence of a significant risk that the service is being used for child sexual abuse and whether the reasons for issuing the injunction outweigh the negative consequences, after balancing all fundamental rights and other rights and interests at stake. In addition, the European Commission has stressed that independent public authorities must also be involved in the process. One of the safeguards in this regard is that service providers who are subject to a detection order “shall regularly report on the implementation, and the competent national authority shall regularly assess whether the detection obligation should be modified” in order to ensure “effective redress and complaint handling” and other controls.

Federal cabinet is canvassing advice from the Home Affairs Department on the security risks of Instagram, Netflix, Twitter and dating apps in the wake of a TikTok ban on government-issued devices. Department secretary Mike Pezzullo confirmed the report from an internal review of social media risks had been provided to Home Affairs Minister Clare O’Neil in March as he was grilled at a Senate estimates hearing on Monday. While Mr Pezzullo refused to disclose the nature of the advice, he hinted cabinet was considering restricting the use of apps other than TikTok when he said Ms O’Neil had decided to present the review to cabinet. The minister has made a decision to bring this forward to her colleagues. It’s currently the subject of consideration across government,” he said. “She … has sought approval for the matter to be considered through cabinet processes.” Mr Pezzullo made the remarks after he was asked if the department had carried out “due diligence” on the use of apps other than TikTok on public servants’ phones and laptops in the wake of France’s wide-ranging ban. The French government in March announced a ban not only on Tik Tok, but on all social media platforms, gaming and video-streamed apps such as Twitter, Instagram, Netflix and Candy Crush because of cybersecurity and privacy concerns. Mr Pezzullo took a question on whether he would provide a copy of Home Affairs’ social media risk review to the Senate committee running the estimates hearing on notice, saying he’d seek guidance from Ms O’Neil regarding its release. He confirmed the review formed part of the broader investigation Home Affairs Minister Clare O’Neil commissioned earlier this year into the risks posed by the use of social media platforms on government-issued devices. That probe prompted the Albanese government to ban TikTok on phones and computers operated by politicians and public servants in April, over security concerns the Chinese social media app posed an espionage risk and following similar bans in other western countries. The government hasn’t announced a ban on any other platforms.

PRIVACYDAILY

N. 118/2023

LE TRE NEWS DI OGGI:

  • WHATSAPP PERMETTERA’ AGLI UTENTI DI BLOCCARE E NASCONDERE LE CONVERSAZIONI
  • LA PIU’ GRANDE BANCA ISLAMICA INDONESIANA DICHIARA CHE I DATI DEI CLIENTI SONO AL SICURO
  • PARERE LEGALE DEL CONSIGLIO UE DA UNO SCHIAFFO ALLA LEGGE CONTRO GLI ABUSI SESSUALI SUI MINORI

Gli utenti di WhatsApp potranno presto bloccare e nascondere le conversazioni grazie a una nuova funzione. Chat Lock rimuoverà un thread di chat dalla normale casella di posta sullo schermo dell’app e lo inserirà in una nuova cartella che potrà essere aperta solo tramite una password o un dato biometrico, come il riconoscimento facciale o l’impronta digitale. È l’ultima di una serie di funzioni del servizio di messaggistica criptata utilizzato in tutto il mondo, che lo mette in contrasto con la legge sulla sicurezza online del governo britannico. Mark Zuckerberg, amministratore delegato di Meta, ha confermato la nuova funzione in un post su Facebook. L’azienda ha già avvertito che preferirebbe che agli utenti britannici venisse impedito di utilizzare i suoi servizi piuttosto che rischiare di compromettere la loro privacy. Ma un portavoce del governo ha insistito sul fatto che la legge “non richiederà alle aziende di rompere la crittografia end-to-end o di monitorare abitualmente le comunicazioni private”. “Alcuni hanno definito questa proposta di legge come una scelta  tra privacy e sicurezza: ma è sbagliato”, ha aggiunto il portavoce che ha  proseguito: “Siamo a favore di una crittografia forte, ma questa non può andare a scapito della sicurezza pubblica . “Grazie al nostro approccio favorevole all’innovazione, siamo fiduciosi che la tecnologia possa supportare l’implementazione della crittografia end-to-end in modo tale da proteggere i bambini dagli abusi online, rispettando al contempo la privacy degli utenti”. Anche alcune associazioni di beneficenza, tra cui l’NSPCC, affermano di sostenere gli obiettivi della proposta di legge e i sondaggi indicano che essa gode del sostegno di un gran numero di adulti britannici. Tuttavia, la piattaforma di messaggistica Element, con sede nel Regno Unito e utilizzata da enti come il Ministero della Difesa, il Corpo dei Marines degli Stati Uniti e le forze armate ucraine, ha affermato che la proposta di legge è “assolutamente pericolosa” e indebolirebbe la sicurezza nazionale. Matthew Hodgson, amministratore delegato di Element, ha dichiarato: “I cattivi attori non giocano secondo le regole. Gli Stati nazione, i terroristi e i criminali che non rispettano le regole prenderanno di mira questo accesso con ogni risorsa a loro disposizione”. Hodgson ha aggiunto: “È uno shock vedere il Regno Unito, un Paese simbolo di democrazia e libertà, introdurre una sorveglianza di massa di routine e minare fondamentalmente la crittografia. “I cattivi attori continueranno semplicemente a utilizzare le applicazioni non regolamentate esistenti, mentre i buoni attori che utilizzano applicazioni conformi vedranno compromessa la loro privacy”. L’ampia legislazione mira a regolamentare i contenuti di Internet per mantenere le persone al sicuro e darebbe all’ente regolatore dei media Ofcom il potere di richiedere alle piattaforme di identificare e rimuovere i contenuti pedopornografici. Se si rifiutano di adeguarsi, le aziende potrebbero incorrere in multe salate.

Il più grande istituto di credito islamico indonesiano, Bank Syariah Indonesia (BSI) (BRIS.JK), ha dichiarato  di essere al lavoro con le autorità di regolamentazione per proteggere la propria sicurezza informatica, dopo che i media hanno riferito che i dati dei conti di 15 milioni di clienti sono stati pubblicati online.  La violazione dei dati, che secondo un esperto di cybersicurezza è stata la peggiore del Paese per un istituto finanziario, è l’ultima di una serie di fughe di notizie avvenute negli ultimi anni presso aziende e agenzie governative indonesiane. BSI, uno dei 10 principali istituti di credito in Indonesia, in un comunicato non ha confermato la fuga di dati, ma ha affermato che sta “conducendo sforzi di recupero, revisione e mitigazione in modo che non si verifichino simili interruzioni” .”Speriamo che i clienti possano rimanere tranquilli perché possiamo assicurare che i loro dati e i loro fondi sono al sicuro e che le transazioni sono sicure”, ha dichiarato la banca. L’Autorità indonesiana per i servizi finanziari ha dichiarato poi di non essere in grado di stabilire con certezza se si tratti di una fuga di dati, aggiungendo che sta conducendo un esame forense. La banca ha aggiunto che l’8 maggio i servizi finanziari del prestatore sono stati interrotti, compresi i prelievi agli sportelli automatici e l’online banking, a causa di “interferenze” nel suo sistema, ma che il problema è stato risolto il 9 maggio. Secondo l’esperto di sicurezza informatica Teguh Aprianto e la società di sicurezza tecnologica DarkTracer, con sede a Singapore, il gruppo di hacker LockBit 3.0 ha rivendicato la responsabilità dell’attacco. LockBit, che in passato ha preso di mira il gruppo francese di difesa e tecnologia Thales, ha dichiarato di aver avuto accesso ai dati di BSI l’8 maggio e di averli pubblicati online martedì. Reuters non ha potuto verificare in modo indipendente la rivendicazione del gruppo. Il quotidiano indonesiano Tempo ha dichiarato di aver verificato alcune delle informazioni trapelate con i clienti di BSI. “Questo è il peggior attacco a una banca”, ha dichiarato Teguh, un consulente di cybersicurezza i cui clienti passati includono una banca locale e diverse aziende di tecnologia finanziaria, aggiungendo che i dettagli trapelati includono i titolari dei conti bancari, i numeri, i saldi e la cronologia delle transazioni.

Il servizio giuridico del Consiglio dei ministri dell’UE ha criticato la proposta dell’Unione europea per la lotta al materiale pedopornografico (CSAM), criticando in particolare l’ambiguità degli ordini di rilevamento e il loro possibile impatto sui diritti alla privacy. Il progetto di legge sul CSAM è stato oggetto di controversie da quando è stato proposto dalla Commissione europea lo scorso anno. Questo conferisce alle autorità giudiziarie il potere di emettere ordini di accertamento nei confronti di fornitori di servizi di comunicazione che considerano a rischio significativo di essere utilizzati per diffondere questo tipo di contenuti illegali. Dopo aver ricevuto un ordine di rilevamento, servizi come Gmail o WhatsApp sarebbero costretti a implementare strumenti che scansionano automaticamente e-mail o testi privati per individuare i contenuti sospetti. Questo strumento è stato accusato di colpire in modo sproporzionato la privacy delle persone, poiché potenzialmente ogni persona che utilizza il servizio potrebbe essere interessata. A queste preoccupazioni ha fatto eco il Garante europeo della protezione dei dati, uno studio commissionato dal Parlamento europeo. Nel testo della Commissione, gli ordini di rilevamento possono essere emessi da un organo giudiziario nazionale o da un organo amministrativo indipendente per individuare materiale noto, nuovo materiale e grooming, la pratica dei predatori che cercano di adescare i bambini. Sebbene l’intento dichiarato sia quello di rendere la proposta tecnologicamente neutrale, il parere legale osserva che “il contenuto di tutte le comunicazioni deve essere accessibile e scansionato, e deve essere eseguito utilizzando gli strumenti automatizzati disponibili”. Sulla carta, il progetto di legge dovrebbe anche essere il meno invasivo possibile in termini di impatto sui diritti degli utenti alla privacy e alla protezione dei dati. Tuttavia, il parere osserva che se tutte le comunicazioni devono essere scansionate “con l’assistenza di un’operazione automatizzata”, ciò interferisce “con il diritto alla protezione dei dati, indipendentemente dall’uso successivo di tali dati”. Il parere legale aggiunge che l’applicazione degli ordini non può “superare i 24 mesi per la diffusione di CSAM noti o nuovi e i 12 mesi per l’adescamento di minori”. Secondo il documento, gli ordini di rilevamento non sono “sufficientemente chiari, precisi e completi”. Ad esempio, non viene spiegato cosa si intenda per tecnologia “efficace”. Il significato spetta in ultima analisi ai fornitori di servizi, il che solleva “seri dubbi sulla prevedibilità dell’impatto di queste misure sui diritti fondamentali in gioco” .L’entità dell’interferenza sarebbe determinata da coloro che scelgono le tecnologie utilizzate per attuare “l’ordine di rilevamento caso per caso”, come il Centro dell’UE, le autorità nazionali, i giudici e i fornitori di servizi.” L’ampiezza della discrezionalità potrebbe dare adito a una gamma molto ampia di possibili interpretazioni e preoccupazioni diverse per quanto riguarda il rispetto dei diritti fondamentali”, si legge nel parere legale, che chiede limitazioni più dettagliate.

English version

  • WHATSAPP WILL ALLOW USERS TO BLOCK AND HIDE CONVERSATIONS
  • INDONESIAN’S LARGEST ISLAMIC BANK SAYS CUSTOMER DATA IS SAFE
  • EU COUNCIL’S LEGAL OPINION GIVES SQUASH TO LAW AGAINST CHILD SEXUAL ABUSE

WhatsApp users will soon be able to lock and hide conversations thanks to a new feature. Chat Lock will remove a chat thread from the normal inbox on the app’s screen and place it in a new folder that can only be opened via a password or biometric data, such as facial recognition or fingerprint. It is the latest in a series of features on the encrypted messaging service used worldwide that puts it at odds with the British government’s online security law. Mark Zuckerberg, Meta’s CEO, confirmed the new feature in a Facebook post. The company has already warned that it would rather have British users prevented from using its services than risk compromising their privacy. But a government spokesman insisted that the bill “will not require companies to break end-to-end encryption or routinely monitor private communications.” “Some have called this bill a choice between privacy and security: but that is wrong,” added the spokesman, who continued: “We are in favor of strong encryption, but this cannot come at the expense of public safety . “With our pro-innovation approach, we are confident that technology can support the implementation of end-to-end encryption in a way that protects children from online abuse while respecting users’ privacy.” A number of charities, including the NSPCC, also say they support the bill’s goals, and polls indicate that it has the support of a large number of British adults. However, the U.K.-based messaging platform Element, which is used by entities such as the Ministry of Defense, the U.S. Marine Corps and the Ukrainian armed forces, said the bill is “absolutely dangerous” and would weaken national security. Matthew Hodgson, CEO of Element, said, “Bad actors don’t play by the rules. Nation states, terrorists and criminals who don’t play by the rules will target this access with every resource at their disposal.” Hodgson added: “It is a shock to see the United Kingdom, a country that is a symbol of democracy and freedom, introduce routine mass surveillance and fundamentally undermine encryption. “Bad actors will simply continue to use existing unregulated applications, while good actors using compliant applications will see their privacy compromised.” The broad legislation aims to regulate Internet content to keep people safe and would give media regulator Ofcom the power to require platforms to identify and remove content.

 Indonesia’s largest Islamic lending institution, Bank Syariah Indonesia (BSI) (BRIS.JK), said it is working with regulators to protect its cybersecurity after media reports that account data of 15 million customers was posted online.  The data breach, which one cybersecurity expert said was the worst in the country for a financial institution, is the latest in a series of leaks in recent years at Indonesian companies and government agencies. BSI, one of the top 10 lending institutions in Indonesia, in a statement did not confirm the data leak, but said it is “conducting recovery, review and mitigation efforts so that similar disruptions do not occur” . “We hope customers can remain reassured that their data and funds are safe and that transactions are secure,” the bank said. The Indonesian Financial Services Authority later said it was unable to determine with certainty whether this was a data leak, adding that it is conducting a forensic examination. The bank added that the lender’s financial services were disrupted on May 8, including ATM withdrawals and online banking, due to “interference” in its system, but that the problem was resolved on May 9. According to cybersecurity expert Teguh Aprianto and Singapore-based technology security firm DarkTracer, the hacker group LockBit 3.0 claimed responsibility for the attack. LockBit, which has previously targeted French defense and technology group Thales, said it accessed BSI data on May 8 and posted it online on Tuesday. Reuters could not independently verify the group’s claim. The Indonesian newspaper Tempo said it had verified some of the leaked information with BSI customers. “This is the worst attack on a bank,” said Teguh, a cybersecurity consultant whose past clients include a local bank and several financial technology companies, adding that the leaked details include bank account holders, numbers, balances and transaction history.

 The Legal Service of the EU Council of Ministers has criticized the European Union’s proposal to combat child pornography (CSAM), criticizing in particular the ambiguity of detection orders and their possible impact on privacy rights. The draft law on CSAM has been controversial since it was proposed by the European Commission last year. It gives judicial authorities the power to issue discovery orders against communication service providers that they consider to be at significant risk of being used to disseminate this type of illegal content. After receiving a discovery order, services such as Gmail or WhatsApp would be forced to implement tools that automatically scan private emails or texts for suspicious content. This tool has been accused of disproportionately affecting people’s privacy, as potentially every person using the service could be affected. These concerns were echoed by the European Data Protection Supervisor, a study commissioned by the European Parliament. In the commission’s text, detection orders can be issued by a national judicial body or an independent administrative body to detect known material, new material, and grooming, the practice of predators seeking to lure children. Although the stated intent is to make the proposal technologically neutral, the legal opinion notes that “the content of all communications must be accessible and scanned, and must be performed using available automated tools.” On paper, the bill should also be as least intrusive as possible in terms of its impact on users’ rights to privacy and data protection. However, the opinion notes that if all communications are to be scanned “with the assistance of an automated operation,” this interferes “with the right to data protection, regardless of the subsequent use of such data.” The legal opinion adds that enforcement of the orders cannot “exceed 24 months for dissemination of known or new CSAMs and 12 months for solicitation of minors.”According to the document, the detection orders are not “sufficiently clear, precise and complete.” For example, it is not explained what is meant by “effective” technology. The meaning is ultimately up to the service providers, which raises “serious doubts about the predictability of the impact of these measures on the fundamental rights at stake.” .The extent of interference would be determined by those who choose the technologies used to implement the “detection order on a case-by-case basis,” such as the EU Center, national authorities, judges and service providers.” The breadth of discretion could give rise to a very wide range of possible

PRIVACY DAILY 111/2023

Alcuni ministri del governo britannico hanno avvertito che WhatsApp potrebbe sparire dal Regno Unito. Le opzioni per una risoluzione amichevole si stanno rapidamente esaurendo. Al centro del contenzioso c’è l’Online Safety Bill, un provvedimento legislativo che riguarderà quasi tutti gli aspetti della vita online in Gran Bretagna. Il disegno di legge, che è alla Camera dei Lord, è lungo più di 250 pagine e ha visto la partecipazione di otto segretari di Stato e cinque primi ministri. Solo l’indice si estende per 10 pagine. Il disegno di legge conferisce all’Ofcom il potere di imporre ai social network l’uso di tecnologie per contrastare il terrorismo o i contenuti pedopornografici, con multe fino al 10% del fatturato globale per i servizi che non si adeguano. Le aziende devono fare i “migliori sforzi” per sviluppare o procurarsi la tecnologia necessaria per rispettare l’avviso. Ma per le app di messaggistica che proteggono i dati degli utenti con la “crittografia end-to-end” (E2EE), dichiarano che è tecnologicamente impossibile leggere i messaggi degli utenti senza infrangere fondamentalmente le promesse fatte agli utenti. Questo, sottolineano, è un passo che non faranno. “La proposta di legge non prevede alcuna protezione esplicita per la crittografia”, ha dichiarato il mese scorso una coalizione di provider, tra cui i leader di mercato WhatsApp e Signal, in una lettera aperta, “e se attuata così come è stata scritta, potrebbe autorizzare l’Ofcom a cercare di forzare la scansione proattiva dei messaggi privati sui servizi di comunicazione crittografati end-to-end, annullando di conseguenza lo scopo della crittografia end-to-end e compromettendo la privacy di tutti gli utenti”. Se si dovesse arrivare alla resa dei conti, si sceglierebbe di proteggere la sicurezza dei propri utenti non britannici. “Il 98% dei nostri utenti non risiede nel Regno Unito”, ha dichiarato a marzo Will Cathcart, capo di WhatsApp, al Guardian. “Non vogliono che abbassiamo la sicurezza del prodotto e, per una questione puramente pratica, sarebbe una scelta strana per noi scegliere di abbassare la sicurezza del prodotto in modo da colpire il 98% degli utenti”.

I giovani dicono che Facebook è per “grandi” ma la piattaforma nega di subire uno “spopolamento” soprattutto ora che  che Tik Tok, la sua più grande spina nel fianco, sta affrontando un maggiore controllo da parte del governo in seguito alle crescenti tensioni tra Stati Uniti e Cina causate anche da numerose violazioni in materia di privacy e trattamento dei dati. Facebook potrebbe forse posizionarsi come una valida alternativa di origine nazionale per milioni di americani. C’è solo un problema: i giovani come Devin Walsh hanno voltato pagina: “Non ricordo nemmeno l’ultima volta che mi sono collegato. Deve essere stato anni fa”, ha detto Walsh, 24 anni, che vive a Manhattan e lavora nelle pubbliche relazioni. Invece, controlla Instagram, che è anche di proprietà della società madre di Facebook Meta, circa cinque o sei volte al giorno. Poi c’è TikTok, naturalmente, dove passa circa un’ora al giorno, lasciando che l’algoritmo trovi cose che “non sapevo nemmeno di essere interessata”. Walsh non riesce a immaginare un mondo in cui Facebook, a cui si è iscritta quando era in prima media, torni a far parte regolarmente della sua vita. “È il marchio, giusto? Quando penso a Facebook, penso a persone anziane, come i genitori che postano foto dei loro figli, aggiornamenti di stato casuali e anche persone che litigano su questioni politiche”, ha detto Walsh, usando il termine Gen Z per indicare cose che non sono assolutamente cool. Per coloro che sono diventati maggiorenni nel 2004, quando Mark Zuckerberg lanciò Facebook.com dalla sua stanza del dormitorio di Harvard, la piattaforma è entrata a far parte della vita quotidiana in modo indissolubile, anche se nel corso degli anni è passata in secondo piano. Facebook si trova ora ad affrontare una sfida particolarmente strana. Oggi 3 miliardi di persone lo consultano ogni mese. Si tratta di più di un terzo della popolazione mondiale. E 2 miliardi si collegano ogni giorno. Eppure, dopo due decenni di esistenza, Facebook si trova ancora in una battaglia per la rilevanza e il suo futuro. Per le generazioni più giovani, quelle che si sono iscritte alle scuole medie o che le stanno frequentando, non è decisamente il posto giusto. Senza questa fascia demografica di tendenza, Facebook, che è ancora la principale fonte di entrate per la società madre Meta, rischia di passare in secondo piano – utilitario ma noioso, come l’e-mail. Non è sempre stato così. Per quasi un decennio, Facebook è stato il luogo di riferimento, la pietra di paragone culturale, l’oggetto costantemente citato nelle conversazioni quotidiane e nelle trasmissioni televisive notturne, la cui fondazione è stata persino oggetto di un film di Hollywood. Il rivale MySpace, lanciato solo un anno prima, è diventato rapidamente obsoleto, mentre i ragazzi più cool si sono riversati su Facebook. Il fatto che MySpace sia stato venduto alla vecchia News Corp. nel 2005 non ha aiutato il destino di MySpace.

Privacy e data justice sono i temi al centro dell’intervento di Meredith Whittaker – presidente della Signal Foundation, ricercatrice e chief advisor dell’Ai institute – al Wired Next Fest di Rovereto, la prima edizione in Trentino del più grande festival gratuito dedicato all’innovazione. In collegamento da New York con il Teatro Zandonai, Whittaker spiega cosa rende l’app di messaggistica sviluppata dall’organizzazione diversa dalla altre: “Molte cose – spiega –. Ma parto dalla differenza fondamentale: il core business dell’industria tecnologia è la sorveglianza, mentre Signal si concentra sulla privacy”. La finalità delle grandi società tech, continua, è la creazione di enormi quantità di dati da mettere poi a disposizione degli inserzionisti. Signal invece – che non a caso è una no-profit – ha deciso di svincolarsi dalle logiche del profitto permettendo agli utenti di muoversi al di fuori di quello che definisce “l’ecosistema di sorveglianza”. Al centro dell’approccio di Signal c’è la crittografia end-to-end, che – semplificando – permette di mantenere private le comunicazioni degli utenti, facendo in modo che solo mittente e destinatario possano accedere ai contenuti dei messaggi. Il protocollo di crittografia end-to-end sviluppato da Signal è stato poi adottato anche da altri attori, tra cui Google. La fondazione sta anche lavorando per estenderlo anche ai metadati dei messaggi scambiati sull’applicazione. In merito ai tentativi di governi e forze dell’ordine di minare la crittografia end-to-end facendo leva su minacce come quelle terroristiche per installare sistemi di accesso secondario, le cosiddette backdoor, l’opposizione di Whittaker è categorica: “La crittografia end-to-end o funziona o non funziona – dice –. È importante ricordarci che la privacy è un diritto umano”. Chiusura sul tema dell’intelligenza artificiale, partendo dall’intervento del Garante della privacy italiano su ChatGpt: “Ai è privacy sono legate indissolubilmente legate – commenta Whittaker –. Il boom dell’Ai è solo un altro modo per sfruttare i dati di sorveglianza. In questo senso, l’approccio dell’Italia è rincuorante”.

English version

British government ministers have warned that due to the confrontation with WhatsApp the messaging app could disappear from the UK because options for an amicable resolution are rapidly running out. At the heart of the dispute is the Online Safety Bill, a piece of legislation that will affect almost every aspect of online life in Britain. The bill, which is in the House of Lords, is more than 250 pages long and has included eight secretaries of state and five prime ministers. The table of contents alone runs to 10 pages. The bill gives Ofcom the power to require social networks to use technology to counter terrorism or child pornography content, with fines of up to 10 percent of global turnover for services that fail to comply. Companies must make “best efforts” to develop or procure the technology needed to comply with the notice. But for messaging apps that protect users’ data with “end-to-end encryption” (E2EE), they state that it is technologically impossible to read users’ messages without fundamentally breaking their promises to users. This, they stress, is a step they will not take. “The proposed bill provides no explicit protections for encryption,” a coalition of providers, including market leaders WhatsApp and Signal, said in an open letter last month, “and if implemented as written, could authorize Ofcom to try to force proactive scanning of private messages on end-to-end encrypted communication services, thereby defeating the purpose of end-to-end encryption and compromising the privacy of all users.” If push came to shove, they would choose to protect the security of their non-UK users. “Ninety-eight percent of our users don’t reside in the UK,” Will Cathcart, head of WhatsApp, told the Guardian in March. “They don’t want us to lower the security of the product and, as a purely practical matter, it would be an odd choice for us to choose to lower the security of the product in a way that affects 98 percent of users.”

Young people say Facebook is dead but the platform denies that it is undergoing “depopulation,” especially now that Tik Tok, its biggest thorn in the side, is facing increased government scrutiny in the wake of escalating tensions between the United States and China caused in part by numerous privacy and data processing violations. . Facebook could perhaps position itself as a viable homegrown alternative. There is just one problem: Young people like Devin Walsh have moved on: “I can’t even remember the last time I logged on. It must have been years ago,” said Walsh, 24, who lives in Manhattan and works in public relations. Instead, he checks Instagram, which is also owned by Facebook’s parent company Meta, about five or six times a day. Then there’s TikTok, of course, where she spends about an hour a day, letting the algorithm find things that “I didn’t even know I was interested in.” Walsh can’t imagine a world in which Facebook, which she signed up for when she was in sixth grade, becomes a regular part of her life again. “It’s the brand, right? When I think of Facebook, I think of older people, like parents posting pictures of their kids, random status updates, and even people arguing about political issues,” Walsh said, using the term Gen Z to refer to things that are totally uncool. For those who came of age in 2004, when Mark Zuckerberg launched Facebook.com from his Harvard dorm room, the platform has become an inseparable part of daily life, even if it has faded into the background over the years. Facebook now faces a particularly strange challenge. Today 3 billion people consult it every month. That is more than a third of the world’s population. And 2 billion log on every day. Yet after two decades of existence, Facebook is still in a battle for relevance and its future. For the younger generation, those who have enrolled in middle school or are attending it, it is definitely not the place to be. Without this trending demographic, Facebook, which is still the main source of revenue for parent company Meta, is in danger of taking a back seat — utilitarian but boring, like e-mail. This was not always the case. For nearly a decade, Facebook has been the touchstone, the cultural touchstone, the object constantly mentioned in daily conversations and late-night TV shows, whose founding was even the subject of a Hollywood movie. Rival MySpace, launched only a year earlier, quickly became obsolete as the cool kids flocked to Facebook. The fact that MySpace was sold to the old News Corp. in 2005 did not help MySpace’s fate.

Privacy and data justice are the topics at the center of the speech by Meredith Whittaker – president of the Signal Foundation, researcher and chief advisor of the Ai institute – at the Wired Next Fest in Rovereto, the first edition in Trentino of the largest free festival dedicated to innovation. Reporting from New York to Teatro Zandonai, Whittaker explains what makes the messaging app developed by the organization different from others: “Many things,” she explains. “But I start with the fundamental difference: the core business of the tech industry is surveillance, while Signal focuses on privacy. The purpose of large tech companies, he continues, is to create massive amounts of data that can then be made available to advertisers. Signal, on the other hand-which is not coincidentally a nonprofit-has decided to break free from the logic of profit by allowing users to move outside what it calls “the surveillance ecosystem.” At the heart of Signal’s approach is end-to-end encryption, which-simplifying-allows users’ communications to be kept private, ensuring that only the sender and recipient can access the contents of messages. The end-to-end encryption protocol developed by Signal has since been adopted by other players, including Google. The foundation is also working to extend it to the metadata of messages exchanged on the application. On attempts by governments and law enforcement to undermine end-to-end encryption by leveraging threats such as terrorist threats to install secondary access systems, so-called backdoors, Whittaker’s opposition is categorical: “End-to-end encryption either works or it doesn’t,” he says. “It’s important to remember that privacy is a human right. Closing on the topic of artificial intelligence, starting with the Italian Privacy Guarantor’s intervention on ChatGpt: “Ai and privacy are inextricably linked,” Whittaker comments. “The Ai boom is just another way to exploit surveillance data. In this sense, Italy’s approach is heartening.

PRIVACY DAILY 110/2023

Meta Platforms Inc. ha dichiarato di opporsi al un piano della Federal Trade Commission che gli vieta di trarre profitto dai dati dei bambini, mettendo alla prova i limiti della capacità dell’Agenzia di definire le politiche sulla privacy attraverso l’applicazione delle norme. Il 3 maggio l’agenzia ha accusato Meta di aver violato un precedente ordine della FTC e il successivo accordo che ha costretto il gigante tecnologico a pagare una multa di 5 miliardi di dollari per la cattiva gestione dei dati dei consumatori e a implementare una serie di meccanismi di controllo della privacy. Ora la Commissione chiede ulteriori restrizioni sulle pratiche di Meta in materia di dati, tra cui il divieto di vendere le informazioni raccolte sui giovani utenti per annunci mirati o di utilizzare in altro modo tali dati a fini commerciali. Il divieto si applicherebbe alle piattaforme Facebook, Instagram, WhatsApp, Messenger e Oculus di Meta. L’FTC potrebbe però essere contestata per aver potenzialmente superato la sua autorità, così hanno dichiarato ex funzionari dell’agenzia, anche se in passato la commissione ha trovato flessibilità nelle sue ampie responsabilità di protezione dei consumatori. “Ciò che la Commissione propone è un regime piuttosto rigido” per la protezione dei dati dei minori, ha dichiarato David Vladeck, professore presso la facoltà di legge dell’Università di Georgetown che in passato ha diretto l’Ufficio per la protezione dei consumatori della FTC durante l’amministrazione Obama. Vladeck ha aggiunto che la potenziale espansione dell’ordine esistente della FTC nei confronti di Meta “potrebbe non essere adeguatamente mirata agli errori qui suggeriti”. La commissione sostiene che, a causa di errori di codifica, Meta ha ingannato i genitori sulla loro capacità di controllare con chi i loro figli comunicano sulla sua applicazione Messenger Kids. Meta ha risposto in un post sul blog, affermando che l’azienda ha rapidamente corretto gli errori e ne ha informato la FTC e gli utenti. Meta ha definito l’azione della FTC “una trovata politica”. L’azienda si è impegnata a combattere contro l’agenzia e ha dichiarato che si aspetta di vincere. Un portavoce di Meta ha rifiutato di commentare oltre il post sul blog. Uno dei tre democratici della commissione, Alvaro Bedoya, ha messo in dubbio che l’agenzia abbia le basi legali per applicare limiti all’uso dei dati dei minori sulla base delle presunte violazioni della privacy. Secondo Matthew Schettenhelm, analista di Bloomberg Intelligence, se Meta presenterà un ricorso contro l’azione proposta dalla FTC, è probabile che un tribunale si trovi d’accordo con i timori di un superamento dell’autorità dell’agenzia.

Il Privacy Advisory Board della città di San Diego, recentemente istituito, ha votato la scorsa settimana la creazione di un comitato ad hoc che raccolga ulteriori ricerche e commenti pubblici sulla proposta del Dipartimento di Polizia della città di installare centinaia di lampioni intelligenti e lettori automatici di targhe. Lo scopo del Comitato sarà quello di garantire che il consiglio abbia maggiori input dalla comunità prima che i suoi membri decidano se raccomandare la proposta al Consiglio comunale. La riunione del 27 aprile – alla quale hanno partecipato circa 50 membri del pubblico di persona e un numero imprecisato di persone via Zoom – è stata la seconda da quando il comitato si è riunito per la prima volta a marzo. Gli otto membri del comitato consultivo sono stati nominati dal sindaco Todd Gloria nel 2022. Durante l’incontro, i rappresentanti del Dipartimento di Polizia hanno presentato il “Rapporto d’impatto sui lampioni intelligenti”, che include informazioni sullo scopo della tecnologia, sulla sua collocazione, sul costo e sulla salvaguardia dei dati raccolti. San Diego ha già installato telecamere nei lampioni, ma una volta che il pubblico l’ha scoperto, la protesta ha portato la città a bloccare tutti gli accessi nel 2020. In seguito la città ha approvato un’ordinanza sulla sorveglianza e ha creato il Comitato consultivo per la privacy per valutare le tecnologie di sorveglianza che la città possiede o vuole acquistare. La polizia ha accolto le telecamere come uno strumento investigativo e vuole usarle nuovamente. La polizia chiede di installare o aggiornare le telecamere e i lettori di targhe in 500 punti della città. Il tenente della polizia di San Diego Adam Sharki ha detto al consiglio durante la presentazione che la nuova tecnologia permetterebbe alla polizia di catturare i numeri di targa alla ricerca di veicoli rubati o ricercati. Le telecamere registrerebbero anche costantemente, consentendo alla polizia di utilizzare le prove video nelle indagini sui crimini violenti, ha detto Sharki. I dati verrebbero archiviati in un’area sicura con accesso limitato agli investigatori autorizzati, ha detto Sharki. Il mese scorso la polizia ha presentato il piano nel corso di nove incontri comunitari – uno per ogni distretto – in vari luoghi della città. I partecipanti hanno posto domande alla polizia sul programma e un video di uno degli incontri è stato pubblicato online. Alcuni residenti presenti agli incontri hanno appoggiato l’idea, affermando che i lampioni ad alta tecnologia potrebbero aiutare la polizia a risolvere o prevenire crimini gravi. Ma molti hanno espresso preoccupazioni sulla privacy, sull’eccesso di polizia nelle comunità di colore e sulle modalità di archiviazione e raccolta delle informazioni. I commenti sono stati in gran parte contrari al programma in due riunioni tenutesi a Mission Valley e a Mountain View, rispettivamente l’8 e il 9 marzo. Dei 394 commenti lasciati sulla registrazione online di uno degli incontri, 324 erano contrari al programma. Dopo la presentazione di Sharki al municipio il 27 aprile, i membri del consiglio hanno posto domande sul programma e alcuni di loro hanno fatto eco alle preoccupazioni sulla privacy espresse dal pubblico.

I truffatori, soprattutto se si tratta di quelli che operano in ambiente informatico, utilizzano sempre nuove strategie e molti “agganciano” le proprie vittime al telefono riuscendo cosi a prenderne i dati personali. Secondo un sondaggio condotto dalla Grassroots Influence Foundation venerdì scorso a Taiwan il 72% dei cittadini ritiene che il crescente numero di casi di frode sia diventato un problema di sicurezza nazionale, mentre quasi il 90% ha affermato che il governo dovrebbe consentire ai tribunali di comminare pene più severe ai truffatori. Una leggera maggioranza del pubblico (53%) ha dichiarato di non essere soddisfatta degli sforzi compiuti dal governo per reprimere le frodi, mentre solo il 27% degli intervistati approva la gestione delle frodi da parte del governo e il 20% non ha alcuna opinione. Il sondaggio ha anche mostrato che il 92% dei taiwanesi ha ricevuto telefonate o messaggi di testo da sospetti truffatori. Il risultato ha mostrato che l’82% è d’accordo sul fatto che le pene per i truffatori sono troppo clementi e l’88% vorrebbe che il governo permettesse pene più severe. Il sondaggio è stato condotto dal 18 al 21 aprile, con 1.071 risposte valide, con un margine di errore del 3%. “Il governo dovrebbe intraprendere un’analisi approfondita per determinare quali sono le fasce demografiche inclini alle frodi, per poi elaborare delle misure di prevenzione”, ha dichiarato Yen Yung-shen, coordinatore della fondazione per i sondaggi pubblici. Yen ha poi detto che vorrebbe vedere pene più severe per le frodi e che Il governo dovrebbe incaricare degli esperti di studiare i metodi di truffa emergenti e le misure preventive. ”Gli sforzi anti-frode dovrebbero anche concentrarsi sulle professioni e sull’istruzione delle vittime ed esaminare le questioni sociali che le portano a essere truffate, ha detto il professore di criminologia Cheng Jui-lung. Il professore di giustizia penale Wang Po-chi ha esortato il governo a concentrarsi sull’applicazione della scienza e della tecnologia per combattere il crimine, poiché i truffatori sviluppano continuamente nuovi metodi per frodare le persone. Il governo deve anche adottare un “pensiero strategico” per sviluppare contromisure, ha detto il professore di scienze sociali Tseng Kung-chiu. In risposta alle critiche su quelle che, secondo alcuni, sono pene leggere per le frodi, i funzionari dell’Agenzia nazionale di polizia hanno dichiarato che le agenzie governative hanno spinto gli emendamenti per consentire pene più pesanti.

English version

Meta Platforms Inc. said it is opposing a Federal Trade Commission plan prohibiting it from profiting from children’s data, testing the limits of the agency’s ability to set privacy policies through enforcement. On May 3, the agency charged Meta with violating an earlier FTC order and subsequent settlement that forced the tech giant to pay a $5 billion fine for mishandling consumer data and implementing a series of privacy control mechanisms. Now the commission is calling for additional restrictions on Meta’s data practices, including a ban on selling information collected about young users for targeted ads or otherwise using that data for commercial purposes. The ban would apply to Meta’s Facebook, Instagram, WhatsApp, Messenger and Oculus platforms. The FTC could be challenged for potentially exceeding its authority, former agency officials said, although the commission has found flexibility in its broad consumer protection responsibilities in the past. “What the commission is proposing is a fairly rigid regime” for protecting children’s data, said David Vladeck, a professor at Georgetown University Law School who formerly headed the FTC’s Office of Consumer Protection during the Obama administration. Vladeck added that the potential expansion of the FTC’s existing order against Meta “may not adequately target the errors suggested here.” The commission alleges that, due to coding errors, Meta misled parents about their ability to control who their children communicate with on its Messenger Kids app. Meta responded in a blog post, saying the company quickly corrected the errors and informed the FTC and users. Meta called the FTC’s action “a political stunt.” The company has pledged to fight the agency and said it expects to win. A Meta spokesman declined to comment beyond the blog post. One of the three Democrats on the committee, Alvaro Bedoya, questioned whether the agency has the legal basis to enforce limits on the use of children’s data based on alleged privacy violations. According to Matthew Schettenhelm, an analyst at Bloomberg Intelligence, if Meta files an appeal of the FTC’s proposed action, a court is likely to agree with concerns that the agency’s authority has been exceeded.

The newly established City Of San Diego Privacy Advisory Committee voted last week to create an ad hoc committee to gather further research and public comment on the city Police Department’s proposal to install hundreds of smart streetlights and automatic license plate readers. The purpose of the committee will be to ensure that the council has more input from the community before its members decide whether to recommend the proposal to the City Council. The April 27 meeting-attended by about 50 members of the public in person and an unknown number of people via Zoom-was the second since the committee first met in March. The eight members of the advisory committee were appointed by Mayor Todd Gloria in 2022. During the meeting, representatives from the Police Department presented the Smart Streetlights Impact Report, which includes information on the purpose of the technology, its placement, cost, and safeguarding of collected data. San Diego has already installed cameras in streetlights, but once the public found out, protest led the city to block all access in 2020. The city later passed a surveillance ordinance and created the Privacy Advisory Committee to evaluate surveillance technologies the city owns or wants to purchase. Police have embraced the cameras as an investigative tool and want to use them again. Police are asking to install or upgrade cameras and license plate readers at 500 locations in the city. San Diego Police Lt. Adam Sharki told the council during the presentation that the new technology would allow police to capture license plate numbers in search of stolen or wanted vehicles. The cameras would also record constantly, allowing police to use video evidence in investigating violent crimes, Sharki said. The data would be stored in a secure area with access limited to authorized investigators, Sharki said. Last month, police presented the plan at nine community meetings-one for each district-at various locations around the city. Participants asked police questions about the program, and a video of one of the meetings was posted online. Some residents attending the meetings supported the idea, saying the high-tech streetlights could help police solve or prevent serious crimes. But many expressed concerns about privacy, over-policing in communities of color, and how information would be stored and collected. Comments were largely against the program at two meetings held in Mission Valley and Mountain View on March 8 and 9, respectively. Of the 394 comments left on the online recording of one of the meetings, 324 were against the program. After Sharki’s presentation at the town hall on April 27, council members asked questions about the program and some of them echoed privacy concerns expressed by the public.

Fraudsters, especially those operating in the cyber environment, are always using new strategies, and many “hook” their victims over the phone and succeed in taking their personal information. According to a survey conducted by the Grassroots Influence Foundation on Friday in Taiwan, 72 percent of citizens believe that the growing number of fraud cases has become a national security problem, while nearly 90 percent said the government should allow the courts to impose harsher punishments on fraudsters. A slight majority of the public (53 percent) said they were dissatisfied with the government’s efforts to crack down on fraud, while only 27 percent of respondents approved of the government’s handling of fraud and 20 percent had no opinion. The survey also showed that 92 percent of Taiwanese have received phone calls or text messages from suspected fraudsters. The result showed that 82% agreed that penalties for scammers are too lenient and 88% would like the government to allow harsher penalties. The survey was conducted from April 18 to 21, with 1,071 valid responses, with a margin of error of 3 percent. “The government should undertake a thorough analysis to determine which demographics are prone to fraud, and then come up with preventive measures,” said Yen Yung-shen, the foundation’s coordinator for public surveys. Yen went on to say that he would like to see harsher penalties for fraud and that The government should commission experts to study emerging fraud methods and preventive measures. “Anti-fraud efforts should also focus on the professions and education of victims and examine the social issues that lead them to be defrauded, said criminology professor Cheng Jui-lung. Criminal justice professor Wang Po-chi urged the government to focus on applying science and technology to fight crime, as fraudsters are constantly developing new methods to defraud people. The government must also adopt “strategic thinking” to develop countermeasures, said social science professor Tseng Kung-chiu. In response to criticism of what some say are light penalties for fraud, officials from the National Police Agency said government agencies have pushed amendments to allow heavier penalties.

PRIVACY DAILY 102/2023

Numerosi fornitori di streaming, tra cui Hulu, ESPN e AMC Networks, sono stati citati in giudizio per presunte violazioni della legge sulla privacy dei video negli ultimi dieci anni. Scripps Network non dovrà affrontare quindi un’azione legale collettiva a causa della quale era accusata di condividere la cronologia delle visualizzazioni personali degli abbonati con Facebook come parte della sua attività pubblicitaria. Martedì un giudice federale ha respinto la causa, ritenendo che i consumatori che si sono iscritti alla newsletter di HGTV.com non sono coperti dalla legge sulla privacy dei video che impedisce alle aziende di divulgare informazioni sulle loro abitudini di visione. La sentenza potrebbe compromettere oltre 100 altre cause identiche contro aziende che vanno dalla HBO alla NFL che contestano pratiche opache in materia di dati in assenza di una legge federale sulla privacy. Tutte le cause riguardano le aziende che utilizzano lo strumento Pixel di Meta, che consente agli inserzionisti di tracciare l’attività dei visitatori sui siti web per misurare l’efficacia degli annunci e creare un pubblico personalizzato per il targeting degli annunci, violando il Video Privacy Protection Act. La legge prevede danni legali fino a 2.500 dollari per ogni membro della classe e crea un diritto di azione privata per i consumatori che possono fare causa per la divulgazione di informazioni sulle loro abitudini di visione dei video. Meta non è stata citata in nessuna delle denunce. In una dichiarazione, Facebook ha sottolineato che gli inserzionisti non dovrebbero inviare informazioni sensibili sugli utenti attraverso i suoi strumenti commerciali. “Fare ciò è contrario alle nostre politiche e istruiamo gli inserzionisti sulla corretta impostazione degli strumenti di Business per evitare che ciò accada”, ha dichiarato l’azienda. “Il nostro sistema è progettato per filtrare i dati potenzialmente sensibili che è in grado di rilevare”.

Oggi Microsoft ha annunciato l’apertura della sua nuova regione cloud di fiducia, la prima in Europa centrale e orientale, situata in Polonia. La regione cloud polacca di Microsoft è costituita da tre sedi fisiche indipendenti intorno a Varsavia, ciascuna composta da uno o più data center. Secondo l’azienda verranno rispettati gli standard di sicurezza, privacy e archiviazione dei dati conformi alle normative del Paese. Il lancio della regione Microsoft rappresenta la continuazione dell’impegno a continuare a sostenere lo sviluppo tecnologico della società, delle imprese e dell’economia del Paese. “L’investimento di Microsoft in Polonia accelererà la trasformazione del nostro Paese in un hub tecnologico per l’Europa centrale e orientale”, ha dichiarato il Primo Ministro Mateusz Morawiecki. “Grazie allo sviluppo della Digital Valley polacca, centinaia di ingegneri e sviluppatori potranno svolgere un ruolo chiave nell’economia globale senza lasciare il Paese. Questo è uno sviluppo responsabile”, ha spiegato Morawiecki. Ha aggiunto che, in tempi di incertezza economica e geopolitica, è anche molto importante mantenere i più alti standard di sicurezza dell’archiviazione dei dati. “Costruire la resilienza in questo senso è fondamentale per l’economia e la società polacca”, ha detto Morawiecki. L’apertura della regione cloud polacca risponde alla crescente domanda di calcolo ad alte prestazioni (HPC) e di accesso rapido e affidabile ai servizi Microsoft Cloud. Il cloud contribuisce in modo determinante ad accelerare la digitalizzazione e a sviluppare le competenze digitali delle aziende polacche e dell’economia in generale, oltre a rafforzarne la resilienza in tempi di incertezza economica e geopolitica. “Gli elementi essenziali per una trasformazione di successo sono la fiducia, la sicurezza e l’innovazione, che sono le basi per il successo dello sviluppo dell’economia. Sono lieto che Microsoft abbia investito nello sviluppo della Polonia per diversi decenni”, ha dichiarato Mark Brzezinski, ambasciatore statunitense in Polonia.

L’Ordine nazionale degli avvocati (CNA) ha chiesto una riforma urgente della legge sulla protezione dei dati, una legge che è stata applicata contro i media attraverso l’imposizione di multe e che, secondo gli esperti, cerca di mettere a tacere la professione giornalistica a Panama. In una dichiarazione pubblicata sul suo account Instagram, la CNA sottolinea l’urgente necessità di riformare questa legge per rafforzare la protezione della pratica giornalistica. La prima sanzione contro un organo di informazione, invocando questa legge, è stata quella contro La Verdad Panamá, una multa che ha generato un’ondata di critiche e di sostegno solidale da parte di diversi settori della società. La più importante organizzazione di avvocati sostiene che tutte le figure pubbliche sono soggette al controllo della società e la democrazia si misura sulla tolleranza dei suoi politici e sulla veridicità delle informazioni pubblicate. “Il ruolo del giornalismo in tutti i suoi aspetti deve essere preservato e trovare i meccanismi legali che la legge concede agli individui quando si considerano colpiti da fatti che sono falsi”, si legge nella dichiarazione. La reazione dell’Ordine degli avvocati arriva dopo che la Direzione per la protezione dei dati personali dell’Autorità nazionale per la trasparenza e l’accesso alle informazioni (Antai) ha multato per la seconda volta un organo di informazione. Questa volta è toccato al quotidiano La Prensa con una sanzione di cinquemila dollari che, secondo l’Antai, ha violato la legge 81 del marzo 2019 sui dati personali, pubblicando una fotografia in cui si vede il volto del deputato Benicio Robinson, nell’ambito dell’inchiesta giornalistica intitolata Ruta de los cupos llega hasta Benicio Robinson (Percorso delle quote raggiunge Benicio Robinson). Per utilizzare questa immagine, secondo l’Antai, era necessario avere il permesso di Robinson, in quanto si tratta di dati biometrici “sensibili” e il loro uso improprio potrebbe mettere a “serio rischio” il proprietario dell’immagine.

English version

Numerous streaming providers, including Hulu, ESPN, and AMC Networks, have been sued for alleged violations of the Video Privacy Act over the past decade. Scripps Network will therefore not face a class action lawsuit because of which it was accused of sharing subscribers’ personal viewing history with Facebook as part of its advertising business. A federal judge on Tuesday dismissed the lawsuit, finding that consumers who subscribed to the HGTV.com newsletter are not covered by the Video Privacy Act, which prevents companies from disclosing information about their viewing habits. The ruling could undermine more than 100 other identical lawsuits against companies ranging from HBO to the NFL challenging opaque data practices in the absence of a federal privacy law. All of the lawsuits involve companies using Meta’s Pixel tool, which allows advertisers to track visitor activity on websites to measure ad effectiveness and create custom audiences for ad targeting, violating the Video Privacy Protection Act. The law provides for statutory damages of up to $2,500 per class member and creates a private right of action for consumers to sue for disclosure of information about their video viewing habits. Meta has not been named in any of the complaints. In a statement, Facebook stressed that advertisers should not send sensitive information about users through its commercial tools. “Doing so is contrary to our policies and we instruct advertisers on the proper setup of Business tools to prevent this from happening,” the company said. “Our system is designed to filter out potentially sensitive data that it can detect.”

Today Microsoft announced the opening of its new trusted cloud region, the first in Central and Eastern Europe, located in Poland. Microsoft’s Polish cloud region consists of three independent physical locations around Warsaw, each consisting of one or more data centers. According to the company, standards for security, privacy and data storage that comply with the country’s regulations will be met. The launch of the Microsoft region represents a continuation of the commitment to continue supporting the technological development of the country’s society, businesses and economy. “Microsoft’s investment in Poland will accelerate the transformation of our country into a technology hub for Central and Eastern Europe,” said Prime Minister Mateusz Morawiecki. “Thanks to the development of Poland’s Digital Valley, hundreds of engineers and developers will be able to play a key role in the global economy without leaving the country. This is responsible development,” Morawiecki explained. He added that in times of economic and geopolitical uncertainty, it is also very important to maintain the highest standards of data storage security. “Building resilience in this regard is crucial for the Polish economy and society,” Morawiecki said. The opening of Poland’s cloud region responds to growing demand for high-performance computing (HPC) and fast, reliable access to Microsoft Cloud services. The cloud is a key contributor to accelerating digitization and developing the digital skills of Polish companies and the broader economy, as well as strengthening their resilience in times of economic and geopolitical uncertainty. “The essential elements for a successful transformation are trust, security and innovation, which are the foundations for the successful development of the economy. I am pleased that Microsoft has been investing in Poland’s development for several decades,” said Mark Brzezinski, U.S. ambassador to Poland.

El Colegio Nacional de Abogados (CNA), pidió una reforma urgente a la Ley de Protección de Datos, norma que ha sido aplicada contra medios de comunicación, mediante la imposición de multas y que según expertos, busca silenciar la profesión de periodista en Panamá. En un comunicado  colgado en su cuenta de Instagram, el CNA  señala que es una necesidad urgente reformar esta norma a fin de fortalecer la protección del ejercicio del periodismo. La primera sanción a un medio de comunicación, invocando está ley fue contra La Verdad Panamá, multa que generó una ola de críticas y apoyo solidario de distintos sectores de la sociedad. La más importante organización de abogados sostiene que toda figura pública es sometida al escrutinio de la sociedad y la democracia se mide por la tolerancia de sus políticos y la veracidad de las informaciones que se publican. “El rol periodístico en todos sus aspectos debe ser preservado y encontrar los mecanismos, legales que la ley otorga a los particulares cuando se consideren afectados ante hechos que sean falsos”, sostiene el comunicado. La reacción del Colegio de Abogados surge luego que la Dirección de Protección de Datos Personales  de la Autoridad Nacional de Transparencia y Acceso a la Información (Antai), multara por segunda vez un medio de comunicación.
Esta vez fue el diario La Prensa con una sanción de cinco mil dólares  que según la Antai, violó la Ley 81 de marzo de 2019 sobre datos personales, al publicar una fotografía en la que se observa el rostro del diputado Benicio Robinson, dentro de la investigación periodística titulada Ruta de los cupos llega hasta Benicio Robinson. Para usar esa imagen, según la Antai, había que tener el permiso de Robinson, ya que se trata de un dato biométrico “sensible” y el mal uso del mismo puede poner en “riesgo grave” al dueño de la imagen.

PRIVACY DAILY 69/2023

Il Parlamento Europeo ha adottato la sua posizione negoziale sul Data Act. Questa normativa mira a stabilire regole comuni sulla condivisione dei dati generati dall’uso di prodotti connessi o servizi affini (ad esempio “l’internet delle cose” e le macchine industriali) al fine di garantire un’equità dei contratti di condivisione dei dati. Il testo è stato approvato con 500 voti favorevoli, 23 contrari e 110 astensioni. Sono state varate anche misure per consentire agli utenti di accedere ai dati da loro generati. Stando ai dati della Commissione Europea, l’80% dei dati industriali non viene utilizzato. Inoltre, si vogliono valorizzare le relazioni tra imprese. Secondo la proposta, le aziende potranno decidere quali dati possono essere condivisi, mentre il produttore potrà scegliere di non rendere disponibili alcuni dati “per scelta”. La normativa dovrebbe inoltre riequilibrare il potere negoziale a favore delle PMI nella redazione dei loro contratti di condivisione di dati, mettendole al riparo da clausole contrattuali inique imposte da aziende in una posizione significativamente più favorevole. Il testo definisce anche come gli enti pubblici potranno accedere e utilizzare i dati in possesso del settore privato, necessari in circostanze eccezionali o di emergenza quali inondazioni e incendi. Inoltre, i deputati hanno rafforzato le disposizioni per proteggere i segreti commerciali, per evitare che un maggiore accesso ai dati venga utilizzato dai concorrenti per modificare i servizi o i dispositivi, oltre a stabilire condizioni più severe per le richieste di dati da parte delle imprese alle amministrazioni pubbliche. Infine, la normativa sui dati faciliterà il passaggio da un fornitore all’altro di servizi cloud e di altri servizi di elaborazione dati e introdurrà misure di salvaguardia contro il trasferimento illegale di dati a livello internazionale da parte dei servizi cloud. I deputati sono ora pronti ad avviare i negoziati con il Consiglio sulla forma finale della legge, non appena quest’ultimo avrà approvato il proprio mandato.

L’ONU solleva preoccupazioni rispetto l’allarmante aumento dell’uso di “tecnologie invasive ad alto rischio”. Così si è espressa la Special Rapporteur delle Nazioni Unite per la promozione e la protezione dei diritti umani nella lotta al terrorismo, Fionnuala Ní Aoláin, in un rapporto all’ultima sessione del Consiglio dei diritti umani. Tra le tecnologie additate figurano i droni, la biometria, l’intelligenza artificiale (IA) e i programmi spia, che vengono incrementati nella lotta al terrorismo, senza tenere in debito conto lo stato di diritto, la governance e i diritti umani. “Le giustificazioni eccezionali per l’uso delle tecnologie di sorveglianza nell’antiterrorismo sui diritti umani spesso si trasformano in un uso banale e regolare”, ha dichiarato Ní Aoláin, sottolineando l’impatto sui diritti fondamentali come la libertà di movimento, la libertà di espressione, la libertà di riunione pacifica e il diritto alla privacy. Anche l’esperto indipendente nominato dal Consiglio per i diritti umani ha espresso preoccupazione per la crescente diffusione dell’uso dei droni in diversi Paesi, per il diffuso abuso della tecnologia spyware contro gruppi della società civile, dissidenti e giornalisti e per la crescente adozione della raccolta di dati biometrici. “Il trasferimento non regolamentato di tecnologie ad alto rischio a Stati che commettono sistematiche violazioni dei diritti umani deve finire”, ha dichiarato la Special Rapporteur. Ha esortato le autorità a regolamentare in modo più efficace le aziende coinvolte nel trasferimento di tecnologie di sorveglianza all’estero. Nel rapporto è stato così presentato al Consiglio un approccio nuovo e innovativo alla regolamentazione dei software spia, che si concentrerebbe sulla garanzia dell’applicazione di “standard minimi di diritti umani”, sia da parte dei governi che delle aziende, nello sviluppo, nell’uso e nel trasferimento di tecnologie di sorveglianza ad alto rischio.

Facebook ha violato la legge olandese nel modo in cui ha trattato le informazioni personali. Lo hanno dichiarato i giudici di Amsterdam in una recentissima sentenza. Il tribunale ha stabilito che Facebook Ireland ha utilizzato le informazioni per scopi pubblicitari senza valide basi giuridiche e le ha trasmesse ad altre aziende. La causa, intentata dalla fondazione Stichting Data Bescherming Nederland e dall’associazione di consumatori Consumentenbond, riguarda il periodo compreso tra aprile 2010 e il 1° gennaio 2020. Il tribunale ha anche stabilito che Facebook non ha informato adeguatamente gli utenti che le loro informazioni sarebbero state condivise, né che i dati appartenenti agli amici di Facebook degli utenti di Facebook sarebbero stati trasmessi. Una terza doglianza, relativa all’uso di cookie su siti web di terzi, non è stata accolta. Il tribunale ha affermato che non è Facebook, ma il responsabile del sito web ad avere la responsabilità di chiedere ai visitatori se accettano i cookie. Questa sentenza è la prima tappa di quella che probabilmente sarà una lunga battaglia legale. Infatti quanto stabilito dai giudici di Amsterdam potrebbe consentire ai consumatori di chiedere un risarcimento per le violazioni della privacy da parte di Facebook. Tuttavia, un portavoce di Meta ha dichiarato che la società intende presentare ricorso.

English version

The European Parliament adopted its negotiating position on the Data Act. This legislation aims to establish EU rules on the sharing of data generated by the use of connected products or related services (e.g. the ‘internet of things’ and industrial machines) in order to ensure fairness in data-sharing contracts. The text was approved with 500 votes in favour, 23 against and 110 abstentions. MEPs approved measures to allow users to access the data they generate. According to data from the European Commission, 80 per cent of industrial data is not used. Furthermore, they want to enhance the relationships between companies. According to the proposal, companies will be able to decide which data can be shared, while manufacturers will be able to choose not to make certain data available ‘by choice’. The legislation should also rebalance the bargaining power in favour of SMEs in the drafting of their data-sharing contracts, shielding them from unfair contractual clauses imposed by companies in a significantly more favourable position. The text also defines how public bodies will be able to access and use data held by the private sector that is needed in exceptional or emergency circumstances such as floods and fires. In addition, MEPs strengthened provisions to protect trade secrets, to prevent greater access to data being used by competitors to modify services or devices, as well as setting stricter conditions for data requests from companies to public administrations. Finally, the data regulation will facilitate switching between providers of cloud and other data processing services and introduce safeguards against illegal international data transfers by cloud services. MEPs are now ready to start negotiations with the Council on the final form of the law, as soon as the latter has approved its mandate.

The UN raises concerns about the alarming increase in the use of ‘high-risk invasive technologies’. So said the UN Special Rapporteur on the promotion and protection of human rights in the fight against terrorism, Fionnuala Ní Aoláin, in a report to the latest session of the Human Rights Council. The technologies singled out included drones, biometrics, artificial intelligence (AI) and spy programmes, which are augmented in the fight against terrorism without due regard for the rule of law, governance and human rights. “Exceptional justifications for the use of surveillance technologies in counter-terrorism on human rights often turn into trivial and regular use,” said Ní Aoláin, emphasising the impact on fundamental rights such as freedom of movement, freedom of expression, freedom of peaceful assembly and the right to privacy. The independent expert appointed by the Human Rights Council also expressed concern about the increasing use of drones in several countries, the widespread misuse of spyware technology against civil society groups, dissidents and journalists, and the increasing adoption of biometric data collection. “The unregulated transfer of high-risk technologies to states that commit systematic human rights violations must end,” said the Special Rapporteur. She urged the authorities to more effectively regulate companies involved in the transfer of surveillance technology abroad. In her new report, she presented the Council with a new and innovative approach to the regulation of spyware, which would focus on ensuring the application of ‘minimum human rights standards’ by both governments and companies in the development, use and transfer of high-risk surveillance technologies.

Facebook violated Dutch law in the way it handled personal information. This was stated by the Amsterdam courts in a recent decision. The court ruled that Facebook Ireland used the information for advertising purposes without a valid legal basis and passed it on to other companies. The lawsuit, brought by the foundation Stichting Data Bescherming Nederland and the consumer association Consumentenbond, covers the period between April 2010 and 1 January 2020. The court also ruled that Facebook did not adequately inform users that their information would be shared, nor that data belonging to Facebook friends of Facebook users would be passed on.A third complaint, concerning the use of cookies on third-party websites, was not upheld. The court stated that it is not Facebook, but the website manager who is responsible for asking visitors whether they accept cookies. This ruling is the first step in what is likely to be a long legal battle. Indeed, what the Amsterdam judges ruled could allow consumers to claim compensation for Facebook’s privacy violations. However, a Meta spokesperson stated that the company intends to appeal.

“Connessioni delicate”, progetto su salute minori e digitale promosso da Associazioni pediatri, Fondazione Carolina e Meta

ZCZC6670/SXB
XSP23061004060_SXB_QBXB
R CRO S0B QBXB

(ANSA) – Roma, 02 Mar – Per sensibilizzare le famiglie sul corretto utilizzo di internet, dispositivi e piattaforme digitali da parte dei ragazzi, le associazioni di pediatri Acp, Fimp e Sip in collaborazione con Meta e Fondazione Carolina lanciano su tutto il territorio nazionale il progetto ‘Connessioni delicate’. Obiettivo dell’iniziativa è promuovere la consapevolezza sul corretto uso della tecnologia e buone pratiche in questo campo grazie alla guida di oltre 11.000 medici pediatri presenti su tutto il territorio nazionale, ai quali verranno forniti momenti di formazione ed informazione – oltre a materiali educativi e multimediali disponibili anche per le famiglie sul sito www.minorionline.com – dedicati alla prevenzione dei pericoli in cui i minori possono incorrere online. Il lancio su scala nazionale – spiega una nota – segue una prima fase pilota del progetto, realizzata lo scorso anno da un pool di medici pediatri volontari che ha coinvolto circa 800 famiglie in tutta Italia. E’ emersa una scarsa percezione delle famiglie sui rischi dell’uso improprio della tecnologia digitale: dai sintomi della dipendenza, ai principali pericoli in termini di salute psicofisica, come sexting e grooming.

Questi risultati hanno permesso di redigere un primo ‘Bilancio sulla salute digitale’, un documento che consentirà ai pediatri di definire i parametri di sviluppo psicofisico dei bambini, con particolare attenzione alla sfera del digitale. I risultati del progetto pilota hanno costituito anche la base per organizzare, a partire dal mese di aprile, training di approfondimento da remoto, per dare ai pediatri tutti gli strumenti per guidare i genitori e aiutarli a capire, ad esempio, quale è l’età sotto la quale è sconsigliato l’uso della tecnologia o l’importanza di dedicare totale attenzione ai bambini durante il momento dell’allattamento. Un Comitato Scientifico, composto da due professionisti per ogni ente coinvolto, ha realizzato il materiale necessario all’avvio dell’iniziativa. Meta e Fondazione Carolina, nata in memoria di Carolina Picchio – prima vittima riconosciuta in Italia di cyberbullismo – hanno collaborato alla realizzazione di materiale formativo e metteranno a disposizione strumenti di supporto per le famiglie e i percorsi formativi per i pediatri. (ANSA).

COM-SAM
2023-03-02 12:51 NNNN

Privacy Daily 27/2023

Anche San Marino sanziona Meta. La Corte d’Appello della Repubblica del Titano ha confermato la decisione dell’Autorità Garante per la Protezione dei Dati personali sanmarinese – già convalidata in primo grado dal Tribunale – con la quale sono stati inflitti quattro milioni di euro di multa alla società di Menlo Park. L’Autorità aveva contestato a Meta di aver permesso la diffusione illecita dei dati personali di circa 12.700 sanmarinesi, non avendo preso le opportune misure di sicurezza per prevenire il prelievo dei dati degli utenti. Il giudice d’Appello di San Marino, Valeria Pierfelici, ha dunque convenuto con l’Autorità che “la grande mole dei dati acquisiti da terzi ed il volume del traffico generato doveva essere immediatamente riconosciuta come pericolosa anomalia e avrebbe dovuto innescare meccanismi di prevenzione e di difesa, atti ad evitare il perpetrarsi di qualunque azione potenzialmente lesiva della riservatezza dei dati delle persone che aderiscono al sodalizio virtuale”.

“Amministrazioni olandesi, alla larga da TikTok finché non si mette in regola con la privacy!”. Nonostante la popolarità vertiginosa dell’app nei Paesi Bassi, dove conta circa 3,5 milioni di utenti, la Pubblica amministrazione olandese sembra essersi attestata sulla linea di evitare gli account TikTok e di interrompere le comunicazioni governative e i messaggi istituzionali sulla piattaforma. Ciò segue, peraltro, la raccomandazione del Ministero degli Affari generali di “sospendere l’uso di TikTok per il governo fino a quando TikTok non avrà adeguato la sua policy in materia di protezione dei dati”. Sebbene la raccomandazione assomigli a una recente decisione del governo statunitense di dicembre di vietare l’uso di TikTok sui dispositivi governativi, le indicazioni olandesi sono, però, molto più limitate nella portata e nell’applicazione.

I vuoti normativi di alcuni Paesi africani possono essere un pericolo per la privacy. Un esempio è il caso della Namibia, in cui preoccupazioni sempre più forti stanno crescendo per via della raccolta di dati particolari – quali fingerprint e dati biometrici del volto – da parte di società di telecomunicazione. Specialmente nel processo di registrazione delle carte SIM. Un articolo pubblicato dall’Institute for Public Policy Research (IPPR) afferma che vi è una mancanza di tutele poiché la Namibia non dispone di una legge sulla protezione dei dati personali. Il trattamento di informazioni di base – come nomi, date di nascita, indirizzi e copie di documenti d’identità – è prevista da altre fonti normative, come il Communications Act del 2009, il quale stabilisce che gli operatori debbano raccoglierle nella fase di registrazione delle carte SIM. Non vi è, però, nessuna norma specifica sul trattamento dei dati biometrici, né vi sono indicazioni rispetto alla necessità di utilizzare questi dati nelle operazioni di registrazione. Così, in queste zone grigie, in cui non vi sono regole certe, trova spazio chi vuole approfittarsi del fatto che, almeno formalmente, non ci sono divieti o limitazioni. Peraltro, non è affatto chiaro a quale scopo le società raccolgano i dati appartenenti a particolari categorie. E la diffusa mancanza di alfabetizzazione digitale nella popolazione non aiuta.

English version

The Republic of San Marino has fined Meta. The Court of Appeal has confirmed the decision of the San Marino Data Protection Authority – already validated in first instance – with which a fine of four million euro was imposed on the Menlo Park company. The Authority had accused Meta of having allowed the unlawful disclosure of the personal data of around 12,700 San Marino citizens, having failed to take the appropriate security measures to prevent users’ data from being taken. The San Marino Appellate Judge, Valeria Pierfelici, therefore agreed with the Authority that “the large amount of data acquired from third parties and the volume of traffic generated should have been immediately recognised as a dangerous anomaly and should have triggered prevention and defence mechanisms, designed to prevent the perpetration of any action potentially damaging to the confidentiality of the data of the persons joining the virtual association”.

“Dutch administrations, stay away from TikTok until it adjust its policies on data protection!”. Despite the skyrocketing popularity of the app in the Netherlands, where it has around 3.5 million users, the Dutch public administration seems to be sticking to the line of avoiding TikTok accounts and discontinuing governmental communications and institutional messages on the platform. However, this follows the recommendation of the Ministry of General Affairs to ‘suspend the use of TikTok for the government until TikTok has adjusted its data protection policy’. Although the recommendation resembles a recent decision by the US government in December to ban the use of TikTok on government devices, the Dutch recommendation is much more limited in scope and application.

Regulatory gaps in some African countries can be a danger to privacy. One example is the case of Namibia, where concerns are growing over the collection of particular data – such as fingerprints and facial biometrics – by telecommunication companies. Especially in the process of SIM card registration. An article published by the Institute for Public Policy Research (IPPR) states that there is a lack of safeguards because Namibia does not have a Data Protection Act. The processing of basic information – such as names, dates of birth, addresses and copies of identity documents – is provided for in other sources of legislation, such as the Communications Act of 2009, which stipulates that operators must collect it when registering SIM cards. However, there is no specific regulation on the processing of biometric data, nor is there any indication of the need to use these data in registration operations. Thus, in these grey areas, where there are no certain rules, there is room for those who want to take advantage of the fact that, at least formally, there are no prohibitions or limitations. Furthermore, it is not at all clear for what purpose companies collect data belonging to particular categories. And the widespread lack of digital literacy among the population does not help.

Pubblicità online, Scorza: “Ecco i tre scenari dopo la maxi multa a Meta”

La maxi-multa a Meta ci mette di fronte alla verità: stiamo pagando Internet con i nostri dati personali. Potrebbe, quindi, essere la volta buona per aprire un dibattito “alto”, maturo, franco e responsabile sul futuro dell’ecosistema digitale. Ne derivano tre opzioni per una nuova era che riguarda non solo Meta.

Continua a leggere qui su Agenda Digitale

Privacy Daily – 17/2023

L’innovazione tecnologica sta aprendo una nuova frontiera nell’agenda di sviluppo dei Paesi di tutto il mondo. Negli ultimi anni, l’intelligenza artificiale (AI) ha avuto ed avrà sempre più un impatto profondo sulle questioni globali in agricoltura, sanità, istruzione. Esiste un enorme potenziale nello sfruttare gli strumenti di intelligenza artificiale per aumentare la crescita economica, ma i vantaggi economici e sociali di questa tecnologia rimangono geograficamente concentrati, principalmente nel Nord del mondo. L’ intelligenza artificiale potrebbe contribuire fino a 15,7 trilioni di dollari all’economia globale entro il 2030. Mentre tutte le regioni dell’economia globale trarranno vantaggio dall’intelligenza artificiale, il Nord America e la Cina vedranno i maggiori guadagni in termini di PIL. I paesi del Sud del mondo registreranno aumenti più moderati a causa di tassi molto più bassi di adozione delle tecnologie di intelligenza artificiale. Non sorprende che le nazioni sviluppate con più potere economico siano generalmente in una posizione migliore ed effettuare grandi investimenti in ricerca e sviluppo per sviluppare e implementare una tecnologia di intelligenza artificiale sempre più avanzata. Tuttavia, c’è un impegno da parte dei paesi del Sud del mondo a utilizzare l’intelligenza artificiale, come articolato in varie strategie nazionali come AIForAll dall’India. Uno studio di Oxford Insight su 181 Paesi del mondo evidenzia come aree geografiche del Sud del mondo siano maggiormente penalizzate nello sviluppo dell’AI, in particolare Africa subsahariana, alcuni paesi dell’Asia centrale e meridionale e alcuni Paesi latinoamericani. Senza un ambiente operativo favorevole, le disparità che gli strumenti di IA possono comportare, sono destinate ad alimentare le disuguaglianze globali.

Meta fa causa a Voyager Labs, per la presunta creazione falsi account Facebook al fine di sottrarre i dati degli utenti e alimentare la sua tecnologia predittiva. Secondo The Guardian, nel 2021 Voyager Labs potrebbe aver venduto uno dei suoi servizi al dipartimento di polizia di Los Angeles: si parla di previsioni sui profili più inclini a commettere reati in futuro. La causa pendente presso il tribunale federale della California descrive in dettaglio le attività che Meta afferma di aver scoperto nel luglio 2022, sostenendo che Voyager avrebbe utilizzato un software di sorveglianza, basato su account falsi, per raccogliere dati da Facebook e Instagram, ed anche Twitter, YouTube, LinkedIn e Telegram. Voyager avrebbe creato e gestito più di 38mila falsi account Facebook per raccogliere informazioni da oltre 600mila utenti del social network, inclusi post, Mi piace, elenchi di amici, foto, commenti e informazioni da gruppi e pagine, secondo quanto riportato nella denuncia

Un gruppo di hacker ha pubblicato su Internet un’enorme quantità di file sensibili dal Dipartimento di polizia della San Francisco Bay Area, comprese accuse specifiche di abusi sui minori. Tra i file del sistema del Bay Area Rapid Transit System (BART) violati anche sei rapporti che dettagliano sospetti abusi su minori con il nome e la data di nascita dei bambini e la descrizione di un adulto e del presunto abuso.

English Translation

Technological innovation is opening a new frontier in the development agenda of countries around the world. In recent years, artificial intelligence (AI) has had and will increasingly have a profound impact on global issues in agriculture, health, and education. There is enormous potential in harnessing artificial intelligence tools to increase economic growth, but the economic and social benefits of this technology remain geographically concentrated, mainly in the Global North. Artificial intelligence could contribute up to $15.7 trillion to the global economy by 2030. While all regions of the global economy will benefit from artificial intelligence, North America and China will see the greatest gains in terms of GDP. Countries in the Global South will see more moderate increases due to much lower rates of adoption of artificial intelligence technologies. Unsurprisingly, developed nations with more economic power are generally in a better position to make large investments in research and development to develop and implement increasingly advanced artificial intelligence technology. However, there is a commitment from countries in the global South to utilise artificial intelligence, as articulated in various national strategies such as AIForAll from India. An Oxford Insight study of 181 countries around the world shows that geographic areas in the Global South are most disadvantaged in the development of AI, particularly Sub-Saharan Africa, some Central and South Asian countries, and some Latin American countries. Without a favourable operating environment, the inequalities that AI tools can contribute to global inequality.

Meta is suing Voyager Labs, for allegedly creating fake Facebook accounts in order to steal user data and feed its predictive technology. According to The Guardian, in 2021 Voyager Labs may have sold one of its services to the Los Angeles Police Department: it is said to have predicted which profiles are most likely to commit crimes in the future. The lawsuit pending in California federal court details the activities Meta claims to have uncovered in July 2022, alleging that Voyager used surveillance software, based on fake accounts, to collect data from Facebook and Instagram, and also Twitter, YouTube, LinkedIn and Telegram. Voyager allegedly created and maintained more than 38 thousand fake Facebook accounts to collect information from more than 600 thousand users of the social network, including posts, likes, friend lists, photos, comments, and information from groups and pages, according to the complaint.

A group of hackers posted a huge amount of sensitive files from the San Francisco Bay Area Police Department on the Internet, including specific allegations of child abuse. Among the Bay Area Rapid Transit System (BART) files hacked were six reports detailing suspected child abuse with the name and date of birth of the children and a description of an adult and the alleged abuse.