Privacy Daily

PRIVACY DAILY 67/2023

L’uso da parte della Polizia israeliana della tecnologia Pegasus per l’hacking dei telefoni cellulari è un esempio di come la riforma giudiziaria proposta potrebbe portare a violazioni della privacy. Lo ha dichiarato il vice procuratore generale Amit Merari davanti alla Knesset. In una sessione voluta da alcuni deputati dell’opposizione, si è discusso il rapporto sull’uso di questa tecnologia da parte della Polizia israeliana. I rischi di violazione della privacy erano stati sollevati dal giornale economico Calcalist più di un anno fa, sostenendo che la polizia aveva usato Pegasus per hackerare illegalmente i telefoni cellulari degli imputati in assenza di un ordine del magistrato. Il rapporto di Merari ha evidenziato l’infondatezza delle accuse, rivelando che, sebbene la legge in Israele sia in ritardo nella capacità di affrontare tecnologie avanzate come Pegasus, la polizia non ha mai agito senza un mandato. Il rapporto ha riconosciuto che in alcuni casi, la tecnologia “Ciphon” usata dalla polizia (meno avanzata di quella di Pegasus) ha raccolto automaticamente e sistematicamente informazioni dai telefoni cellulari andando spesso oltre i parametri stabiliti dalle ordinanze del tribunale. Ma ha anche rilevato come quasi nulla del materiale raccolto in questi casi sia mai stato poi utilizzato dalla polizia. Ha inoltre affermato che la polizia raramente ha spiegato in modo esauriente la portata dell’invasività della tecnologia utilizzata ai giudici, i quali pensavano di approvare qualcosa di simile alle intercettazioni. Merari ha quindi sottolineato la necessità che il processo di implementazione dei nuovi sistemi sia accompagnato da un’attenta sorveglianza da parte dei consulenti legali della polizia e dell’ufficio del procuratore generale. Sulla condotta di Merari e della polizia, come pure sulla gestione della questione da parte dei tribunali è stata chiesta l’istituzione di una commissione d’inchiesta. Resta il fatto, rivelato da un aggiornamento pubblicato dallo stesso Merari, che solo sei delle oltre 2.700 richieste di mandato ai tribunali per violare i telefoni cellulari degli imputati sono state respinte.

Le aziende possono fidarsi dell’IA generativa? Alcuni studi, riportati dal World Economic Forum, hanno dimostrato che, da un punto di vista psicologico, i robot e i loro risultati sarebbero da considerare più credibili delle persone. I sostenitori dell’IA generativa affermano che le informazioni prodotte dalle macchine, essendo sviluppate per essere oggettive e basandosi su dati e algoritmi matematici piuttosto che sui giudizi soggettivi delle persone, non sarebbero vulnerabili ai pregiudizi umani. Inoltre, secondo i ricercatori della Penn State, i clienti attribuirebbero alle decisioni delle macchine una maggiore validità, fattore che potrebbe condurre le aziende a sfruttare questo aspetto a loro vantaggio, soprattutto quando si tratta di informazioni finanziarie o personali dei clienti. Stando a questa ricerca, gli individui avrebbero una forte fiducia nella tecnologia, specialmente per quanto riguarda il rispetto della privacy degli interessati e alla mancanza di eventuali doppi fini sottesi alle decisioni. Le aziende dovrebbero quindi creare strategie per sostenere questa percezione dei contenuti prodotti dall’IA da parte dei clienti. Eppure, il World Economic Forum ricorda anche che non bisogna affidarsi esclusivamente all’IA generativa. Piuttosto, queste tecnologie, che hanno accelerato la creazione di contenuti e creato nuovi tipi di macchine automatiche per la generazione di contenuti, devono essere utilizzati come strumenti di assistenza.  Le aziende possono, peraltro, creare una serie di piani per migliorare l’affidabilità dell’IA generativa. L’utilizzo o la creazione di piattaforme comunicative, in cui il personale dell’azienda – ad esempio, gli agenti di marketing – possa offrire i propri feedback e input per integrare e modificare i materiali prodotti dall’IA, potrebbe essere un passo importante verso una maggiore affidabilità. Le aziende possono utilizzare pratiche di gestione agile dei progetti simili a quelle utilizzate nello sviluppo del software.

In Spagna, si discute sull’impiego del riconoscimento facciale. Sul quotidiano La Vanguardia, campeggia la seguente domanda: per monitorare poche persone, è necessario trattare i dati di milioni di cittadini? Aena ha già testato questa tecnologia negli aeroporti, Renfe vorrebbe applicare il riconoscimento facciale per identificare i “graffitari” o i passeggeri sprovvisti di biglietto, così come Transports Metropilitans de Barcelona nelle sue stazioni della metropolitana. Anche gli stadi di calcio vorrebbero sperimentare questa tecnologia per impedire l’ingresso agli spettatori a cui è vietato assistere alle partite, e alcune aziende private, soprattutto la grande distribuzione, desiderano utilizzare questi sistemi per individuare i recidivi. Ma non sempre tutto va liscio, così come testimoniato dal caso di Mercadona, società sanzionata per 2,5 milioni di euro dall’Agenzia spagnola per la protezione dei dati (AEPD) per aver installato un sistema di riconoscimento facciale nei suoi negozi. In questo quadro confuso, vi sono poche certezze. “Al momento”, afferma Leonardo Núñez, avvocato esperto di nuove tecnologie, “ci troviamo in un limbo normativo e fino a quando la posizione del Comitato europeo non sarà definitiva, è improbabile che l’AEPD possa chiarire ulteriormente la sua posizione”. L’avvertimento alle aziende iberiche emerge chiaramente tra le righe: non bisogna fare investimenti e tanto meno di installare questa tecnologia senza autorizzazione.

English version

The Israeli police’s use of the NSO’s Pegasus mobile phone hacking technology is an example of how the proposed judicial reform could lead to privacy violations. This was stated by Deputy Attorney General Amit Merari during a session of the Knesset. In a session called for by some opposition deputies, the report on the Israeli police’s use of this technology for hacking mobile phones was discussed. The risks of invasion of privacy had been raised by the business newspaper Calcalist more than a year ago, claiming that the police had used Pegasus to illegally hack into defendants’ mobile phones in the absence of a magistrate’s order. Merari’s report highlighted the baselessness of the allegations, revealing that although the law in Israel lags behind in its ability to deal with advanced technologies such as Pegasus, the police have never acted without a warrant. The report acknowledged that in some cases, the ‘Ciphon’ technology used by the police (less advanced than Pegasus) automatically and systematically collected information from mobile phones, often going beyond the parameters set by court orders. But he also noted that almost none of the material collected in these cases was ever used by the police. He also stated that the police rarely fully explained the extent of the invasiveness of the technology used to the judges, who thought they were approving something similar to wiretapping. Merari therefore emphasised the need for the implementation process of the new systems to be accompanied by careful oversight by police legal advisors and the attorney general’s office. On the conduct of Merari and the police, as well as on the courts’ handling of the matter, a commission of enquiry was called for. The fact remains, revealed by an update published by Merari himself, that only six out of more than 2,700 requests for warrants to the courts to hack into defendants’ mobile phones have been rejected.

Can companies trust generative AI? Some studies, reported by the World Economic Forum, have shown that, from a psychological point of view, robots and their results should be considered more credible than people. Proponents of generative AI claim that the information produced by machines, being developed to be objective and based on mathematical data and algorithms rather than people’s subjective judgements, would not be vulnerable to human biases. Moreover, according to the Penn State researchers, customers would attribute greater validity to machine decisions, a factor that could lead companies to exploit this to their advantage, especially when it comes to customers’ financial or personal information. According to this research, individuals would have a strong trust in technology, especially when it comes to respecting the privacy of those involved and the lack of possible ulterior motives behind decisions. Companies should therefore create strategies to support this perception of AI-produced content by customers. Yet, the World Economic Forum also reminds that one should not rely solely on generative AI. Rather, these technologies, which have accelerated content creation and created new types of automated content generation machines, should be used as support tools. Companies can, however, create a number of plans to improve the reliability of generative AI. The use or creation of communication platforms where company personnel – e.g. marketing agents – can offer their feedback and input to supplement and modify the materials produced by AI could be an important step towards greater reliability. Companies can use agile project management practices similar to those used in software development.

In Spain, the use of facial recognition is being debated. In the daily newspaper La Vanguardia, the following question stands out: to monitor a few people, is it necessary to process the data of millions of citizens? Aena has already tested this technology in airports, Renfe would like to apply facial recognition to identify ‘graffiti artists’ or ticketless passengers, as would Transports Metropilitans de Barcelona in its metro stations. Football stadiums would also like to experiment with this technology to prevent entry to spectators banned from attending matches, and some private companies, especially large retailers, would like to use these systems to identify repeat offenders. But everything does not always go smoothly, as witnessed by the case of Mercadona, a company fined EUR 2.5 million by the Spanish Data Protection Agency (AEPD) for installing a facial recognition system in its shops. In this confusing picture, there are few certainties. “At the moment,” says Leonardo Núñez, a lawyer who is an expert in new technologies, “we are in a regulatory limbo and until the position of the European Committee is final, it is unlikely that the AEPD will clarify its position further.” The warning to Iberian companies is clear between the lines: do not invest, let alone install this technology without authorisation.