Privacy Daily 24/2023

L’autorità francese per la protezione dei dati, la Commission nationale de l’informatique et des libertés, ha lanciato una consultazione pubblica sulle questioni economiche associate alla raccolta e all’elaborazione dei dati da parte delle applicazioni mobili. Come annunciato nel suo piano d’azione del 24 novembre, la CNIL ha affermato che il suo obiettivo “è rendere visibili i flussi di dati e rafforzare la conformità delle applicazioni mobili e dei loro ecosistemi al fine di proteggere meglio la privacy degli utenti”. Nel comunicato la Cnil, ha aggiunto che l’approccio “dovrebbe consentire di misurare il potenziale impatto delle scelte normative della CNIL sugli attori francesi, europei e internazionali, in particolare sugli aspetti della concorrenza e dell’innovazione”. Il piano strategico 2022-2024 della CNIL, si è posto tra i temi prioritari: “la raccolta di dati personali nelle applicazioni per smartphone “. Di fronte alla polivalenza delle tecnologie e all’eterogeneità delle pratiche, l’obiettivo della CNIL è rendere visibili i flussi di dati e rafforzare la conformità delle applicazioni mobili e dei loro ecosistemi.

Il Rapporto dell’Università di Oxford dal titolo “Automating Immigration and Asylum: The Uses of New Technologies in Migration and Asylum Governance in Europe” analizza in 76 pagine il delicato tema dell’uso in tutta Europa delle nuove tecnologie anche nel campo della migrazione e dell’asilo. Diversi Stati hanno iniziato a usarle (o a testarle) per controllare chi entra nei propri confini o per scegliere chi può accedere o meno ai propri territori. L’uso di nuove tecnologie può talora accelerare i processi decisionali a vantaggio delle agenzie governative e di alcuni richiedenti. Tuttavia, l’impiego di questi sistemi potrebbe potenzialmente provocare anche nuove vulnerabilità e discriminazioni. Peraltro, i potenziali “errori della macchina” rappresentano una minaccia significativa per migranti e richiedenti asilo, dal momento che un’errata decisione di rimpatrio potrebbe tradursi in un serio rischio per la libertà e la vita. Inoltre, gli studiosi di Oxford evidenziano che, siccome la proposta di Regolamento europeo sull’IA classifica le applicazioni connesse all’immigrazione, all’asilo e al controllo delle frontiere come “ad alto rischio”, è necessaria un’indagine sistematica sulle pratiche attuali e sulla portata del loro utilizzo nei Paesi europei.

Gira un video e diventa “ambasciatore della privacy”. Il contest del Garante privacy dedicato alle scuole, un concorso per gli studenti delle scuole superiori di secondo grado chiamati a realizzare un video per spiegare ai coetanei cosa è per loro la privacy e come tutelarla. L’iniziativa del Garante, realizzata con il supporto tecnico di Skuola.net, ha lo scopo di coinvolgere insegnanti e ragazzi in progetti di informazione e sensibilizzazione sul valore dei dati personali e sull’importanza di difenderli, soprattutto nella dimensione digitale. L’Autorità mette a disposizione degli istituti scolastici che intendono partecipare un apposito kit didattico per sviluppare percorsi di formazione su temi di grande impatto, soprattutto per i più giovani, tra i quali, in particolare il cyberbullismo; i furti di identità; il revenge porn; la profilazione on line; gli assistenti digitali; i dispositivi indossabili; i deepfake.

English Translation

The French data protection authority, the Commission nationale de l’informatique et des libertés, launched a public consultation on the economic issues associated with the collection and processing of data by mobile applications. As announced in its action plan of 24 November, the CNIL stated that its goal ‘is to make data flows visible and strengthen the compliance of mobile applications and their ecosystems, to better protect users’ privacy’. It added that the approach ‘should make it possible to measure the potential impact of CNIL’s regulatory choices on French, European and international actors, particularly on competition and innovation aspects’. The CNIL’s 2022-2024 strategic plan set as one of its priority themes ‘the collection of personal data in smartphone applications’. Faced with the polyvalence of technologies and the heterogeneity of practices, the CNIL’s objective is to make data flows visible and to strengthen the compliance of mobile applications and their ecosystems.

The Oxford University report entitled ‘Automating Immigration and Asylum: The Uses of New Technologies in Migration and Asylum Governance in Europe’ analyses in 76 pages the sensitive topic of the use of new technologies in the field of migration and asylum throughout Europe. Several states have started to use (or test) them to control who enters their borders or to choose who may or may not enter their territories. The use of new technologies can sometimes speed up decision-making processes to the benefit of government agencies and some applicants. However, the use of these systems could also potentially lead to new vulnerabilities and discrimination. Moreover, potential ‘machine errors’ pose a significant threat to migrants and asylum seekers, as a wrong return decision could result in a serious risk to freedom and life. Furthermore, the Oxford scholars point out that since the proposed European AI Regulation classifies applications related to immigration, asylum and border control as ‘high-risk’, a systematic investigation of current practices and the extent of their use in European countries is necessary.

Shoot a video and become a ‘privacy ambassador‘. The Privacy Guarantor’s contest dedicated to schools, a competition for secondary school students called upon to make a video to explain to their peers what privacy means to them and how to protect it. The Garante’s initiative, realised with the technical support of Skuola.net, aims to involve teachers and students in information and awareness-raising projects on the value of personal data and the importance of defending them, especially in the digital dimension. The Authority is making a special teaching kit available to schools wishing to participate in order to develop training courses on topics of great impact, especially for young people, including, in particular, cyberbullying; identity theft; revenge porn; online profiling; digital assistants; wearable devices; and deepfakes.

Privacy Daily 23/2023

Per imparare a distinguere un semaforo, un algoritmo di deep learning deve passare in rassegna centinaia di migliaia di immagini in cui è segnalata la presenza di semafori finché non è in grado di riconoscerle in autonomia. Ma chi è che etichetta in primo luogo le immagini utilizzate per l’addestramento, indicando quali figure – semafori, gatti, persone, ponti e quant’altro – sono presenti al loro interno? Benvenuti nel mondo dei data labeler, gli etichettatori di dati: lavoratori umani al livello base della progettazione di software di deep learning e che operano all’interno di quelli che spesso vengono definiti gli “scantinati dell’intelligenza artificiale”. Scantinati che possono avere l’aspetto di fabbriche specializzate nell’etichettatura dei dati (spesso situate in nazioni in via di sviluppo), ma anche essere piattaforme che assoldano lavoratori da remoto o per cui, inconsapevolmente, lavoriamo gratuitamente anche noi (com’è il caso dei Captcha Code). Il ruolo di questi operai del deep learning non è solo di addestrare le intelligenze artificiali a distinguere determinati elementi di ogni tipo, ma anche di insegnare loro quali forme di linguaggio, immagini e situazioni vanno a tutti i costi evitate.

L’ufficio del Commissario per le informazioni del Regno Unito ha pubblicato un avviso con il quale chiede alle aziende di adeguare la privacy al loro sviluppo tecnologico. La posizione dell’ICO si riflette nel “Tech Horizons Report”, il report che descrive gli sviluppi tecnologici dell’immediato futuro che avranno un impatto sulla società. Il rapporto sottolinea che le aziende devono considerare la trasparenza, il controllo che le persone hanno sui loro dati e la quantità di dati raccolti per garantire che i loro servizi siano conformi a principi privacy. Il direttore della tecnologia, dell’innovazione e dell’impresa dell’ICO, Stephen Almond, ha dichiarato: “In qualità di regolatore, parte del nostro ruolo consiste nel promuovere la fiducia nel modo in cui le organizzazioni elaborano le informazioni personali, sostenendo al contempo la crescita e l’innovazione. Stanno emergendo nuove tecnologie che potrebbero rendere le nostre vite più facili, più sicure, più confortevoli, efficienti e divertenti, ma affinché abbiano successo, dobbiamo consentire alle persone di condividere in sicurezza le proprie informazioni ora e in futuro”.

L’autorità per la protezione dei dati della Repubblica ceca, Úřad pro ochranu osobních údajů, ha pubblicato il suo piano d’azione per il 2023. La DPA ha affermato che si concentrerà sul “trattamento dei dati personali quando si utilizzano i social network, nei sistemi di telecamere su larga scala e negli ufficiali giudiziari.” Verificherà inoltre alcuni sistemi informativi della polizia e si concentrerà sul settore del telemarketing con la collaborazione dell’Ufficio delle telecomunicazioni ceco.

English Translation

To learn how to distinguish a traffic light, a deep learning algorithm has to go through hundreds of thousands of traffic light images until it can recognise them on its own. But who is it that labels the images used for training in the first place, indicating which figures – traffic lights, cats, people, bridges and so on – are present in them? Welcome to the world of data labellers: human workers at the base level of deep learning software design and operating within what are often referred to as the ‘basements of artificial intelligence’. Basements that can look like factories specialising in data labelling (often located in developing nations), but also be platforms that hire workers remotely or for which we unwittingly work for free ourselves (as is the case with Captcha Code). The role of these deep learning workers is not only to train artificial intelligences to distinguish certain elements of all kinds, but also to teach them which forms of language, images and situations should be avoided at all costs.

The UK Information Commissioner’s Office has issued a notice asking companies to adapt privacy to their technological development. The ICO’s position is reflected in the ‘Tech Horizons Report’, the report describing technological developments in the near future that will impact society. The report emphasised that companies need to consider transparency, the control people have over their data, and the amount of data collected to ensure their services comply with privacy principles. The ICO’s director of technology, innovation and enterprise, Stephen Almond, said: ‘As a regulator, part of our role is to promote trust in the way organisations process personal information, while supporting growth and innovation. New technologies are emerging that could make our lives easier, safer, more comfortable, efficient and enjoyable, but for them to succeed, we need to enable people to safely share their information now and in the future.

The Czech Republic’s data protection authority, Úřad pro ochranu osobních údajů, published its action plan for 2023. The DPA said it will focus on “the processing of personal data when using social networks, in large-scale camera systems and in judicial officers.” It will also audit some police information systems and focus on the telemarketing sector with the cooperation of the Czech Telecommunications Office.

Privacy Daily 20/2023

In che modo la tua città gestisce i tuoi dati digitali? Con un numero sempre maggiore di dati prodotti ogni giorno nelle nostre città, c’è una crescente necessità di un utilizzo socialmente responsabile della conoscenza generata dai dati per migliorare il processo decisionale e l’efficienza dei servizi pubblici. La tua auto parcheggiata può rimanere ferma perché hai già pagato il ticket? Vuoi segnalare una zona trafficata e dei rischi ad essa connessi, la necessità di manutenzione di una strada o del parco più vicino? In molti casi, le amministrazioni locali si servono di una serie di algoritmi che riducono gli oneri amministrativi e che veicolano le richieste/segnalazioni presso i reparti competenti (quindi, in maniera più certa e più rapida). Helsinky e Amsterdam hanno però fatto di più sforzandosi di stabilire uno standard per l’uso trasparente ed etico degli algoritmi delle amministrazioni cittadine con la creazione di un registro degli algoritmi. Grazie a questo sistema, i cittadini potranno essere messi nelle condizioni di accedere a informazioni comprensibili e aggiornate su come gli algoritmi influenzino le loro vite e potranno esercitare il diritto di conoscere effettivamente i sistemi di raccolta dei loro dati. “In questo modo – ha affermato André Sobczak, Segretario generale, Eurocities – le due città cercano di offrire una salvaguardia per le persone i cui dati possono essere utilizzati da algoritmi e un modello convalidato che altre città possono utilizzare immediatamente, senza dover investire ulteriori risorse stesse”. Basandosi sul lavoro di Amsterdam e Helsinki, Eurocities Digital Forum Lab ad esempio ha sviluppato uno schema di dati open source, che stabilisce un metodo comune che qualsiasi città può adottare quando crea un registro di algoritmi. Sebbene l’intelligenza artificiale possa essere un importante fattore abilitante per migliorare i servizi pubblici e sostenere l’elaborazione di politiche pubbliche, la sua applicazione può sollevare preoccupazioni etiche. Ad esempio, algoritmi complessi in sistemi automatizzati addestrati su dati distorti possono trasporre pregiudizi a gruppi di cittadini. I registri degli algoritmi offrono trasparenza in merito allo sviluppo e all’attuazione degli algoritmi e forniscono un’importante salvaguardia per l’uso responsabile dell’IA. Sulla base dell’esempio di Helsinky e Amsterdam anche altre città hanno deciso di andare nella stessa direzione: Barcellona, ​​Bologna, la Regione di Bruxelles Capitale, Eindhoven, Mannheim, Rotterdam e Sofia.

La posizione tedesca sul Data Act dell’UE, l’iniziativa legislativa per regolamentare le modalità di accesso, condivisione e trasmissione dei dati, è stata inviata la scorsa settimana alla presidenza svedese del Consiglio dell’UE, che sta raccogliendo feedback prima di presentare una nuova proposta di compromesso per la fine del mese. Nello specifico, la Germania ha chiesto chiarezza su una serie di argomenti tra cui l’interazione del Data Act con il regolamento generale sulla protezione dei dati dell’UE, le condizioni legali per la condivisione e il trasferimento dei dati e i tempi di passaggio al cloud. Per Berlino, un punto centrale sono le contraddizioni, le incoerenze e sovrapposizioni tra la proposta di Data Act e il Regolamento generale sulla protezione dei dati per cui il governo tedesco chiede di rendere esplicito che tutti i dati personali ottenuti tramite il Data Act debbano essere gestiti in conformità con il GDPR.

La politica della Cina sulle Big Tech diventa più chiara. O almeno così sembra, vista da Singapore. Dopo anni di politiche repressive nei confronti dei giganti tecnologici, le incertezze normative stanno per svanire e la strada per gli investitori diffidenti sembra più semplice. Così si è espresso Jeffrey Jaensubhakij, Chief Investment Officer del fondo sovrano GIC, nel corso di un panel al World Economic Forum di Davos. Il commento di Jaensubhakij arriva a margine delle dichiarazioni del vice premier cinese Liu He, che sembrano aver chiarito il quadro. Negli ultimi cinque anni, infatti, la Cina è passata da essere una fonte di profitto a un Paese quasi invisibile per via degli invadenti interventi del governo e delle restrizioni pandemiche. Ora, però, gli investitori mondiali stanno cercando di cambiare passo. E la Cina sembra essersi impegnata a rilanciare l’economia e ad accoglierli.

English translation

How does your city manage your digital data? With more and more data being produced every day in our cities, there is a growing need for socially responsible use of data-generated knowledge to improve decision-making and the efficiency of public services. Can your parked car stay parked because you have already paid the ticket? Do you want to report a busy area and its associated risks, the maintenance of a road or the nearest park? In many cases, local administrations make use of a series of algorithms that reduce the administrative burden and channel the requests/reports to the relevant departments (thus, more reliably and faster). Helsinki and Amsterdam have, however, gone further by striving to establish a standard for the transparent and ethical use of city government algorithms with the creation of an algorithm register. Thanks to this system, citizens will be able to access comprehensible and up-to-date information on how algorithms affect their lives and will be able to exercise their right to actually know about the systems that collect their data. “In this way,” said André Sobczak, Secretary General, Eurocities, “the two cities seek to offer a safeguard for people whose data can be used by algorithms and a validated model that other cities can use immediately, without having to invest additional resources themselves. Building on the work of Amsterdam and Helsinki, Eurocities Digital Forum Lab, for instance, has developed an open source data schema, which establishes a common method that any city can adopt when creating a registry of algorithms. Although artificial intelligence can be an important enabler for improving public services and supporting public policy-making, its application can raise ethical concerns. For instance, complex algorithms in automated systems trained on biased data may transpose biases to groups of citizens. Algorithm registries offer transparency regarding the development and implementation of algorithms and provide an important safeguard for the responsible use of AI. Based on the example of Helsinky and Amsterdam, other cities have also decided to go in the same direction: Barcelona, Bologna, the Brussels Capital Region, Eindhoven, Mannheim, Rotterdam and Sofia.

Germany’s position on the EU Data Act, the legislative initiative to regulate how data is accessed, shared and transmitted, was sent last week to the Swedish EU Council Presidency, which is gathering feedback before presenting a new compromise proposal by the end of the month. Specifically, Germany has asked for clarity on a number of topics including the Data Act’s interaction with the EU’s General Data Protection Regulation, the legal conditions for data sharing and transfer, and the timing of the move to the cloud. For Berlin, a central point of criticism are the contradictions and overlaps between the proposed Data Act and the General Data Protection Regulation, whereby the German government demands that it be made explicit that all personal data obtained through the Data Act must be handled in accordance with the GDPR.

China’s Big Tech policy is becoming clearer. Or so it seems, as seen from Singapore. After years of repressive policies towards tech giants, regulatory uncertainties are about to fade and the road for wary investors seems easier. So said Jeffrey Jaensubhakij, Chief Investment Officer of the sovereign wealth fund GIC, during a panel at the World Economic Forum in Davos. Jaensubhakij’s comment comes on the sidelines of statements by Chinese Vice Premier Liu He, which seem to have clarified the picture. Over the past five years, China has gone from being a source of profit to an almost invisible country due to intrusive government interventions and pandemic restrictions. Now, however, global investors are looking for a change of pace. And China seems to be committed to reviving the economy and welcoming them.

Privacy Daily 19/2023

L’intelligenza artificiale (AI) arriva in un tribunale e a febbraio prossimo negli Stati Uniti assumerà il ruolo di “avvocato difensore”: da uno smartphone ascolterà quanto avverrà in aula e suggerirà all’accusato come difendersi attraverso degli auricolari. La causa con la quale esordirà in tribunale riguarda una multa per eccesso di velocità e rappresenterà un precedente importante. L’Intelligenza artificiale da tribunale è stata sviluppata da DoNotPay. Negli Stati Uniti, secondo i dati riportati dal sito Cnet, l’80% degli americani a basso reddito non ha accesso all’assistenza legale. E Proprio DoNotPay ha già utilizzato negli Usa chatbot generati dall’intelligenza artificiale per aiutare le persone a ottenere rimborsi per il Wi-Fi in volo che non funzionava, chiedere riduzioni delle bollette della luce, contestare le multe. “La maggior parte delle persone non può permettersi una rappresentanza legale”, ha detto il CEO di DoNotPay, Josh Browder in un’intervista.

La privacy by design, uno dei principi fondamentali attorno ai quali ruota la disciplina del GDPR, sta per diventare uno standard internazionale: il prossimo 8 febbraio, infatti, l’International Organization for Standardization adotterà la ISO 31700 contenente requisiti e indicazioni su come implementare questo importante principio alla base della protezione dei dati personali. La notizia è stata accolta con favore in particolare dai produttori e fornitori di servizi che, proprio grazie alla standardizzazione, potranno vedersi semplificata l’attuazione pratica e concreta del principio.

Il Garante per la protezione dei dati personali ha inviato alla Regione Veneto una richiesta di informazioni per verificare la conformità alla normativa privacy di una delibera, in base alla quale non sarebbero più i medici di medicina generale a scegliere la classe di priorità della prestazione richiesta per il paziente, ma un sistema basato sull’intelligenza artificiale. Sarebbe in sostanza un algoritmo a stabilire i tempi di attesa per le prestazioni prescritte. Di fronte ad un possibile trattamento su larga scala di dati particolarmente delicati come quelli sulla salute, che coinvolgerebbe peraltro un numero rilevante di pazienti, il Garante ha deciso di avviare un’istruttoria. L’iniziativa della Regione era stata segnalata da alcuni articoli di stampa.

English Translation

Artificial intelligence (AI) arrives in a courtroom, February in the United States will play the role of ‘defence lawyer’: from a smartphone it will listen to what is happening in the courtroom and suggest what to say to the defendant through earphones. The case concerns a speeding fine and will in any case set a precedent. The courtroom artificial intelligence was developed by DoNotPay. In the United States, according to data reported by the website Cnet, 80 % of low-income Americans have no access to legal aid. And Just DoNotPay has already used artificial intelligence-generated chatbots in the US to help people get refunds for in-flight Wi-Fi that didn’t work, lower their electricity bills, contest traffic tickets. “Most people can’t afford legal representation” Josh Browder, CEO of DoNotPay said in an interview. The use of artificial intelligence in a real court situation ‘will be a proof of concept for the courts to allow technology in the courtroom’.

Privacy by design, one of GDPR’s fundamental principles, is about to become an international standard: on February 8, in fact, the International Organization for Standardization will adopt ISO 31700 containing requirements and guidance on how to implement this important principle underlying the protection of personal data. The news has been welcomed in particular by manufacturers and service providers who, thanks precisely to standardization, will be able to see simplified practical and concrete implementation of the principle.

The Garante per la protezione dei dati personali (Italian data protection authority) sent the Veneto Region a request for information to verify the compliance with privacy regulations of a resolution, according to which it would no longer be general practitioners who would choose the priority class of the service requested for the patient, but a system based on artificial intelligence. It would essentially be an algorithm that would determine the waiting times for prescribed services. Faced with a possible large-scale processing of particularly sensitive data such as health data, which would moreover involve a significant number of patients, the Garante decided to open an inquiry. The Region’s initiative had been signalled by some press articles.

Privacy Daily – 18/2023

Continua il “periodo nero” di TikTok negli Stati Uniti. In questi giorni sempre più stati si stanno muovendo per bannare il social network dai dispositivi di proprietà del governo, e i politici cominciano lentamente a considerare le accuse secondo cui l’app è stata utilizzata per spiare i giornalisti statunitensi. Una situazione sempre più difficile, che ha convinto la società madre ByteDance a fare concessioni significative nel suo accordo con i funzionari governativi, pur di evitare un altro ban sul territorio statunitense. Sono mesi che la società sta lavorando con il Comitato per gli investimenti esteri negli Stati Uniti (CFIUS) per definire i termini di un accordo che permetta a TikTok di continuare ad essere presente nel paese. Ma dopo aver archiviato le questioni relative alle limitazioni all’accesso ai dati degli utenti statunitensi da parte del personale ByteDance con sede in Cina e all’archiviazione degli stessi, ora il problema sembra essere un altro: il reale funzionamento dell’algoritmo del social. A quanto pare, infatti, i funzionari statunitensi sono preoccupati che TikTok possa utilizzarlo per manipolare gli utenti. 

IAB Europe compie un passo in avanti verso l’assoluzione del suo Transparency & Consent Framework (lo strumento per la gestione dei consensi all’uso dei dati) agli occhi dell’autorità per la protezione dei dati (DPA) belga, che aveva avanzato accuse rispetto alla non conformità dello strumento al GDPR. L’autorità di Bruxelles, infatti, ha annunciato di avere approvato il piano d’azione di IAB, che prevede un processo di revisione della durata di 6 mesi del TCF, e una serie di modifiche per mettere a posto le caratteristiche della piattaforma che l’agenzia ha ritenuto non conformi alle attuali normative sulla privacy.L’accettazione da parte della DPA del piano d’azione, non pone comunque definitivamente al sicuro il Framework di IAB Europe. Ci sono infatti ancora due punti fondamentali che l’autorità belga ha sollevato davanti alla Corte di Giustizia Europea. La Corte infatti deve ancora decidere se IAB Europe è contitolare del trattamento dei dati per il TCF e, inoltre, se le stringhe del TCF – i pacchetti di dati che segnalano se un utente ha dato il suo consenso per il targeting o le misurazioni – contano come dati personali. La DPA aveva sollevato accuse sulla conformità del TCF al GDPR lo scorso febbraio, ordinando a IAB Europe di pagare una multa di 250.000 euro e di attuare una serie di cambiamenti allo strumento.

Il segretario alla cultura del Governo britannico, Michelle Donelan, ha confermato che il disegno di legge sulla sicurezza online verrà modificato, dopo le pressioni dei backbencher, i deputati conservatori. Le nuove disposizioni prevedono, tra l’altro, una responsabilità personale dei senior manager delle piattaforme tecnologiche che ignorano gli avvisi di Ofcom, il Garante delle comunicazioni UK, sulle violazioni degli obblighi di sicurezza a tutela dei minori. In base al disegno di legge, le società tecnologiche, comprese le società di social media e i motori di ricerca, hanno il dovere di proteggere i bambini da contenuti dannosi come ad esempio materiali online che promuovono l’autolesionismo e i disturbi alimentari. Il disegno di legge impone un obbligo generale di diligenza alle aziende tecnologiche al fine di proteggere gli utenti da contenuti illegali come abusi sessuali su minori e materiale terroristico. Le aziende che violano la legge potrebbero incorrere in multe fino a 18 milioni di sterline o corrispondenti al 10% del fatturato globale.

English Translation

TikTok’s ‘black period’ in the US continues. These days, more and more states are moving to ban the social network from government-owned devices, and politicians are slowly beginning to consider allegations that the app has been used to spy on US journalists. An increasingly difficult situation, which has convinced parent company ByteDance to make significant concessions in its deal with government officials in order to avoid another ban on US soil. The company has been working with the Committee on Foreign Investment in the United States (CFIUS) for months to work out the terms of an agreement that would allow TikTok to continue to have a presence in the country. But after having filed the issues related to the limitations on access to US user data by China-based ByteDance staff and the storage of the same, the problem now seems to be another: the actual functioning of the social’s algorithm. Apparently, in fact, US officials are concerned that TikTok may be using it to manipulate users. 

IAB Europe takes a step closer to absolving its Transparency & Consent Framework (the data usage consent management tool) in the eyes of the Belgian Data Protection Authority (DPA), which had made accusations about the tool’s non-compliance with the GDPR. The Brussels authority, in fact, announced that it had approved the IAB’s action plan, which envisages a six-month review process of the TCF, and a series of changes to put in place the platform’s features that the agency deemed non-compliant with current privacy regulations.The DPA’s acceptance of the action plan, however, does not definitively secure the IAB Europe Framework. There are in fact still two fundamental points that the Belgian authority has raised before the European Court of Justice. The Court still has to decide whether IAB Europe is co-owner of the data processing for the TCF and, moreover, whether TCF strings – the data packets that indicate whether a user has given consent for targeting or measurement – count as personal data. The DPA had raised allegations about TCF’s compliance with the GDPR last February, ordering IAB Europe to pay a €250,000 fine and implement a number of changes to the tool.

The culture secretary, Michelle Donelan, confirmed that the online safety bill would be amended after pressure from Conservative backbenchers. The new provision will target senior managers at tech platforms who ignore enforcement notices from Ofcom, the communications watchdog, about breaches of the legislation’s child safety duties. Under the bill, tech companies including social media firms and search engines have a duty to protect children from harmful content such as material promoting self-harm and eating disorders. The bill also places a duty of care on tech firms to shield users from illegal content such as child sexual abuse and terrorist material. Companies that breach the act could face fines of up to £18m or 10% of global turnover.

Privacy Daily – 17/2023

L’innovazione tecnologica sta aprendo una nuova frontiera nell’agenda di sviluppo dei Paesi di tutto il mondo. Negli ultimi anni, l’intelligenza artificiale (AI) ha avuto ed avrà sempre più un impatto profondo sulle questioni globali in agricoltura, sanità, istruzione. Esiste un enorme potenziale nello sfruttare gli strumenti di intelligenza artificiale per aumentare la crescita economica, ma i vantaggi economici e sociali di questa tecnologia rimangono geograficamente concentrati, principalmente nel Nord del mondo. L’ intelligenza artificiale potrebbe contribuire fino a 15,7 trilioni di dollari all’economia globale entro il 2030. Mentre tutte le regioni dell’economia globale trarranno vantaggio dall’intelligenza artificiale, il Nord America e la Cina vedranno i maggiori guadagni in termini di PIL. I paesi del Sud del mondo registreranno aumenti più moderati a causa di tassi molto più bassi di adozione delle tecnologie di intelligenza artificiale. Non sorprende che le nazioni sviluppate con più potere economico siano generalmente in una posizione migliore ed effettuare grandi investimenti in ricerca e sviluppo per sviluppare e implementare una tecnologia di intelligenza artificiale sempre più avanzata. Tuttavia, c’è un impegno da parte dei paesi del Sud del mondo a utilizzare l’intelligenza artificiale, come articolato in varie strategie nazionali come AIForAll dall’India. Uno studio di Oxford Insight su 181 Paesi del mondo evidenzia come aree geografiche del Sud del mondo siano maggiormente penalizzate nello sviluppo dell’AI, in particolare Africa subsahariana, alcuni paesi dell’Asia centrale e meridionale e alcuni Paesi latinoamericani. Senza un ambiente operativo favorevole, le disparità che gli strumenti di IA possono comportare, sono destinate ad alimentare le disuguaglianze globali.

Meta fa causa a Voyager Labs, per la presunta creazione falsi account Facebook al fine di sottrarre i dati degli utenti e alimentare la sua tecnologia predittiva. Secondo The Guardian, nel 2021 Voyager Labs potrebbe aver venduto uno dei suoi servizi al dipartimento di polizia di Los Angeles: si parla di previsioni sui profili più inclini a commettere reati in futuro. La causa pendente presso il tribunale federale della California descrive in dettaglio le attività che Meta afferma di aver scoperto nel luglio 2022, sostenendo che Voyager avrebbe utilizzato un software di sorveglianza, basato su account falsi, per raccogliere dati da Facebook e Instagram, ed anche Twitter, YouTube, LinkedIn e Telegram. Voyager avrebbe creato e gestito più di 38mila falsi account Facebook per raccogliere informazioni da oltre 600mila utenti del social network, inclusi post, Mi piace, elenchi di amici, foto, commenti e informazioni da gruppi e pagine, secondo quanto riportato nella denuncia

Un gruppo di hacker ha pubblicato su Internet un’enorme quantità di file sensibili dal Dipartimento di polizia della San Francisco Bay Area, comprese accuse specifiche di abusi sui minori. Tra i file del sistema del Bay Area Rapid Transit System (BART) violati anche sei rapporti che dettagliano sospetti abusi su minori con il nome e la data di nascita dei bambini e la descrizione di un adulto e del presunto abuso.

English Translation

Technological innovation is opening a new frontier in the development agenda of countries around the world. In recent years, artificial intelligence (AI) has had and will increasingly have a profound impact on global issues in agriculture, health, and education. There is enormous potential in harnessing artificial intelligence tools to increase economic growth, but the economic and social benefits of this technology remain geographically concentrated, mainly in the Global North. Artificial intelligence could contribute up to $15.7 trillion to the global economy by 2030. While all regions of the global economy will benefit from artificial intelligence, North America and China will see the greatest gains in terms of GDP. Countries in the Global South will see more moderate increases due to much lower rates of adoption of artificial intelligence technologies. Unsurprisingly, developed nations with more economic power are generally in a better position to make large investments in research and development to develop and implement increasingly advanced artificial intelligence technology. However, there is a commitment from countries in the global South to utilise artificial intelligence, as articulated in various national strategies such as AIForAll from India. An Oxford Insight study of 181 countries around the world shows that geographic areas in the Global South are most disadvantaged in the development of AI, particularly Sub-Saharan Africa, some Central and South Asian countries, and some Latin American countries. Without a favourable operating environment, the inequalities that AI tools can contribute to global inequality.

Meta is suing Voyager Labs, for allegedly creating fake Facebook accounts in order to steal user data and feed its predictive technology. According to The Guardian, in 2021 Voyager Labs may have sold one of its services to the Los Angeles Police Department: it is said to have predicted which profiles are most likely to commit crimes in the future. The lawsuit pending in California federal court details the activities Meta claims to have uncovered in July 2022, alleging that Voyager used surveillance software, based on fake accounts, to collect data from Facebook and Instagram, and also Twitter, YouTube, LinkedIn and Telegram. Voyager allegedly created and maintained more than 38 thousand fake Facebook accounts to collect information from more than 600 thousand users of the social network, including posts, likes, friend lists, photos, comments, and information from groups and pages, according to the complaint.

A group of hackers posted a huge amount of sensitive files from the San Francisco Bay Area Police Department on the Internet, including specific allegations of child abuse. Among the Bay Area Rapid Transit System (BART) files hacked were six reports detailing suspected child abuse with the name and date of birth of the children and a description of an adult and the alleged abuse.

Privacy Daily 16/1

Un’idea alternativa per la pubblicità online in Europa. Più riguardo per il trattamento dei dati e niente profilazione: è quello che prevede il piano della joint venture annunciata dalle quattro maggiori compagnie europee di telecomunicazione che sfida le big tech. Si tratta della tedesca Deutsche Telekom, attiva in oltre 50 paesi, in Europa e Stati Uniti; la francese Orange, attiva in 27 paesi; la spagnola Telefónica, attiva in Europa e Sud America; l’inglese Vodafone, attiva in 21 paesi tra Europa e Africa. Molti di questi offrono sia servizi di telefonia che di Iptv (contenuti televisivi trasmessi via internet). La richiesta, come rivelato da Politico, è arrivata agli uffici della Commissione europea che si occupano di concorrenza, visto il rischio di una eventuale concentrazione di mercato a danno dei consumatori. Tuttavia, in questo caso, il piano non sembra essere diretto, come a volte accade, a restringere la concorrenza, con la conseguenza di alzare i prezzi per gli utenti, ma piuttosto a creare un’alternativa appetibile per gli investitori pubblicitari che non vogliano solo rivolgersi al sistema dominato dalle grandi piattaforme. Quello che è significativo è che uno dei punti di forza del progetto è proprio una maggiore attenzione alla privacy degli utenti. La promessa di questa joint venture è quella di creare un grande hub per la distribuzione pubblicitaria, ma senza profilare i clienti e, anzi, dando loro maggior controllo su come i dati sono condivisi con le aziende.

E’ diventato popolare usare l’intelligenza artificiale per generare favole della buonanotte, lettere d’amore, saggi di scuola superiore , persino consigli sulla salute mentale, opere d’arte. Molte persone non si sentono però a proprio agio con i contenuti creati dai bot. ChatGPT in particolare ha suscitato timori ad esempio per lo studio, si pensa che gli studenti possano utilizzarlo per scrivere tesi e compiti. Il Dipartimento dell’Istruzione di New York City, ad esempio, ha recentemente vietato l’accesso al ChatGPT sulle sue reti e dispositivi. Anche le persone in altri settori sono preoccupate che i lavoratori possano usarlo come scorciatoia per gli incarichi di lavoro. Alcuni ricercatori si sono impegnati nell’individuare strumenti per aiutare le persone a capire cosa scaturisce realmente dalla mente umana e cosa è stato messo insieme da un bot. Edward Tian, ​​uno studente di 22 anni della Princeton University, ha creato ad esempio GPTZero, che mostra la probabilità di quanto ci sia di vero o falso nei testi. Il software valuta in base a una manciata di fattori. Una metrica chiave che utilizza è la tendenza delle persone a utilizzare una maggiore variazione nella scelta delle parole e nella lunghezza della frase, mentre il testo dell’IA è più lineare e asciutto.

Bankitalia: giù frodi online con doppia password o codice. Inserire due password o pin, o dare il via libera al pagamento tramite il token o lo smartphone può essere un procedimento fastidioso, ma riduce del 60% i rischi di frode per i trasferimenti online con carta e dell’80% di quelli con moneta elettronica. I dati emergono da un paper pubblicato dalla Banca d’Italia sull’impatto dei nuovi requisiti di autenticazione forte del cliente o doppia autenticazione (Sca) introdotti con la direttiva europea Psd2 e declinati poi da ogni banca in maniera diversa. Si stima che le transazioni per cui la regolamentazione prevede un’esenzione dall’applicazione della Sca risultano relativamente sicure.

English Translation

An alternative idea for online advertising in Europe. More care for data processing and no profiling: that is the plan of the joint venture announced by the four largest European telecommunication companies challenging the big tech. These are Germany’s Deutsche Telekom, active in over 50 countries, in Europe and the United States; France’s Orange, active in 27 countries; Spain’s Telefónica, active in Europe and South America; and the UK’s Vodafone, active in 21 countries between Europe and Africa. Many of these offer both telephony and IPTV (TV content transmitted via the Internet) services. The request, as revealed by Politico, reached the European Commission’s competition offices, given the risk of a possible market concentration to the detriment of consumers. However, in this case, the plan does not seem to be directed, as sometimes happens, at restricting competition, with the consequence of raising prices for users, but rather at creating an attractive alternative for advertising investors who do not only want to turn to the system dominated by the large platforms. What is significant is that one of the strengths of the project is precisely a greater focus on user privacy. The promise of this joint venture is to create a large advertising distribution hub, but without profiling customers and, on the contrary, giving them more control over how data is shared with companies.

It has become popular to use artificial intelligence to generate bedtime stories, love letters, high school essays, even mental health advice, works of art. However, many people are uncomfortable with the content created by bots. ChatGPT in particular has raised fears for study, for example, it is thought that students may use it to write theses and assignments. The New York City Department of Education, for example, recently banned access to ChatGPT on its networks and devices. People in other sectors are also concerned that workers might use it as a shortcut for work assignments. Some researchers have been working on finding tools to help people understand what really springs from the human mind and what has been put together by a bot. For instance, Edward Tian, a 22-year-old student at Princeton University, created GPTZero, which shows the probability of what is true or false in texts. The software evaluates based on a handful of factors. One key metric it uses is people’s tendency to use more variation in word choice and sentence length, while AI text is more linear and dry.

Bankitalia: Down online fraud with double passwords or codes. Entering two passwords or pins, or giving the go-ahead for payment using a token or smartphone can be an annoying process, but it reduces the risk of fraud for online transfers by 60% for card transactions and by 80% for those using electronic money. The data emerge from a paper published by the Bank of Italy on the impact of the new requirements for strong customer authentication or dual authentication (Sca) introduced with the European Psd2 directive and then declined by each bank in a different way. It is estimated that transactions for which the regulation provides an exemption from the application of Sca are relatively secure.

Privacy Daily 14/2023

Il Wisconsin e la Carolina del Nord hanno vietato l’uso di TikTok su dispositivi di proprietà del governo per problemi di sicurezza informatica. Qualche giorno fa era toccato al New Jersey, all’Arkansas e all’Ohio bandire l’app, aggiungendosi ad altri 20 stati. Il governatore del Wisconsin Tony Evers, firmando l’ordine di divieto, ha sottolineato che: “Nell’era digitale, difendere la tecnologia del nostro stato e l’infrastruttura di sicurezza informatica e proteggere la privacy digitale devono essere una priorità assoluta per noi a livello statale”, aggiungendo che, oltre a vietare l’app di social media cinese, verranno anche banditi fornitori, prodotti e servizi di nove società, tra cui Huawei Technologies, Tencent Holdings e ZTE Corporation.  La richiesta di vietare TikTok è nata dalle parole di Christopher Wray, direttore dell’FBI, il quale, nel novembre scorso, ha affermato che l’app rappresenta una minaccia per la sicurezza nazionale, tramite la quale il governo cinese può influenzare gli utenti o controllare i loro dispositivi. 

Il governo maltese rinuncia al progetto Safe City Malta, partnership tra il governo maltese e la società tecnologica Huawei per implementare sistemi CCTV di riconoscimento facciale, pensata per i luoghi turistici, come riferisce MaltaToday. Il piano ha sollevato preoccupazioni, anche da parte del già Rapporteur speciale delle Nazioni Unite sulla privacy Joe Cannataci. Una preoccupazione diffusa sull’Isola anche da settori della società civile preoccupati per i piani di espansione di Huawei con particolare riguardo all’utilizzo di algoritmi di riconoscimento facciale e sulla raccolta dei dati dei cittadini maltesi da parte dal colosso cinese. Altri giganti della tecnologia cinese, come ZTE, hanno fornito infatti al governo etiope l’infrastruttura necessaria per monitorare le comunicazioni dei suoi cittadini, mentre, CloudWalk Technology, una start-up con sede a Guangzhou, ha firmato un accordo con il governo dello Zimbabwe per realizzare un programma di riconoscimento facciale di massa, replicando parti dell’infrastruttura di sorveglianza che limita le libertà in Cina.

Check Point Research, la divisione Threat Intelligence della società di sicurezza informatica Check Point Software, ha condiviso nuovi dati sui trend degli attacchi informatici nel 2022, che, nel mondo, sono aumentati del 38% rispetto al 2021. Si tratta di numeri determinati da gruppi hacker e ransomware più piccoli, che hanno aumentato il volume delle violazioni. Uno degli obiettivi preferiti dei criminali sono le organizzazioni sanitarie, che hanno registrato il maggior aumento di cyberattacchi durante lo scorso anno, in media 1.463 settimanali, un numero superiore del 74% rispetto a quello registrato nel 2021. Check Point Research sottolinea che la diffusione della tecnologia AI, come ChatGPT, potrebbe accelerare il numero di attacchi per il 2023.

English Translation

Wisconsin and North Carolina have banned the use of TikTok on government-owned devices due to cybersecurity concerns. A few days ago it was the turn of New Jersey, Arkansas and Ohio to ban the app, joining 20 other states. Wisconsin Governor Tony Evers, signing the ban order, emphasised that: “In the digital age, defending our state’s technology and cybersecurity infrastructure and protecting digital privacy must be a top priority for us at the state level,” adding that in addition to banning the Chinese social media app, suppliers, products and services from nine companies, including Huawei Technologies, Tencent Holdings and ZTE Corporation, will also be banned.  The call to ban TikTok was fuelled by the words of Christopher Wray, director of the FBI, who said last November that the app poses a threat to national security, through which the Chinese government can influence users or control their devices. 

The Maltese government is abandoning the Safe City Malta project, a partnership between the Maltese government and technology company Huawei to implement facial recognition CCTV systems designed for tourist sites, as MaltaToday reports. The plan has raised concerns, including from former UN Special Rapporteur on Privacy Joe Cannataci. Concerns have also been spread on the island by sectors of civil society worried about Huawei’s expansion plans with particular regard to the use of facial recognition algorithms and the Chinese giant’s collection of Maltese citizens’ data. Other Chinese technology giants, such as ZTE, have in fact provided the Ethiopian government with the necessary infrastructure to monitor the communications of its citizens, while, CloudWalk Technology, a Guangzhou-based start-up, has signed an agreement with the Zimbabwean government to implement a mass facial recognition programme, replicating parts of the surveillance infrastructure that restricts freedoms in China.

Check Point Research, the Threat Intelligence division of the cybersecurity company Check Point Software, shared new data on cyber attack trends in 2022, which increased by 38 per cent worldwide compared to 2021. These numbers are driven by smaller hacker groups and ransomware, which have increased the volume of breaches. Targeted by criminals are healthcare organisations, which recorded the largest increase in cyberattacks during the past year, averaging 1,463 weekly, a number 74% higher than in 2021. Check Point Research points out that the spread of AI technology, such as ChatGPT, could accelerate the number of attacks by 2023.

Privacy Daily 13/2023

In un editoriale per il Wall Street Journal, ripreso dalla Reuters, il presidente degli Stati Uniti Joe Biden ha ribadito la richiesta al Congresso degli Stati Uniti di approvare una legislazione federale organica sulla privacy. Tra i principi generali per la riforma di Biden contro le Big Tech, il Presidente USA ha affermato che sono in cima alla lista: “una serie protezioni federali per la privacy degli americani. Ciò significa limiti chiari su come le aziende possono raccogliere, utilizzare e condividere dati altamente personali: la cronologia di Internet, le comunicazioni personali, la posizione, i dati sanitari, genetici e biometrici. Non è sufficiente che le aziende rivelino quali dati stanno raccogliendo. Molti di questi dati non dovrebbero essere raccolti in primo luogo. Queste protezioni dovrebbero essere ancora più forti per i giovani, che sono particolarmente vulnerabili online. Dovremmo limitare la pubblicità mirata e vietarla del tutto per i bambini”. “Ci saranno molte questioni politiche su cui non siamo d’accordo nel nuovo Congresso – ha concluso Biden nel suo editoriale – ma le proposte bipartisan per proteggere la nostra privacy e i nostri figli, prevenire la discriminazione, lo sfruttamento sessuale e lo stalking informatico e affrontare i comportamenti anticoncorrenziali non dovrebbero separarci. Uniamoci dietro i nostri valori condivisi e mostriamo alla nazione che possiamo lavorare insieme per portare a termine il lavoro”.

La Cnil ha annunciato di aver inflitto una multa di 5 milioni di euro al social network cinese Tik Tok. Contestate le pratiche di raccolta del consenso degli utenti di Internet e la gestione dei cookie pubblicitari. ” La privacy dei nostri utenti rimane una priorità assoluta per TikTok “, commenta l’azienda, che sottolinea che queste sanzioni riguardano ” pratiche precedenti che abbiamo modificato lo scorso anno. » Il Garante francesce aveva concesso ai siti operanti in Francia fino al 1 aprile 2021 di modificare i propri banner informativi sui cookie. La Cnil ha da allora effettuato una serie di controlli che hanno portato a sanzioni nei confronti di molti player digitali, tra cui Google, Facebook, Microsoft e Amazon. Ora la procedura contro Tik Tok. Nella sua delibera, l’autorità di regolamentazione dà atto che il social network ha collaborato alla sua indagine. Il social ha quattro mesi di tempo per presentare ricorso al Consiglio di Stato. “ Questa decisione è solo il primo mattone delle azioni della Cnil riguardanti TikTok ”, spiega a Figaro il suo segretario generale Louis Dutheillet de Lamothe. Il regolatore ha infatti avviato altre due inchieste nel 2021 sul trasferimento dei dati degli utenti europei in Cina, nonché sul trattamento dei dati personali degli utenti di età inferiore ai 18 anni, che rappresentano una parte significativa della platea di Tik Tok.

In Veneto si vorrebbe fosse un algoritmo a decidere se la priorità segnata dal medico sull’impegnativa risulti o meno appropriata. Ma i medici non ci stanno. “La priorità espressa sulle richieste di indagini fa parte dell’atto medico in sé e non può essere guidata e compressa in un algoritmo, perché esprime la valutazione del professionista, basata su criteri clinici, sulla necessità della tempistica di esecuzione di quella precisa indagine per quel paziente specifico”, obietta Liana Lora, segretario del Sindacato medici italiani del Veneto attaccando la delibera regionale che stabilisce l’entrata in vigore dei Raggruppamenti di attesa omogenei (Rao), una novità pensata per arginare le liste d’attesa. Istituiti a inizio mese i Raggruppamenti di attesa omogenei sono griglie di scelta preordinate per le tempistiche dello svolgimento delle indagini diagnostiche prescritte dai medici. Questione da approfondire anche in una dimensione di protezione dei dati personali.

English Translation

In an editorial for the Wall Street Journal, picked up by Reuters, US President Joe Biden reiterated his call for the US Congress to pass comprehensive federal privacy legislation. Among the overarching principles for Biden’s reform against Big Tech, the US President said are at the top of the list: ‘First, we need serious federal protections for Americans’ privacy. That means clear limits on how companies can collect, use and share highly personal data—your internet history, your personal communications, your location, and your health, genetic and biometric data. It’s not enough for companies to disclose what data they’re collecting. Much of that data shouldn’t be collected in the first place. These protections should be even stronger for young people, who are especially vulnerable online. We should limit targeted advertising and ban it altogether for children”. “There will be many policy issues we disagree on in the new Congress – Biden concluded in his editorial – but bipartisan proposals to protect our privacy and our children; to prevent discrimination, sexual exploitation, and cyberstalking; and to tackle anticompetitive conduct shouldn’t separate us. Let’s unite behind our shared values and show the nation we can work together to get the job done”,

Cnil announced that it has imposed a fine of EUR 5 million on the Chinese social network Tik Tok. The practices of collecting consent from Internet users and the management of advertising cookies were contested. ” The privacy of our users remains a top priority for TikTok “, comments the company, which emphasises that these sanctions concern ” previous practices that we changed last year. ” The French Garante had granted sites operating in France until 1 April 2021 to modify their cookie information banners. The Cnil has since carried out a series of checks that have led to sanctions against many digital players, including Google, Facebook, Microsoft and Amazon. Now the proceedings against Tik Tok. In its ruling, the regulator acknowledges that the social network cooperated with its investigation. The social has four months to appeal to the Council of State. “This decision is just the first brick in the Cnil’s actions concerning TikTok,” its secretary general Louis Dutheillet de Lamothe tells Figaro. Indeed, the regulator has launched two other investigations in 2021 on the transfer of European users’ data to China, as well as on the processing of personal data of users under the age of 18, who represent a significant part of Tik Tok’s audience.

In Veneto, an algorithm will decide whether the priority marked by the doctor on the prescription is appropriate or not. And the doctors do not agree. “The priority expressed on requests for investigations is part of the medical act in itself and cannot be guided and compressed in an algorithm, because it expresses the professional’s assessment, based on clinical criteria, of the need for the timing of the execution of that specific investigation for that specific patient,’ objects Liana Lora, secretary of the Veneto Italian Doctors’ Union, attacking the regional resolution that establishes the entry into force of the Homogeneous Waiting Groups (Rao), a new feature designed to curb waiting lists. Set up at the beginning of the month, the Homogeneous Waiting Groups are preordained grids for the timing of diagnostic investigations prescribed by doctors. Issue to be explored also in a data protection dimension.

Privacy Daily 12/2023

Negli ultimi cinque anni, le case automobilistiche hanno testato i loro veicoli senza conducente sulle strade pubbliche di San Francisco. Questi veicoli percorrono costantemente diversi quartieri, con ampie dotazioni di sensori, tra cui videocamere che catturano tutto ciò che accade intorno a loro. Mentre le aziende, come Waymo di Alphabet e Cruise di General Motors, pubblicizzano i potenziali vantaggi di trasporto che i loro servizi potrebbero un giorno offrire, non pubblicizzano un altro caso d’uso: telecamere di sorveglianza mobile per dipartimenti di polizia. I veicoli autonomi registrano continuamente l’ambiente circostante e hanno il potenziale per fornire indizi investigativi”, afferma un documento di addestramento del dipartimento di polizia di San Francisco ottenuto da Motherboard. I sostenitori della privacy affermano che l’utilizzo da parte delle forze di polizia di veicoli senza conducenti costituisca motivo di allarme.

Quando Greg ha disimballato un nuovo robot aspirapolvere Roomba nel dicembre 2019, pensava di sapere in cosa si stava cacciando. Avrebbe consentito alla versione di prova di pre-produzione del dispositivo della serie Roomba J di iRobot di girare per casa sua, lasciando che raccogliesse tutti i tipi di dati per migliorare la sua intelligenza artificiale e fornire feedback a iRobot sulla sua esperienza utente. come ingegnere presso una società di software, Greg ha testato decine di prodotti negli ultimi anni, dalle scarpe da ginnastica alle videocamere domestiche intelligenti. Ma ciò che Greg non sapeva è che iRobot avrebbe condiviso i dati degli utenti, catturato immagini dalle fotocamere del dispositivo, inviandole anche al di fuori degli Stati Uniti con tanto di screenshot a piacimento.

Il racconto, in sintesi, delle principali attività del Garante, mese per mese. Il GPDPDigest è il prodotto di informazione del Garante che raccoglie mensilmente i principali interventi dell’Autorità presentando anche una sintesi delle principali attività di European Data Protection Board e EDPS – European Data Protection Supervisor. Un semplice e utile “memo” per fornire agli utenti un sintetico quadro di riferimento sull’attività del Garante. E’ online il Digest del Garante di Dicembre

English Translation

For the past five years, car manufacturers have been testing their driverless vehicles on public roads. These vehicles constantly travel through different neighbourhoods, with extensive sensor equipment, including video cameras that capture everything that happens around them. While companies, such as Alphabet’s Waymo and General Motors’ Cruise, advertise the potential transport benefits their services could one day offer, they do not advertise another use case: mobile surveillance cameras for police departments. Autonomous vehicles continuously record their surroundings and have the potential to provide investigative leads,’ says a San Francisco police department training document obtained by Motherboard. Privacy advocates claim that police use of driverless vehicles is cause for alarm.

When Greg unpacked a new Roomba robot hoover in December 2019, he thought he knew what he was getting into. He was going to allow the pre-production test version of iRobot’s Roomba J series device to run around his home, letting it collect all kinds of data to improve its artificial intelligence and provide feedback to iRobot on its user experience. as an engineer at a software company, Greg has tested dozens of products over the past few years, from sneakers to smart home cameras. But what Greg didn’t know was that iRobot would share user data, capture images from the device’s cameras, and even send them outside the US with screenshots at will.

A summary of the main activities of the Garante, month by month. The GPDPDigest is the information product of the Garante that collects the main interventions of the Authority on a monthly basis, also presenting a summary of the main activities of the European Data Protection Board and EDPS – European Data Protection Supervisor. A simple and useful ‘memo’ to provide users with a concise overview of the activities of the Garante. The Garante’s Digest of December is now online