Privacy Daily

PRIVACY DAILY 87/2023

Tesla avvertirà che la sua “modalità sentinella”, che registra l’ambiente circostante l’auto, rischia di violare le leggi sulla privacy in Germania. L’annuncio segue la citazione in giudizio del produttore di auto da parte del gruppo di consumatori vzbv per non averne fatto menzione nella pubblicità. Il caso è l’ultimo di una serie di controversie in paesi che vanno dalla Cina ai Paesi Bassi in merito alle telecamere presenti nelle auto Tesla, che secondo l’azienda servono a proteggere da furti o atti di vandalismo, ma che le autorità temono portino a filmare senza consenso.La causa intentata da vzbv lo scorso luglio sosteneva che la casa automobilistica ingannava i consumatori non informandoli nella pubblicità che il conducente avrebbe potuto violare la normativa sulla protezione dei dati se la funzione fosse stata utilizzata in spazi pubblici e avesse filmato i passanti a loro insaputa. Dopo un’udienza sul caso a Berlino, l’azienda ha emesso una dichiarazione di cessazione dell’attività, affermando che non avrebbe più fatto pubblicità in quel modo, secondo una dichiarazione di vzbv. Tesla non ha potuto essere raggiunta immediatamente per un commento. Il manuale della casa automobilistica per gli acquirenti negli Stati Uniti afferma che “è vostra esclusiva responsabilità consultare e rispettare tutte le normative locali e le restrizioni di proprietà relative all’uso delle telecamere”. Un portavoce dell’agenzia berlinese per la protezione dei dati ha dichiarato che la persona che guida l’auto è responsabile dello spegnimento delle telecamere negli spazi pubblici. La responsabilità si estenderebbe all’azienda se le immagini venissero trasmesse e memorizzate da Tesla, ha aggiunto il portavoce. L’autorità di controllo dei dati personali nei Paesi Bassi ha tratto una conclusione simile a febbraio, attribuendo la responsabilità delle riprese al conducente.

Dopo il report di Human Rights Watch, Escola Mais, un’azienda educativa brasiliana, ha preso provvedimenti per proteggere la privacy degli studenti. Lo annuncia la stessa HRW, dopo che qualche giorno fa aveva attirato l’attenzione dei media sul fatto che il sito web di Escola Mais, insieme ad altri sette siti web educativi per studenti brasiliani, sorvegliava segretamente i bambini e raccoglieva i loro dati personali. Stando a quanto riportato, prima della pubblicazione del rapporto, Escola Mais non aveva risposto alle richieste di commento, ma dopo che i media hanno iniziato a ribattere la notizia dell’indagine, si è messa in contatto con Human Rights Watch per chiedere come proteggere la privacy dei dati degli studenti. In seguito, l’azienda ha rimosso dal suo sito web tutti i link alla sua piattaforma di apprendimento online rivolti agli studenti. Escola Mais ha affermato che la data surveillance aveva come target i genitori. Ha inoltre dichiarato che avrebbe fornito agli studenti un link diretto alla sua piattaforma online, in modo che potessero evitare di utilizzare il sito web principale, che è sottoposto a sorveglianza attiva dei dati, per accedere alle risorse di apprendimento. Si tratta di uno sviluppo positivo, che dimostra come i provider online possano fornire servizi educativi ai bambini in modo da non compromettere i loro dati e la loro privacy. Ma non basta la volontà dei singoli fornitori. Il governo nazionale dovrebbe modificare la legge brasiliana sulla protezione dei dati (Lei Geral de Proteção de Dados Pessoais) adottando nuove garanzie per fermare la sorveglianza dei bambini online.

Il Presidente Joe Biden ha dichiarato che resta da verificare se l’intelligenza artificiale sia pericolosa, ma nel frattempo le aziende tecnologiche dovrebbero garantire la sicurezza dei loro prodotti prima di rilasciarli al pubblico. Biden ha incontrato il suo council of advisers on science and technology (composto da esperti di scienza, ingegneria, tecnologia e medicina) per discutere sui rischi e le opportunità che i rapidi progressi dell’intelligenza artificiale comportano per i singoli utenti e per la sicurezza nazionale. “L’intelligenza artificiale può aiutare ad affrontare alcune sfide molto difficili come le malattie e il cambiamento climatico, ma deve anche affrontare i potenziali rischi per la nostra società, la nostra economia e la nostra sicurezza nazionale”, ha detto Biden al gruppo, che comprende accademici e dirigenti di Microsoft e Google. Sebbene le aziende tecnologiche debbano sempre essere responsabili della sicurezza dei loro prodotti, il richiamo di Biden riflette una novità: l’emergere di strumenti di IA facili da usare che possono generare contenuti manipolativi e media sintetici dall’aspetto realistico, noti come deepfakes, ha dichiarato Rebecca Finlay, CEO della Partnership on AI. La Casa Bianca ha dichiarato che il presidente democratico ha utilizzato l’incontro sull’IA per “discutere dell’importanza di proteggere i diritti e la sicurezza per garantire un’innovazione responsabile e adeguate salvaguardie” e per ribadire il suo appello al Congresso affinché approvi una legislazione per proteggere i bambini e limitare la raccolta di dati da parte delle aziende tecnologiche. L’anno scorso l’amministrazione Biden ha presentato una serie di obiettivi di ampia portata volti a prevenire i danni causati dall’ascesa dei sistemi di IA, tra cui linee guida per la protezione dei dati personali delle persone e la limitazione della sorveglianza. Il Blueprint for an AI Bill of Rights, in particolare, non prevedeva azioni specifiche di applicazione, ma era invece inteso come una chiamata all’azione per il governo degli Stati Uniti per salvaguardare i diritti digitali e civili in un mondo alimentato dall’IA.

English version

Tesla will warn that its “sentry mode,” which records the car’s surroundings, risks violating privacy laws in Germany. The announcement follows a subpoena to the automaker by consumer group vzbv for failing to mention it in advertisements. The case is the latest in a series of disputes in countries ranging from China to the Netherlands over cameras in Tesla cars, which the company says serve to protect against theft or vandalism, but which authorities fear lead to filming without consent.The lawsuit filed by vzbv last July claimed that the automaker misled consumers by not informing them in its advertising that the driver could violate data protection laws if the feature was used in public spaces and filmed passersby without their knowledge. After a hearing on the case in Berlin, the company issued a cease-and-desist statement saying it would no longer advertise in that way, according to a statement from vzbv. Tesla could not immediately be reached for comment. The automaker’s handbook for buyers in the United States states that “it is your sole responsibility to consult and comply with all local regulations and ownership restrictions related to the use of cameras.” A spokesman for the Berlin-based data protection agency said the person driving the car is responsible for turning off cameras in public spaces. The responsibility would extend to the company if the images were transmitted and stored by Tesla, the spokesman added. The Data Protection Authority in the Netherlands drew a similar conclusion in February, holding the driver responsible for the footage.

After the Human Rights Watch report, Escola Mais, a Brazilian educational company, took steps to protect student privacy. This was announced by HRW itself, after it drew media attention a few days ago to the fact that Escola Mais’ website, along with seven other educational websites for Brazilian students, was secretly surveilling children and collecting their personal data. According to reports, prior to the report’s publication, Escola Mais had not responded to requests for comment, but after the media began to rebuttal the news of the investigation, it contacted Human Rights Watch to ask how to protect the privacy of student data. The company later removed all links to its online learning platform aimed at students from its website. Escola Mais stated that the data surveillance was targeting parents. It also said it would provide students with a direct link to its online platform so they could avoid using the main website, which is under active data surveillance, to access learning resources. This is a positive development, demonstrating how online providers can provide educational services to children in a way that does not compromise their data and privacy. But the will of individual providers is not enough. The national government should amend Brazil’s data protection law (Lei Geral de Proteção de Dados Pessoais) by adopting new safeguards to stop the surveillance of children online.

President Joe Biden said it remains to be seen whether artificial intelligence is dangerous, but in the meantime, technology companies should ensure the safety of their products before releasing them to the public. Biden met with his council of advisers on science and technology (composed of experts in science, engineering, technology and medicine) to discuss the risks and opportunities that rapid advances in artificial intelligence pose for individual users and for national security. “Artificial intelligence can help address some very difficult challenges like disease and climate change, but it must also address potential risks to our society, our economy and our national security,” Biden told the group, which includes academics and executives from Microsoft and Google. Although technology companies should always be responsible for the security of their products, Biden’s reminder reflects a new development: the emergence of easy-to-use AI tools that can generate manipulative content and realistic-looking synthetic media known as deepfakes, said Rebecca Finlay, CEO of the Partnership on AI. The White House said the Democratic president used the meeting on AI to “discuss the importance of protecting rights and safety to ensure responsible innovation and appropriate safeguards” and to reiterate his call for Congress to pass legislation to protect children and limit data collection by tech companies. Last year, the Biden administration unveiled a set of far-reaching goals aimed at preventing harm from the rise of AI systems, including guidelines for protecting people’s personal data and limiting surveillance. The Blueprint for an AI Bill of Rights, in particular, did not include specific enforcement actions, but was instead intended as a call to action for the U.S. government to safeguard digital and civil rights in an AI-powered world.