Privacy Daily

PRIVACYDAILY

N. 142/2023

LE TRE NEWS DI OGGI:

  • GOOGLE CHIEDE CAUTELA AI SUOI IMPIEGATI NELL’USARE L’AI GENERATIVA
  • MENTRE IL PARLAMENTO UE STRINGE SUL RICONOSCIMENTO FACCIALE LA FRANCIA VUOLE IMPLEMENTARE L’UTILIZZO
  • KENIA, RISCUOTE SUCCESSI LA CAMPAGNA DI SENSIBILIZZAZIONE SULLA PROTEZIONE DEI DATI PERSONALI PROMOSSA DALL’AUTORITA’ NAZIONALE

Quattro persone che hanno familiarità con l’argomento hanno dichiarato a Reuters che Alphabet Inc. sta mettendo in guardia i dipendenti sull’uso dei chatbot, compreso il proprio Bard. La casa madre di Google ha consigliato ai dipendenti di non inserire materiali riservati nei chatbot di intelligenza artificiale, così hanno detto le persone interpellate  e l’azienda ha confermato, citando laloro  politica di salvaguardia delle informazioni già adottata da tempo I chatbot, tra cui Bard e ChatGPT, sono programmi che utilizzano la cosiddetta intelligenza artificiale generativa per tenere conversazioni con gli utenti e rispondere a una miriade di richieste. I revisori umani possono leggere le chat e i ricercatori hanno scoperto che un’intelligenza artificiale simile può riprodurre i dati “appresi” durante l’addestramento, creando un rischio di fuga di notizie. Alphabet ha anche avvertito i suoi ingegneri di evitare l’uso diretto del codice informatico che i chatbot possono generare. Alla richiesta di un commento, l’azienda ha risposto che Bard può dare suggerimenti di codice indesiderati, ma aiuta comunque i programmatori. Google ha anche dichiarato di voler essere trasparente sui limiti della sua tecnologia. Le preoccupazioni mostrano come Google voglia evitare danni commerciali dal software che ha lanciato in concorrenza con ChatGPT. La posta in gioco nella corsa di Google contro i finanziatori di ChatGPT, OpenAI e Microsoft Corp, è costituita da miliardi di dollari di investimenti e da introiti pubblicitari e cloud ancora inesplorati derivanti da nuovi programmi di intelligenza artificiale. La cautela di Google riflette anche quello che sta diventando uno standard di sicurezza per le aziende, ovvero mettere in guardia il personale dall’uso di programmi di chat disponibili pubblicamente. Un numero crescente di aziende in tutto il mondo ha posto dei paletti ai chatbot di intelligenza artificiale, tra cui Samsung, Amazon.com e Deutsche Bank, hanno dichiarato le aziende a Reuters. Secondo quanto riferito, anche Apple, che non ha risposto alle richieste di commento, lo ha fatto. Circa il 43% dei professionisti utilizzava ChatGPT o altri strumenti di IA a gennaio, spesso senza dirlo ai propri capi, secondo un sondaggio condotto dal sito di networking Fishbowl su quasi 12.000 intervistati, tra cui le principali aziende statunitensi. A febbraio, Google ha detto al personale che stava testando Bard prima del suo lancio di non fornirgli informazioni interne, ha riferito Insider. Ora Google sta diffondendo Bard in più di 180 Paesi e in 40 lingue come trampolino di lancio per la creatività, e i suoi avvertimenti si estendono ai suggerimenti di codice.

Il riconoscimento facciale sarà presto sperimentato in Francia? A distanza di soli due giorni l’una dall’altra, sono state approvate due leggi che rendono ancora più difficile la risposta a questa complessa domanda. Mercoledì 14 giugno, il Parlamento europeo ha adottato un progetto di regolamento sull’intelligenza artificiale (IA), che chiede di vietare qualsiasi uso del riconoscimento facciale. Lunedì 12 giugno il Senato ha votato a favore di una proposta di legge presentata da due senatori, Marc-Philippe Daubresse (LR) e Arnaud de Belenet (Alliance Centrist). Il disegno di legge, che deve ancora passare al vaglio dell’Assemblea nazionale, autorizza la sperimentazione del riconoscimento facciale in Francia per un periodo di tre anni, nell’ambito della lotta al terrorismo e a determinate condizioni . Cosa c’è dietro questo ritardo legislativo a distanza di due giorni? “L’Obs” ha intervistato Noémie Levain, esperta legale de La Quadrature du Net, un’associazione che difende le libertà digitali, per saperne di più sul quadro legislativo europeo in materia e sui problemi posti dai progetti di riforma della Francia.Cosa pensa del progetto di legge adottato dal Parlamento europeo, che apre la legge alla regolamentazione dell’intelligenza artificiale (AI) e che chiede in particolare di vietare i sistemi di riconoscimento facciale nei luoghi pubblici? Per capire questo testo, dobbiamo guardare al contesto europeo per la regolamentazione delle tecnologie di sorveglianza. Questo è caratterizzato da due testi altamente protettivi: il regolamento generale sulla protezione dei dati (GDPR) e la direttiva sulla polizia e la giustizia, che stabilisce norme sulla protezione delle persone in relazione al trattamento dei dati personali. La bozza adottata questo mercoledì deriva da un testo inizialmente proposto dalla commissione, risalente al 2021, che prevedeva di regolamentare il settore dell’intelligenza artificiale. Si tratta di un testo economico più che politico; ad esempio, contiene obblighi per le aziende che desiderano entrare in questo settore, ma l’articolo 5 stabilisce una serie di linee rosse, in linea con i valori europei, che non devono essere superate nell’uso delle nuove tecnologie per scopi di sicurezza. Una di queste linee rosse è il divieto di riconoscimento facciale. La versione 2021 del Comitato ha incluso una serie di eccezioni, indebolendo il quadro protettivo del testo. Una di queste eccezioni, ad esempio, autorizzava il riconoscimento facciale per “localizzare potenziali vittime”, una condizione ampia e vaga.

La campagna di sensibilizzazione su tutto il territorio nazionale promossa dall’Ufficio del Commissario per la protezione dei dati sulla legge sulla privacy e la protezione dei dati (DPA) 2019 è entrata nella sua seconda fase per creare consapevolezza e garantire un’efficace attuazione e applicazione della legge. Questa campagna, rivolta ai responsabili del trattamento dei dati, agli incaricati del trattamento e al pubblico in generale, ha finora coperto 17 contee su 47 e intende completare le restanti contee entro la fine di giugno di quest’anno. Tra le contee che saranno visitate durante la seconda fase ci sono Mombasa, Kilifi e Kwale, nella regione costiera .La legge sulla protezione dei dati, promulgata nel 2019, mira a proteggere la privacy delle persone e dei dati personali, regolando il trattamento delle informazioni personali da parte dei responsabili e degli incaricati del trattamento .La Commissione sta inoltre coinvolgendo alcune parti interessate in uno sforzo di collaborazione per intensificare l’educazione del pubblico sulla necessità di proteggere i dati personali e monitorare lo stato di conformità dei responsabili e degli incaricati del trattamento digitale. Si tratta della prima campagna in Kenya dedicata al tema della privacy e della protezione dei dati personali e mira a sensibilizzare l’opinione pubblica sulle responsabilità delle autorità pubbliche e delle aziende private nella raccolta e conservazione dei dati personali. Durante il forum dedicato campagna, tenutosi mercoledì a Mombasa, le parti interessate hanno lodato la Commissione per aver guidato l’educazione pubblica sulla protezione dei dati. I principali oratori intervenuti all’evento di Mombasa hanno concordato sulla necessità di continuare a lavorare sulla consapevolezza dell’importanza della protezione dei dati personali nell’odierna era digitale. Guidati dal commissario della contea di Mombasa (CC) Abdirasack Jaldesa, gli oratori hanno affermato che la campagna in corso da parte della Commissione per i dati aiuterà i cittadini a conoscere i loro diritti e a ridurre i casi di violazione dei dati o della privacy.”Abbiamo bisogno di leggi forti per migliorare i sistemi di sicurezza digitale contro la crescente minaccia di violazione dei dati”, ha dichiarato Jaldesa in un discorso letto a suo nome dall’Assistente del Commissario di Contea Irene Musyoki all’Hotel Darajani. Il Commissario della Contea ha affermato che è necessario sviluppare strategie per la sicurezza dei dati raccolti dal governo, dalle organizzazioni aziendali e da altri enti . Ha osservato che il governo è uno dei maggiori “raccoglitori” di dati personali allo scopo di migliorare l’efficienza nell’erogazione dei servizi pubblici, affermando che le informazioni fornite devono essere salvaguardate.

English version

  • GOOGLE ASKS ITS EMPLOYEES FOR CAUTION WHEN USING GENERATIVE AI
  • AS EU PARLIAMENT TIGHTENS ON FACIAL RECOGNITION, FRANCE WANTS TO IMPLEMENT THE USE OF FACE RECOGNITION
  • KENYA, NATIONAL AUTHORITY’S PERSONAL DATA PROTECTION AWARENESS CAMPAIGN SUCCESSES

Four people familiar with the matter told Reuters that Alphabet Inc. is warning employees about the use of chatbots, including its own Bard. Google’s parent company has advised employees not to put confidential material into artificial intelligence chatbots, the people questioned said, and the company confirmed, citing their long-standing policy of safeguarding information Chatbots, including Bard and ChatGPT, are programmes that use so-called generative artificial intelligence to hold conversations with users and respond to a myriad of requests. Human reviewers can read the chats, and researchers have found that such artificial intelligence can reproduce data ‘learned’ during training, creating a leakage risk. Alphabet also warned its engineers to avoid direct use of the computer code that chatbots can generate. When asked for comment, the company replied that Bard may make unwanted code suggestions, but it still helps programmers. Google also stated that it wants to be transparent about the limits of its technology. The concerns show how Google wants to avoid commercial damage from the software it has launched in competition with ChatGPT. At stake in Google’s race against ChatGPT’s backers, OpenAI and Microsoft Corp, are billions of dollars of investment and untapped advertising and cloud revenues from new artificial intelligence programmes. Google’s caution also reflects what is becoming a security standard for companies, namely to warn staff against using publicly available chat programmes. A growing number of companies around the world have placed stakes in artificial intelligence chatbots, including Samsung, Amazon.com and Deutsche Bank, the companies told Reuters. Apple, which did not respond to requests for comment, has also reportedly done so. Some 43% of professionals were using ChatGPT or other AI tools in January, often without telling their bosses, according to a survey of nearly 12,000 respondents, including major US companies, conducted by networking site Fishbowl. In February, Google told staff who were testing Bard before its launch not to provide it with internal information, Insider reported. Now Google is rolling out Bard in more than 180 countries and 40 languages as a springboard for creativity, and its warnings extend to code suggestions.

Will facial recognition soon be tested in France? Just two days apart, two laws have been passed that make the answer to this complex question all the more difficult. On Wednesday 14 June, the European Parliament adopted a draft regulation on artificial intelligence (AI), which calls for a ban on all use of facial recognition. Coincidentally, on Monday 12 June, the Senate voted in favour of a bill tabled by two senators, Marc-Philippe Daubresse (LR) and Arnaud de Belenet (Alliance Centrist). The bill, which still has to go through the National Assembly, authorises the testing of facial recognition in France for a period of three years, as part of the fight against terrorism, and subject to certain conditions.What is the story behind this legislative delay two days apart? “L’Obs” interviewed Noémie Levain, a legal expert at La Quadrature du Net, an association that defends digital freedoms, to find out more about the European legislative framework in this area, and the problems posed by France’s plans for reform.What do you think of the bill adopted by the European Parliament, which opens up the law to the regulation of artificial intelligence (AI), and which calls in particular for a ban on facial recognition systems in public places?To understand this text, we need to look back at the European context for the regulation of surveillance technologies. This is marked by two highly protective texts: the General Data Protection Regulation (GDPR) and the Police-Justice Directive, which lays down rules on the protection of individuals with regard to the processing of personal data.The draft adopted this Wednesday comes from a text initially proposed by the committee, dating from 2021, which envisaged regulating the artificial intelligence sector. It is an economic rather than a political text; for example, it contains obligations for companies wishing to enter this sector, but Article 5 sets out a number of red lines, in line with European values, that must not be crossed in the use of new technologies for security purposes. One of these red lines is the ban on facial recognition. The Committee’s 2021 version included a number of exceptions, weakening the text’s protective framework. One of these exceptions, for example, was to authorise facial recognition to “locate potential victims”, which is a broad and vague condition.

The nationwide awareness campaign initiated by the Office of the Data Protection Commissioner on the Data Protection and Privacy Act (DPA) 2019 has entered its second phase to create awareness and ensure effective implementation and enforcement of the Act. This campaign, aimed at data controllers, processors and the general public, has so far covered 17 out of 47 counties and aims to complete the remaining counties by the end of June this year. Among the counties that will be visited during the second phase are Mombasa, Kilifi and Kwale, in the coastal region .The Data Protection Act, enacted in 2019, aims to protect the privacy of individuals and personal data by regulating the handling of personal information by data controllers and processors .The Commission is also engaging some stakeholders in a collaborative effort to intensify public education on the need to protect personal data and monitor the compliance status of data controllers and processors. This is the first campaign in Kenya dedicated to the issue of privacy and personal data protection and aims to raise awareness of the responsibilities of public authorities and private companies in collecting and storing personal data. During the dedicated campaign forum, held on Wednesday in Mombasa, stakeholders commended the Commission for spearheading public education on data protection. Keynote speakers at the Mombasa event agreed on the need to continue working on awareness of the importance of personal data protection in today’s digital age. Led by Mombasa County Commissioner (CC) Abdirasack Jaldesa, the speakers said the ongoing campaign by the Data Commission will help citizens to know their rights and reduce instances of data or privacy breaches. “We need strong laws to improve digital security systems against the growing threat of data breaches,” Jaldesa said in a speech read on his behalf by Assistant County Commissioner Irene Musyoki at Hotel Darajani. The County Commissioner said there is a need to develop strategies for the security of data collected by government, corporate organisations and other entities . She noted that the government is one of the largest ‘collectors’ of personal data for the purpose of improving efficiency in the delivery of public services, saying that the information provided must be safeguarded.