PRIVACYDAILY

N. 155/2023

LE TRE NEWS DI OGGI:

  • FT, LE NUOVE SOLUZIONI DI AI FANNO ATTENZIONE ALLA PRIVACY
  • L’UNESCO PUNTA A REGOLARE L’IMPIEGO DELL’AI GENERATIVA NEL CAMPO DELL’EDUCAZIONE
  • UK, PREOCCUPAZIONE PER LA GRANDE QUANTITA’ DI DATI RICHIESTA DAGLI SMART DEVICE

Agosto è tradizionalmente un mese tranquillo per gli annunci, ma quest’anno è stato costellato di notizie da parte di studi legali, aziende big-tech e fornitori di servizi su innovazioni che promettono di trasformare il lavoro legale. Tutti intendono sfruttare l’intelligenza artificiale generativa e il software di apprendimento automatico, applicando queste tecnologie come parte dei cosiddetti grandi modelli linguistici (LLM). Questi possono analizzare e produrre testi, immagini o codici verosimili in risposta a richieste in linguaggio semplice.LexisNexis ha presentato un piano per integrare le soluzioni basate sull’intelligenza artificiale con il software 365 di Microsoft e Meta, la società madre di Facebook, ha rilasciato Code Llama, uno strumento commerciale per la messa a punto e la generazione di codice che si adatta agli LLM basati sull’intelligenza artificiale che aveva già presentato.Anche gli studi legali hanno preso parte all’azione, segnalando una serie di nuovi sviluppi.Lo studio legale Gunderson Dettmer, con sede nella Silicon Valley, ha presentato uno strumento esclusivo che i suoi avvocati utilizzano per fornire accordi legali o altro materiale rilevante come contesto per le interrogazioni.Sullivan & Cromwell, con sede a New York, ha promosso gli strumenti che sta sviluppando e che intende vendere ad altri studi legali, comprese le versioni che aiutano a esaminare in modo completo i documenti e a condurre le deposizioni. Allo stesso tempo, OpenAI, l’azienda che ha dato il via alla rivoluzione dell’intelligenza artificiale generativa con la rivelazione di ChatGPT nel novembre 2022, ha lanciato un sistema LLM aggiornato per i clienti aziendali che affronta i timori degli avvocati riguardo alla fuga dei dati dei clienti. E Thomson Reuters, l’azienda di dati e media legali, ha chiuso l’acquisizione di Casetext, nota per i suoi strumenti basati sull’intelligenza artificiale, per un valore di 650 milioni di dollari.Tutti i nuovi strumenti promettono di affrontare alcune delle attività più laboriose degli avvocati con maggiore facilità e velocità. Ad esempio, sono in grado di confrontare e analizzare i contratti alla ricerca di clausole chiave, di riassumere le regole di conformità e di riscrivere normative complesse in linguaggio profano. Il loro potenziale di risparmio di tempo ha suscitato l’aspettativa che trasformino – e forse anche eliminino – gran parte del lavoro quotidiano degli avvocati.Per Thomson Reuters, l’obiettivo è fornire un prodotto di redazione legale che, come Lexis-Nexis, sia pronto per essere collegato alla funzione di assistente AI Copilot di Microsoft e possa essere messo in vendita entro la fine dell’anno.

L’UNESCO ha pubblicato giovedì scorso la sua prima guida sull’uso dell’IA generativa (GenAI) per l’istruzione, esortando le agenzie governative a regolamentare l’uso della tecnologia, compresa la protezione della privacy dei dati e l’introduzione di un limite di età per gli utenti.Lanciato da OpenAI, sostenuta da Microsoft, a novembre, il chatbot GenAI ChatGPT è diventato l’applicazione con la crescita più rapida al mondo e la sua comparsa ha spinto il rilascio di rivali, come Bard di Google.Anche gli studenti hanno apprezzato GenAI, che può generare qualsiasi cosa, dai saggi ai calcoli matematici, con poche righe di istruzioni.”Stiamo lottando per allineare la velocità di trasformazione del sistema educativo alla velocità del progresso tecnologico e dell’avanzamento di questi modelli di apprendimento automatico”, ha dichiarato a Reuters Stefania Giannini, assistente del direttore generale per l’istruzione.”In molti casi, i governi e le scuole stanno sfruttando una tecnologia radicalmente sconosciuta che nemmeno i più importanti tecnologi affermano di comprendere”, ha detto.Tra una serie di linee guida contenute in un rapporto di 64 pagine, l’UNESCO ha sottolineato la necessità di curricula sull’IA approvati dai governi per l’istruzione scolastica, l’istruzione tecnica e professionale e la formazione. “I fornitori di IA dovrebbero essere ritenuti responsabili di garantire il rispetto di valori fondamentali e di scopi leciti, di rispettare la proprietà intellettuale e di sostenere le pratiche etiche, impedendo al contempo la diffusione di disinformazione e di discorsi di odio”, ha affermato l’UNESCO.L’UNESCO ha inoltre chiesto di evitare che la GenAI privi gli studenti dell’opportunità di sviluppare abilità cognitive e sociali attraverso l’osservazione del mondo reale, pratiche empiriche come gli esperimenti, discussioni con altri esseri umani e ragionamenti logici indipendenti.Mentre la Cina ha formulato delle regole sulla Genai, la legge sull’IA dell’Unione Europea sarà probabilmente approvata nel corso dell’anno. Altri Paesi sono molto indietro nella stesura delle proprie leggi sull’IA.L’agenzia parigina ha anche cercato di tutelare i diritti di insegnanti e ricercatori e il valore delle loro pratiche nell’uso della GenAI.

Un gruppo di consumatori ha avvertito che i dispositivi domestici intelligenti, compresi gli elettrodomestici come le lavatrici, richiedono quantità superflue di dati degli utenti che potrebbero finire nelle mani dei social media e delle aziende di marketing. Which? ha dichiarato che le applicazioni di molti prodotti richiedono informazioni durante la configurazione che non dovrebbero essere necessarie per funzionare. Tra i responsabili ci sono i termostati di Google che chiedono ad alcuni utenti la loro posizione e i loro contatti, le lavatrici LG che vogliono sapere la data di nascita e i televisori Sony che vogliono tracciare le abitudini di visione.In alcuni casi, Which? ha dichiarato che tali dati vengono condivisi con i proprietari di Facebook e Instagram, Meta e TikTok.Le norme britanniche in materia di protezione dei dati personali impongono alle aziende di essere trasparenti sui dati che raccolgono e su come vengono elaborati.Ma è probabile che la maggior parte dei clienti non sia consapevole della portata della condivisione dei dati, visto che un terzo delle persone intervistate da Which? ha ammesso di non leggere l’informativa sulla privacy di un dispositivo e che la maggior parte si limita a sfogliarla.Nel caso del dispositivo Nest di Google, la documentazione è di oltre 20.000 parole. Rocio Concha, direttrice del gruppo di consumatori per le politiche e l’advocacy, ha dichiarato che l’Information Commissioner’s Office (l’ente britannico che vigila sui dati) dovrebbe prendere in considerazione l’aggiornamento delle sue linee guida per proteggere meglio le persone.”Le aziende. non dovrebbero raccogliere più dati di quelli necessari per fornire il servizio offerto”, ha dichiarato.”Soprattutto se hanno intenzione di nascondere queste importanti informazioni in lunghi termini e condizioni”

English version

  • FT, NEW AI SOLUTIONS PAY ATTENTION TO PRIVACY
  • UNESCO AIMS TO REGULATE THE USE OF GENERATIVE AI IN EDUCATION
  • UK, CONCERN OVER THE LARGE AMOUNT OF DATA REQUIRED BY SMART DEVICES

August is traditionally a quiet month for announcements but, this year, it was awash with news from law firms, big-tech businesses and service providers about innovations that promise to transform legal work.All intend to harness generative artificial intelligence and machine learning software, applying those technologies as part of so-called large language models (LLMs). These can analyse and produce plausible text, images, or code in response to plain-language prompts.LexisNexis unveiled plans to integrate AI-powered solutions with Microsoft’s 365 software, and Meta, Facebook’s parent company, released Code Llama — a commercial tool for fine-tuning and generating code to fit with the AI-powered LLMs it had already unveiled.Law firms also got in on the action, reporting a range of new developments.Silicon Valley-based Gunderson Dettmer introduced a “homegrown” proprietary tool that its lawyers use to provide legal agreements — or other relevant source material — as context for queries.New York-based Sullivan & Cromwell promoted tools that it is developing and plans to sell to other law firms, including versions to help comprehensively review documents and conduct depositions.Please use the sharing tools found via the share button at the top or side of articles. At the same time, OpenAI, the company that started the generative-AI revolution with its reveal of ChatGPT in November 2022, launched an upgraded LLM system for corporate customers that addresses lawyers’ fears about leakage of client data.And Thomson Reuters, the legal data and media company, closed on its $650mn acquisition of Casetext, known for its AI-driven tools.All the new tools promise to tackle some of lawyers’ most laborious tasks with greater ease and speed. For example, they can compare and analyse contracts for key clauses, summarise compliance rules, and rewrite complex regulations in layperson’s vernacular. Their time-saving potential has raised expectations that they will transform — and also, perhaps, take away — much of lawyers’ day-to-day work.For Thomson Reuters, the aim is to deliver a legal drafting product that, like Lexis-Nexis, is ready to plug into Microsoft’s Copilot AI assistant feature and can go on sale sometime later this year.

UNESCO on Thursday published its first guidance on use of Generative AI (GenAI) for education, urging governmental agencies to regulate the use of the technology, including protection of data privacy and putting an age limit for users.Launched by Microsoft-backed OpenAI in November, GenAI chatbot ChatGPT has become the world’s fastest growing app to date, and its emergence has prompted the release of rivals, such as Google’s Bard.Students have also taken a liking for GenAI, which can generate anything from essays to mathematical calculations with just a few line of prompts.”We are struggling to align the speed of transformation of the education system to the speed of the change in technological progress and advancement in these machine learning models,” Stefania Giannini, assistant director-general for education, told Reuters.”In many cases, governments and schools are embracing a radically unfamiliar technology that even leading technologists do not claim to understand,” she said.Among a series of guidelines in a 64-page report, UNESCO stressed on the need for government-sanctioned AI curricula for school education, in technical and vocational education and training.”GenAI providers should be held responsible for ensuring adherence to core values and lawful purposes, respecting intellectual property, and upholding ethical practices, while also preventing the spread of disinformation and hate speech,” UNESCO said.It also called for prevention of GenAI where it would deprive learners of opportunities to develop cognitive abilities and social skills through observations of the real world, empirical practices such as experiments, discussions with other humans, and independent logical reasoning.While China has formulated rules on GenAI, the European Union’s AI Act is likely to be approved later this year. Other countries are far behind in drafting their own AI laws.The Paris-based agency also sought to protect the rights of teachers and researchers and the value of their practices when using GenAI.

Smart home devices, including appliances like washing machines, demand unnecessarily large amounts of user data that could end up in the hands of social media and marketing firms, a consumer group has warned.Which? said many products’ apps request information during setup that should not be needed to run. Among the offenders are Google thermostats that ask some users for their location and contacts, LG washing machines that need to know your date of birth, and Sony TVs that want to track your viewing habits.In some cases, Which? said such data is shared with the likes of Facebook and Instagram owner Meta and TikTok.UK data protection rules mean companies must be transparent about the data they collect and how it is processed.But most customers are likely unaware of the extent to which it may be shared, as a third of people surveyed by Which? admitted they don’t read a device’s privacy policy and most only skim it.In the case of a Google Nest device, the documentation is more than 20,000 words.Rocio Concha, the consumer group’s director of policy and advocacy, said the Information Commissioner’s Office (Britain’s data watchdog) should consider updating its guidelines to better protect people.”Firms should not collect more data than they need to provide the service that’s on offer,” she said.”Particularly if they are going to bury this important information in lengthy terms and conditions.”