Grazie al FESTIVAL dell’ ECONOMIA di TRENTO per l’invito e per aver organizzato un bellissimo dibattito aperto e partecipato con Sara Tonelli, Carlo Blengino, Michele Kettmajer e Stefano Moriggi.
Al prossimo anno!
Grazie al FESTIVAL dell’ ECONOMIA di TRENTO per l’invito e per aver organizzato un bellissimo dibattito aperto e partecipato con Sara Tonelli, Carlo Blengino, Michele Kettmajer e Stefano Moriggi.
Al prossimo anno!
Domani, sarò a Trento a partire dalle 16,00 al FESTIVAL dell’ ECONOMIA di TRENTO con Sara Tonelli, Carlo Blengino, Michele Kettmajer e Stefano Moriggi per parlare di nuovi modelli educativi tra CHATGPT e digitale
Qui le informazioni complete Festival Economia Trento 2023 | Festival Economia Trento 2023
Grazie a Pasquale Viscanti e Giacinto Fiore per l’ospitalità su “Intelligenza Artificiale Spiegata Semplice”, il podcast di AI Play, dove abbiamo parlato di cosa insegna la vicenda ChatGPT a Manager e imprenditori dell’IA.
Per riascoltare la puntata clicca qui.
L’innovazione non può essere fatta a spese dei diritti delle persone. Credo sia questo il senso più profondo del provvedimento con il quale, come Garante per la protezione dei dati personali, abbiamo ordinato a OpenAi, la società che gestisce ChatGPT di sospendere, almeno temporaneamente, ogni trattamento dei dati personali raccolti in Italia e degli utenti che si collegano dal nostro Paese.
Se vuoi leggere il mio pezzo nella rubrica Governare il futuro su HuffingtonPost lo trovi qui
Lo Utah è il primo Stato americano a limitare i trattamenti dei dati degli adolescenti da parte dei social media. Il governatore Spencer Cox sta per firmare due proposte di legge che mirano a proteggere i bambini dalla dipendenza e da altri potenziali danni dei social media. Le piattaforme dovranno ottenere il consenso dei genitori, se un utente di età inferiore ai 18 anni deciderà di aprire un account, e potrebbero incorrere in sanzioni e azioni legali in caso di violazioni. Queste proposte di legge sono tra gli sforzi più importanti che hanno impegnato quest’anno i legislatori statali in tutti gli Stati Uniti per regolamentare la fruizione dei servizi online da parte dei minori. La prima proposta richiede alle piattaforme di social media di verificare l’età degli utenti a partire dal 1° marzo 2024. Agli adolescenti verrebbe impedito, inoltre, di utilizzare i social media durante alcune ore notturne senza che un genitore modifichi le impostazioni dell’account. È inoltre prevista una limitazione della raccolta di informazioni personali dei minori. La seconda misura vieterebbe alle aziende di social media di utilizzare funzioni di design che creano dipendenza per i giovani sotto i 18 anni a partire dal 1° marzo 2024. Le violazioni potrebbero comportare sanzioni di 250.000 dollari per ogni funzione o pratica che crea dipendenza e di 2.500 dollari per ogni minore esposto, a meno che le aziende non verifichino e correggano le loro pratiche entro un determinato periodo di tempo. La misura prevede anche un diritto di azione legale per i danni subiti dal titolare di un account minorenne. Se l’utente ha meno di 16 anni, vi sarebbe una presunzione che il danno si sia verificato, rendendo più facile il successo di una richiesta di risarcimento in tribunale.
Secondo uno studio, alcune delle 12 principali app australiane per la fertilità raccolgono e vendono dati particolari. Lo studio, condotto congiuntamente da Katharine Kemp, researcher in law presso l’Università del New South Wales, e dal gruppo di consumatori Choice, ha valutato le privacy policy delle 12 app per la fertilità più popolari in Australia. Choice ha riscontrato che BabyCenter consentirebbe all’azienda di raccogliere informazioni sui propri utenti attraverso altre aziende e broker di dati, nonché di vendere dati personali ad altre aziende o di fornirli ad aziende che fanno pubblicità all’interno dell’app. Inoltre, permetterebbe alle aziende di tracciare i dati all’interno dell’app, a meno che non si scelga di non farlo, senza peraltro specificare se i dati vengono cancellati dopo un certo periodo di tempo. Choice ha scoperto che le app Glow Fertility, Nurture ed Eve “raccolgono ulteriori informazioni” sugli utenti da altre aziende, descritte solo come fonti di terze parti. Per di più, le app disporrebbero di tecnologie di tracciamento. Stando ai terms of service di Glow, tutti i dati degli utenti potrebbero essere diffusi a un’altra società, qualora l’app o il database venissero venduti. È stato, altresì, riscontrato che le app Ovia Fertility e Pregnancy raccoglierebbero numerosi dati non necessari per l’applicazione, tra cui malattie, situazione finanziaria, abitazione, sicurezza e livello di istruzione. Queste app potrebbero anche condividere la posizione e l’attività all’interno dell’app con gli inserzionisti. Choice ha riferito che l’app What To Expect è in grado di raccogliere informazioni sui suoi utenti da altre aziende, compresi gli intermediari di dati, consente la vendita dei dati degli utenti e permette ad altre aziende di tracciare gli utenti nell’app. Un esponente di Choice ha dichiarato che l’aspetto più preoccupante è la monetizzazione dei dati da parte delle app.
Neanche l’Intelligenza artificiale di ChatGpt è al sicuro da guasti tecnici che potrebbero pregiudicare la privacy. Nelle scorse ore, il software ha smesso di funzionare. A causare il disservizio la decisione dello sviluppatore, OpenAI, di bloccare temporaneamente la piattaforma per un bug, un errore che ha esposto i titoli delle conversazioni degli utenti. Il contenuto delle conversazioni, come ha precisato OpenAI a Bloomberg, non è stato diffuso. Dopo aver intercettato il problema la società, su cui Microsoft ha investito molto nei mesi scorsi, ha bloccato l’accesso alla chatbot per evitare che l’errore di privacy si estendesse ulteriormente. Prima di essere messo offline, sulla pagina principale di ChatGpt, invece di vedere la cronologia dei titoli delle proprie chat con l’AI, si potevano leggere quelli, casuali, di altri navigatori. Per evitare altri problemi, anche dopo la risoluzione, la cronologia degli utenti è rimasta indisponibile, con l’impossibilità di accedere alle domande fatte in precedenza all’intelligenza artificiale. La pagina di stato di ChatGpt ha specificato che OpenAI sta ancora lavorando per ripristinare il tutto.
English version
Utah is the first US state to restrict the processing of teenagers’ data by social media. Governor Spencer Cox is about to sign two bills that aim to protect children from the addiction and other potential harms of social media. Platforms will have to obtain parental consent if a user under the age of 18 decides to open an account, and could face penalties and legal action for violations. These bills are among the most important efforts that have engaged state legislators across the US this year to regulate minors’ use of online services. The first proposal would require social media platforms to verify the age of users as of 1 March 2024. Teenagers would also be prevented from using social media during certain hours at night without a parent changing their account settings. There would also be a restriction on the collection of personal information from minors. The second measure would prohibit social media companies from using addictive design features for young people under the age of 18 from 1 March 2024. Violations could result in penalties of $250,000 for each addictive feature or practice and $2,500 for each exposed minor, unless companies verify and correct their practices within a specified time period. The measure also provides a right of action for damages suffered by a minor account holder. If the user is under 16 years of age, there would be a presumption that the damage has occurred, making it easier to make a successful claim in court.
Some of Australia’s top 12 fertility apps collect and sell special data, according to a study. The study, conducted jointly by Katharine Kemp, a researcher in law at the University of New South Wales, and the consumer group Choice, assessed the privacy policies of the 12 most popular fertility apps in Australia. Choice found that BabyCenter would allow the company to collect information about its users through other companies and data brokers, as well as sell personal data to other companies or provide it to companies that advertise within the app. It would also allow companies to track data within the app unless you choose not to, without specifying whether the data is deleted after a certain period of time. Choice found that the apps Glow Fertility, Nurture and Eve ‘collect additional information’ about users from other companies, described only as third-party sources. What is more, the apps would have tracking technologies. According to Glow’s terms of service, all user data could be disclosed to another company if the app or database were sold. It was also found that the Ovia Fertility and Pregnancy apps would collect a lot of data not needed for the app, including illness, financial situation, housing, security and education level. These apps could also share location and activity within the app with advertisers. Choice reported that the What To Expect app is able to collect information about its users from other companies, including data brokers, allows the sale of user data, and allows other companies to track users in the app. A Choice representative stated that the most worrying aspect is the monetisation of data by apps.
Not even ChatGpt’s artificial intelligence is safe from technical failures that could affect privacy. In recent hours, the software has stopped working. The disruption was caused by the decision of the developer, OpenAI, to temporarily block the platform due to a bug, an error that exposed the titles of users’ conversations. The content of the conversations, as OpenAI clarified to Bloomberg, was not released. After intercepting the problem, the company, in which Microsoft has invested heavily in recent months, blocked access to the chatbot to prevent the privacy error from spreading further. Before being taken offline, on ChatGpt’s main page, instead of seeing the history of one’s chats with the AI, one could read the random ones of other surfers. To avoid other problems, even after the resolution, the users’ history remained unavailable, making it impossible to access the questions previously asked by the artificial intelligence. The ChatGpt status page specified that OpenAI is still working to restore everything.
Venerdì 17 marzo, dalle ore 10.30, interverrò al webinar “Intelligenza artificiale e dintorni” organizzato da Cyberacademy. Con l’Avv. Luisa Di Giacomo parleremo di ChatGPT, Replika e molto altro. Per info clicca qui.
La proposta di acquisizione di iRobot (produttore dell’aspirapolvere Roomba) da parte di Amazon potrebbe detestare forti preoccupazioni per la privacy nella Commissione Europea. Lo scrive il Financial Times, sostenendo che la società americana avrebbe ricevuto già una richiesta di informazioni rispetto a questa nuova operazione da 1,7 miliardi di dollari. E questa mossa della Commissione preluderebbe, secondo le fonti citate dal noto quotidiano economico, all’apertura di un’istruttoria formale. A differenza della Federal Trade Commission statunitense, che sta esaminando l’accordo sotto il profilo dell’accrescimento del potere di mercato di Amazon nel settore dell’elettronica domestica, la Commissione europea nutrirebbe, invece, una serie di perplessità legate alla privacy. In particolare, nel mirino dei funzionari europei ci sarebbe la capacità dell’aspirapolvere intelligente di scattare foto mentre si muove all’interno di una casa. Questi dati, combinati con quelli raccolti da Alexa, potrebbero infatti conferire un fortissimo vantaggio alla multinazionale californiana. Peraltro, la MIT Technology Review aveva pubblicato già in dicembre la notizia di un robot Roomba capace di catturare immagini intime. D’altro canto, sempre secondo quanto ricostruito dal Financial Times, parrebbe che Amazon si stia preparando a contestare gli eventuali rilievi. L’azienda potrebbe, infatti, mettere in evidenza che le limitazioni incorporate nell’elettrodomestico – il quale disporrebbe solo di una mappatura di base dei sensori – renderebbero improbabile eventuali rischi per la privacy. Peraltro, la Big tech potrebbe anche sostenere che l’acquisto di iRobot non varrebbe a conferirle alcun particolare vantaggio di mercato rispetto ai rivali nel settore, dato il numero di prodotti concorrenti disponibili. Sta di fatto che, però, almeno finora, sia Amazon che la Commissione europea hanno rifiutato di commentare la notizia della potenziale indagine.
ChatGPT è stato reso disponibile per l’uso pubblico a novembre, ma diversi datori di lavoro hanno già molti dubbi rispetto ai problemi di compliance connessi al suo impiego. ChatGPT è una piattaforma linguistica di AI che viene addestrata per interagire in conversazioni ed eseguire compiti, mediante l’alimentazione di un algoritmo con enormi serie di dati. Il modello viene poi testato per determinare la sua capacità di fare previsioni a partire da dati inediti. Eppure, la base di conoscenza di questo strumento presenta ancora delle lacune, anche considerando che l’AI è stata addestrata solo su set di dati disponibili fino al 2021 e che attinge a dati online non sempre accurati. Se i dipendenti si affidano a ChatGPT per ottenere informazioni relative al lavoro e non le verificano, possono sorgere problemi. Sta, allora, ai datori di lavoro dover stabilire attente politiche rispetto al suo impiego in contesto lavorativo. In particolare, per quanto riguarda gli aspetti correlati alla privacy, c’è la possibilità che i dipendenti condividano dati e informazioni durante le “conversazioni” con ChatGPT. Sebbene, infatti, l’AI dichiari di non conservare le informazioni fornite nelle conversazioni, essa “impara” da ogni conversazione. Così, anche informazioni riservate potrebbero essere rivelate a ChatGPT. Tuttavia, la nuova versione migliorata, che dovrebbe uscire entro l’anno, potrebbe essere in grado di lenire almeno alcune delle preoccupazioni dei datori di lavoro.
Scandalo nel Regno Unito per alcune dichiarazioni della polizia del Lancashire nel corso delle ricerche di una donna scomparsa. La polizia, che indaga sulla sparizione di una quarantacinquenne ha affermato in un comunicato che la donna aveva in passato “sofferto di alcuni problemi significativi con l’alcol, causati dal suo rapporto difficile con la menopausa [che erano] riemersi negli ultimi mesi”. In molti, tra cui parlamentari, giuristi e attivisti per la privacy, hanno reagito con indignazione al comunicato sui social media. In particolare, Zoë Billingham, presidente di un istituto di salute mentale del Servizio Sanitario Nazionale (NHS) ha dichiarato alla BBC che l’aggiornamento fornito dalla polizia del Lancashire “è abbastanza inquietante da molti punti di vista”, aggiungendo che “la gente si chiede giustamente in che modo lo stato riproduttivo di una donna scomparsa sia collegato al tentativo di ritrovarla e se le stesse informazioni sarebbero state rese di dominio pubblico se si fosse trattato di un uomo”. I rappresentati della polizia hanno, però, specificato che “si è trattato di un passo insolito per noi entrare in questo livello di dettaglio sulla vita privata di qualcuno, ma abbiamo ritenuto importante chiarire cosa intendevamo quando abbiamo parlato di vulnerabilità per evitare ulteriori speculazioni o interpretazioni errate”. Peraltro, sempre stando a quanto affermato dalla polizia, alla famiglia della donna scomparsa sarebbero state fornite spiegazioni sul perché del rilascio di tali delicate informazioni.
English version
The proposed takeover of iRobot (manufacturer of the Roomba hoover) by Amazon could raise serious privacy concerns in the European Commission. The Financial Times writes this, claiming that the American company has already received a request for information regarding this new $1.7 billion transaction. And this move by the Commission would be a prelude to the opening of a formal investigation, according to sources quoted by the well-known business daily. In contrast to the US Federal Trade Commission, which is examining the deal from the point of view of Amazon’s increased market power in the home electronics sector, the European Commission would instead have a number of privacy-related concerns. In particular, in the crosshairs of European officials would be the ability of the smart hoover to take pictures while moving around a house. These data, combined with those collected by Alexa, could in fact give a very strong advantage to the Californian multinational. Moreover, the MIT Technology Review had already published in December the news of a Roomba robot capable of capturing intimate images. On the other hand, again according to the Financial Times’ reconstruction, it would appear that Amazon is preparing to contest the possible findings. The company could, in fact, point out that the limitations built into the appliance – which would only have basic sensor mapping – would make any privacy risks unlikely. Big tech might also argue that the purchase of iRobot would not give it any particular market advantage over rivals in the sector, given the number of competing products available. The fact is, however, that, at least so far, both Amazon and the European Commission have refused to comment on the news of the potential investigation.
ChatGPT was made available for public use in November, but several employers already have many doubts about compliance issues related to its use. ChatGPT is an AI language platform that is trained to interact – even in conversation – and perform tasks by feeding an algorithm with huge data sets. The model is then tested to determine its ability to make predictions from unpublished data. Yet, there are still gaps in the knowledge base of this tool, not least considering that AI has only been trained on datasets available until 2021 and that it draws on online data that is not always accurate. If employees rely on ChatGPT to obtain work-related information and do not verify it, problems can arise. It is then up to employers to establish careful policies with respect to its use in a work context. In particular, with regard to privacy-related aspects, there is the possibility of employees sharing data and information during ‘conversations’ with ChatGPT. Although, in fact, the AI states that it does not retain the information provided in conversations, it ‘learns’ from each conversation. Thus, even confidential information could be revealed to ChatGPT. However, the new improved version, due to be released later this year, may be able to alleviate at least some of the concerns of employers.
Scandal in the UK over statements made by the Lancashire police during the search for a missing woman. The police investigating the disappearance of a 45-year-old woman said in a statement that the woman had previously ‘suffered from some significant problems with alcohol, caused by her difficult relationship with menopause [which had] resurfaced in recent months’. Many, including parliamentarians, lawyers and privacy activists, reacted with indignation to the statement on social media. In particular, Zoë Billingham, president of a National Health Service (NHS) mental health institute, told the BBC that the update provided by Lancashire police ‘is quite disturbing in many respects’, adding that ‘people are rightly wondering how a missing woman’s reproductive status relates to the attempt to find her and whether the same information would have been made public if it had been a man’. Police representatives specified, however, that ‘it was an unusual step for us to go into this level of detail about someone’s private life, but we felt it was important to clarify what we meant when we talked about vulnerability to avoid further speculation or misinterpretation’. Moreover, according to the police, the family of the missing woman was given explanations as to why such sensitive information was released.
Un’idea alternativa per la pubblicità online in Europa. Più riguardo per il trattamento dei dati e niente profilazione: è quello che prevede il piano della joint venture annunciata dalle quattro maggiori compagnie europee di telecomunicazione che sfida le big tech. Si tratta della tedesca Deutsche Telekom, attiva in oltre 50 paesi, in Europa e Stati Uniti; la francese Orange, attiva in 27 paesi; la spagnola Telefónica, attiva in Europa e Sud America; l’inglese Vodafone, attiva in 21 paesi tra Europa e Africa. Molti di questi offrono sia servizi di telefonia che di Iptv (contenuti televisivi trasmessi via internet). La richiesta, come rivelato da Politico, è arrivata agli uffici della Commissione europea che si occupano di concorrenza, visto il rischio di una eventuale concentrazione di mercato a danno dei consumatori. Tuttavia, in questo caso, il piano non sembra essere diretto, come a volte accade, a restringere la concorrenza, con la conseguenza di alzare i prezzi per gli utenti, ma piuttosto a creare un’alternativa appetibile per gli investitori pubblicitari che non vogliano solo rivolgersi al sistema dominato dalle grandi piattaforme. Quello che è significativo è che uno dei punti di forza del progetto è proprio una maggiore attenzione alla privacy degli utenti. La promessa di questa joint venture è quella di creare un grande hub per la distribuzione pubblicitaria, ma senza profilare i clienti e, anzi, dando loro maggior controllo su come i dati sono condivisi con le aziende.
E’ diventato popolare usare l’intelligenza artificiale per generare favole della buonanotte, lettere d’amore, saggi di scuola superiore , persino consigli sulla salute mentale, opere d’arte. Molte persone non si sentono però a proprio agio con i contenuti creati dai bot. ChatGPT in particolare ha suscitato timori ad esempio per lo studio, si pensa che gli studenti possano utilizzarlo per scrivere tesi e compiti. Il Dipartimento dell’Istruzione di New York City, ad esempio, ha recentemente vietato l’accesso al ChatGPT sulle sue reti e dispositivi. Anche le persone in altri settori sono preoccupate che i lavoratori possano usarlo come scorciatoia per gli incarichi di lavoro. Alcuni ricercatori si sono impegnati nell’individuare strumenti per aiutare le persone a capire cosa scaturisce realmente dalla mente umana e cosa è stato messo insieme da un bot. Edward Tian, uno studente di 22 anni della Princeton University, ha creato ad esempio GPTZero, che mostra la probabilità di quanto ci sia di vero o falso nei testi. Il software valuta in base a una manciata di fattori. Una metrica chiave che utilizza è la tendenza delle persone a utilizzare una maggiore variazione nella scelta delle parole e nella lunghezza della frase, mentre il testo dell’IA è più lineare e asciutto.
Bankitalia: giù frodi online con doppia password o codice. Inserire due password o pin, o dare il via libera al pagamento tramite il token o lo smartphone può essere un procedimento fastidioso, ma riduce del 60% i rischi di frode per i trasferimenti online con carta e dell’80% di quelli con moneta elettronica. I dati emergono da un paper pubblicato dalla Banca d’Italia sull’impatto dei nuovi requisiti di autenticazione forte del cliente o doppia autenticazione (Sca) introdotti con la direttiva europea Psd2 e declinati poi da ogni banca in maniera diversa. Si stima che le transazioni per cui la regolamentazione prevede un’esenzione dall’applicazione della Sca risultano relativamente sicure.
English Translation
An alternative idea for online advertising in Europe. More care for data processing and no profiling: that is the plan of the joint venture announced by the four largest European telecommunication companies challenging the big tech. These are Germany’s Deutsche Telekom, active in over 50 countries, in Europe and the United States; France’s Orange, active in 27 countries; Spain’s Telefónica, active in Europe and South America; and the UK’s Vodafone, active in 21 countries between Europe and Africa. Many of these offer both telephony and IPTV (TV content transmitted via the Internet) services. The request, as revealed by Politico, reached the European Commission’s competition offices, given the risk of a possible market concentration to the detriment of consumers. However, in this case, the plan does not seem to be directed, as sometimes happens, at restricting competition, with the consequence of raising prices for users, but rather at creating an attractive alternative for advertising investors who do not only want to turn to the system dominated by the large platforms. What is significant is that one of the strengths of the project is precisely a greater focus on user privacy. The promise of this joint venture is to create a large advertising distribution hub, but without profiling customers and, on the contrary, giving them more control over how data is shared with companies.
It has become popular to use artificial intelligence to generate bedtime stories, love letters, high school essays, even mental health advice, works of art. However, many people are uncomfortable with the content created by bots. ChatGPT in particular has raised fears for study, for example, it is thought that students may use it to write theses and assignments. The New York City Department of Education, for example, recently banned access to ChatGPT on its networks and devices. People in other sectors are also concerned that workers might use it as a shortcut for work assignments. Some researchers have been working on finding tools to help people understand what really springs from the human mind and what has been put together by a bot. For instance, Edward Tian, a 22-year-old student at Princeton University, created GPTZero, which shows the probability of what is true or false in texts. The software evaluates based on a handful of factors. One key metric it uses is people’s tendency to use more variation in word choice and sentence length, while AI text is more linear and dry.
Bankitalia: Down online fraud with double passwords or codes. Entering two passwords or pins, or giving the go-ahead for payment using a token or smartphone can be an annoying process, but it reduces the risk of fraud for online transfers by 60% for card transactions and by 80% for those using electronic money. The data emerge from a paper published by the Bank of Italy on the impact of the new requirements for strong customer authentication or dual authentication (Sca) introduced with the European Psd2 directive and then declined by each bank in a different way. It is estimated that transactions for which the regulation provides an exemption from the application of Sca are relatively secure.