IA per navigare sul web, Opera e OpenAI lanciano Aria. Un nuovo browser con ChatGpt integrato e totalmente gratuito

R CRO INT A052
IA per navigare sul web, Opera e OpenAI lanciano Aria. Un nuovo browser con ChatGpt integrato e totalmente gratuito
(ANSA) – MILANO, 25 MAG – Opera ha presentato Aria, il suo nuovo software di navigazione web con funzionalità di intelligenza artificiale. Il browser è il risultato della collaborazione di Opera con OpenAI, sviluppatore del famoso chatbot ChatGpt. Aria permette agli utenti di migliorare la propria creatività, sfruttando funzionalità di intelligenza artificiale generativa, per cercare informazioni in rete, generare testo o codice e ottenere risposte alle proprie domande. Il tutto tramite una finestra di chat integrata direttamente nella barra del programma. Il software si basa sull’infrastruttura Composer di Opera e si collega alla tecnologia Gpt di OpenAI, la stessa di ChatGpt, ed è arricchita da ulteriori funzionalità, come l’aggiunta di risultati in tempo reale dal web. L’idea di Opera è quella di aprire le integrazione del suo browser anche ad altri tipi di utilizzi. E infatti, l’infrastruttura Composer è espandibile, per connettersi a più modelli di IA e adottare nuove funzionalità, rese possibili dai principali partner di Opera. Qualcosa di simile ai cosiddetti ‘plugin’ di Bing Chat di Microsoft, con cui siti web e sviluppatori di terze parti possono arricchire l’esperienza di ChatGpt per rispondere a quesiti specifici anche rivolti a determinati servizi, come la prenotazione di un hotel o di un ristorante. La stessa tipologia di interazione è stata annunciata da Google sul futuro motore di ricerca basato sull’IA di Bard, il chatbot di Big G. Aria è in distribuzione in più di 180 Paesi, Italia inclusa, su piattaforma Windows, Mac, Linux e Android. (ANSA).
YFF-GU
2023-05-25 10:01 NNNN

Influencer usa l’IA per conversare, 1 dollaro al minuto. Negli Stati Uniti, almeno 1.000 le persone iscritte al servizio

ZCZC2108/SXB
XSP23136012556_SXB_QBXB
R CRO S0B QBXB

Influencer usa l’IA per conversare, 1 dollaro al minuto. Negli Stati Uniti, almeno 1.000 le persone iscritte al servizio
(ANSA) – ROMA, 16 MAG – Una giovane influencer statunitense si ‘clona’ con l’intelligenza artificiale e propone ai suoi follower conversazioni dirette con un chatbot, un programma, che simula il suo modo di argomentare. Le conversazioni costano 1 dollaro al minuto. Non è il sequel del film Her – in cui un uomo intraprende una relazione sentimentale col suo sistema operativo – ma una storia vera specchio dei tempi. L’influencer, come scrive Fortune, si chiama Caryn Marjorie, ha 23 anni e 1,8 milioni di follower su Snapchat, un’app usata dai giovanissimi. Sta usando ChatGpt4, l’ultima versione del popolare software di intelligenza artificiale, per il suo chatbot che si chiama CarynAI. Secondo la testata, al momento sono almeno 1.000 le persone che hanno usufruito di questo servizio. Gli utenti hanno l’impressione di chattare con l’influencer preferita, non via messaggi e testo scritto, bensì tramite messaggi vocali per domande e risposte: la voce e soprattutto la personalità sono quelle di Caryn Marjorie che interagisce con un modello di intelligenza artificiale addestrato per replicare la sua personalità, il carattere e la voce. “CarynAI è il primo passo per curare la solitudine”, scrive la ragazza su Twitter.
(ANSA).

SAM
2023-05-16 11:15 NNNN

Agenda della settimana

Quali sono i principali appuntamenti della settimana che sta per iniziare? Cosa farò? Quali saranno le sfide principali all’orizzonte

Mercoledì 17 maggio dalle 12.00 alle 12.45, nell’ambito delle iniziative organizzate per Forum PA 2023, parteciperò al panel “Digitalmente inclusivi: combattere le disuguaglianze attraverso l’alfabetizzazione digitale”, organizzato dal Miur. Per info qui.  

Giovedì 18 maggio dalle ore 9.00 sarò invece al convegno organizzato dall’Ufficio studi e formazione della Giustizia Amministrativa “Intelligenza artificiale, diritti, giustizia e pubblica amministrazione”. Maggiori info qui.  Sempre Giovedì, dalle 11.30 alle 13.30, sarò al Forum PA 2023 all’evento “State of rivacy ’22” – Follow up”, dove proseguiranno i lavori del tavolo “PA Digitale” costituito lo scorso settembre in occasione dell’evento organizzato dal Garante a Pietrarsa. Info qui.  

Venerdì 19 maggio dalle ore 10.00 interverrò al corso di formazione “Algoritmi e informazione tra libertà di stampa e tutela della privacy” organizzato dalla Gazzetta del Sud in collaborazione con l’Ordine dei giornalisti di Sicilia; mentre dalle  14.30 parteciperò all’evento“Intelligenza artificiale. E noi?”. Info qui.

Parola di Godfathers. L’Ai è più urgente del cambiamento climatico, ma meno pericolosa delle bombe atomiche

Geoffrey Hinton e Jurgen Schmidhuber sono d’accordo su un fatto: non è possibile fermare la corsa all’AI, ma bisogna preoccuparsi di governarla

Se vuoi leggere il mio pezzo nella rubrica Governare il futuro su Huffington Post la trovi qui https://www.huffingtonpost.it/rubriche/governare-il-futuro/

PRIVACY DAILY 87/2023

Tesla avvertirà che la sua “modalità sentinella”, che registra l’ambiente circostante l’auto, rischia di violare le leggi sulla privacy in Germania. L’annuncio segue la citazione in giudizio del produttore di auto da parte del gruppo di consumatori vzbv per non averne fatto menzione nella pubblicità. Il caso è l’ultimo di una serie di controversie in paesi che vanno dalla Cina ai Paesi Bassi in merito alle telecamere presenti nelle auto Tesla, che secondo l’azienda servono a proteggere da furti o atti di vandalismo, ma che le autorità temono portino a filmare senza consenso.La causa intentata da vzbv lo scorso luglio sosteneva che la casa automobilistica ingannava i consumatori non informandoli nella pubblicità che il conducente avrebbe potuto violare la normativa sulla protezione dei dati se la funzione fosse stata utilizzata in spazi pubblici e avesse filmato i passanti a loro insaputa. Dopo un’udienza sul caso a Berlino, l’azienda ha emesso una dichiarazione di cessazione dell’attività, affermando che non avrebbe più fatto pubblicità in quel modo, secondo una dichiarazione di vzbv. Tesla non ha potuto essere raggiunta immediatamente per un commento. Il manuale della casa automobilistica per gli acquirenti negli Stati Uniti afferma che “è vostra esclusiva responsabilità consultare e rispettare tutte le normative locali e le restrizioni di proprietà relative all’uso delle telecamere”. Un portavoce dell’agenzia berlinese per la protezione dei dati ha dichiarato che la persona che guida l’auto è responsabile dello spegnimento delle telecamere negli spazi pubblici. La responsabilità si estenderebbe all’azienda se le immagini venissero trasmesse e memorizzate da Tesla, ha aggiunto il portavoce. L’autorità di controllo dei dati personali nei Paesi Bassi ha tratto una conclusione simile a febbraio, attribuendo la responsabilità delle riprese al conducente.

Dopo il report di Human Rights Watch, Escola Mais, un’azienda educativa brasiliana, ha preso provvedimenti per proteggere la privacy degli studenti. Lo annuncia la stessa HRW, dopo che qualche giorno fa aveva attirato l’attenzione dei media sul fatto che il sito web di Escola Mais, insieme ad altri sette siti web educativi per studenti brasiliani, sorvegliava segretamente i bambini e raccoglieva i loro dati personali. Stando a quanto riportato, prima della pubblicazione del rapporto, Escola Mais non aveva risposto alle richieste di commento, ma dopo che i media hanno iniziato a ribattere la notizia dell’indagine, si è messa in contatto con Human Rights Watch per chiedere come proteggere la privacy dei dati degli studenti. In seguito, l’azienda ha rimosso dal suo sito web tutti i link alla sua piattaforma di apprendimento online rivolti agli studenti. Escola Mais ha affermato che la data surveillance aveva come target i genitori. Ha inoltre dichiarato che avrebbe fornito agli studenti un link diretto alla sua piattaforma online, in modo che potessero evitare di utilizzare il sito web principale, che è sottoposto a sorveglianza attiva dei dati, per accedere alle risorse di apprendimento. Si tratta di uno sviluppo positivo, che dimostra come i provider online possano fornire servizi educativi ai bambini in modo da non compromettere i loro dati e la loro privacy. Ma non basta la volontà dei singoli fornitori. Il governo nazionale dovrebbe modificare la legge brasiliana sulla protezione dei dati (Lei Geral de Proteção de Dados Pessoais) adottando nuove garanzie per fermare la sorveglianza dei bambini online.

Il Presidente Joe Biden ha dichiarato che resta da verificare se l’intelligenza artificiale sia pericolosa, ma nel frattempo le aziende tecnologiche dovrebbero garantire la sicurezza dei loro prodotti prima di rilasciarli al pubblico. Biden ha incontrato il suo council of advisers on science and technology (composto da esperti di scienza, ingegneria, tecnologia e medicina) per discutere sui rischi e le opportunità che i rapidi progressi dell’intelligenza artificiale comportano per i singoli utenti e per la sicurezza nazionale. “L’intelligenza artificiale può aiutare ad affrontare alcune sfide molto difficili come le malattie e il cambiamento climatico, ma deve anche affrontare i potenziali rischi per la nostra società, la nostra economia e la nostra sicurezza nazionale”, ha detto Biden al gruppo, che comprende accademici e dirigenti di Microsoft e Google. Sebbene le aziende tecnologiche debbano sempre essere responsabili della sicurezza dei loro prodotti, il richiamo di Biden riflette una novità: l’emergere di strumenti di IA facili da usare che possono generare contenuti manipolativi e media sintetici dall’aspetto realistico, noti come deepfakes, ha dichiarato Rebecca Finlay, CEO della Partnership on AI. La Casa Bianca ha dichiarato che il presidente democratico ha utilizzato l’incontro sull’IA per “discutere dell’importanza di proteggere i diritti e la sicurezza per garantire un’innovazione responsabile e adeguate salvaguardie” e per ribadire il suo appello al Congresso affinché approvi una legislazione per proteggere i bambini e limitare la raccolta di dati da parte delle aziende tecnologiche. L’anno scorso l’amministrazione Biden ha presentato una serie di obiettivi di ampia portata volti a prevenire i danni causati dall’ascesa dei sistemi di IA, tra cui linee guida per la protezione dei dati personali delle persone e la limitazione della sorveglianza. Il Blueprint for an AI Bill of Rights, in particolare, non prevedeva azioni specifiche di applicazione, ma era invece inteso come una chiamata all’azione per il governo degli Stati Uniti per salvaguardare i diritti digitali e civili in un mondo alimentato dall’IA.

English version

Tesla will warn that its “sentry mode,” which records the car’s surroundings, risks violating privacy laws in Germany. The announcement follows a subpoena to the automaker by consumer group vzbv for failing to mention it in advertisements. The case is the latest in a series of disputes in countries ranging from China to the Netherlands over cameras in Tesla cars, which the company says serve to protect against theft or vandalism, but which authorities fear lead to filming without consent.The lawsuit filed by vzbv last July claimed that the automaker misled consumers by not informing them in its advertising that the driver could violate data protection laws if the feature was used in public spaces and filmed passersby without their knowledge. After a hearing on the case in Berlin, the company issued a cease-and-desist statement saying it would no longer advertise in that way, according to a statement from vzbv. Tesla could not immediately be reached for comment. The automaker’s handbook for buyers in the United States states that “it is your sole responsibility to consult and comply with all local regulations and ownership restrictions related to the use of cameras.” A spokesman for the Berlin-based data protection agency said the person driving the car is responsible for turning off cameras in public spaces. The responsibility would extend to the company if the images were transmitted and stored by Tesla, the spokesman added. The Data Protection Authority in the Netherlands drew a similar conclusion in February, holding the driver responsible for the footage.

After the Human Rights Watch report, Escola Mais, a Brazilian educational company, took steps to protect student privacy. This was announced by HRW itself, after it drew media attention a few days ago to the fact that Escola Mais’ website, along with seven other educational websites for Brazilian students, was secretly surveilling children and collecting their personal data. According to reports, prior to the report’s publication, Escola Mais had not responded to requests for comment, but after the media began to rebuttal the news of the investigation, it contacted Human Rights Watch to ask how to protect the privacy of student data. The company later removed all links to its online learning platform aimed at students from its website. Escola Mais stated that the data surveillance was targeting parents. It also said it would provide students with a direct link to its online platform so they could avoid using the main website, which is under active data surveillance, to access learning resources. This is a positive development, demonstrating how online providers can provide educational services to children in a way that does not compromise their data and privacy. But the will of individual providers is not enough. The national government should amend Brazil’s data protection law (Lei Geral de Proteção de Dados Pessoais) by adopting new safeguards to stop the surveillance of children online.

President Joe Biden said it remains to be seen whether artificial intelligence is dangerous, but in the meantime, technology companies should ensure the safety of their products before releasing them to the public. Biden met with his council of advisers on science and technology (composed of experts in science, engineering, technology and medicine) to discuss the risks and opportunities that rapid advances in artificial intelligence pose for individual users and for national security. “Artificial intelligence can help address some very difficult challenges like disease and climate change, but it must also address potential risks to our society, our economy and our national security,” Biden told the group, which includes academics and executives from Microsoft and Google. Although technology companies should always be responsible for the security of their products, Biden’s reminder reflects a new development: the emergence of easy-to-use AI tools that can generate manipulative content and realistic-looking synthetic media known as deepfakes, said Rebecca Finlay, CEO of the Partnership on AI. The White House said the Democratic president used the meeting on AI to “discuss the importance of protecting rights and safety to ensure responsible innovation and appropriate safeguards” and to reiterate his call for Congress to pass legislation to protect children and limit data collection by tech companies. Last year, the Biden administration unveiled a set of far-reaching goals aimed at preventing harm from the rise of AI systems, including guidelines for protecting people’s personal data and limiting surveillance. The Blueprint for an AI Bill of Rights, in particular, did not include specific enforcement actions, but was instead intended as a call to action for the U.S. government to safeguard digital and civil rights in an AI-powered world.

PRIVACY DAILY 81/2023

L’Unione Europea limiterà la circolazione di annunci politici basati sulle caratteristiche personali e sulla sensibilità delle persone. Così, secondo quanto affermato da Human Rights Watch. Il Parlamento, la Commissione e il Consiglio starebbero negoziando una proposta di regolamento che porrebbe dei limiti alla pubblicità politica invasiva della privacy e richiederebbe anche una maggiore trasparenza nella messaggistica politica a pagamento sulle piattaforme digitali e su altri media. Ma, secondo una prima ricostruzione di Human Rights Watch, il regolamento non si spingerebbe abbastanza in là con le sue salvaguardie e rischia di provocare danni collaterali se applicato in modo troppo ampio ai gruppi della società civile e ai giornalisti che partecipano al discorso politico online. “Gli annunci politici mirati online possono minacciare la privacy e compromettere l’integrità dei processi politici”, ha dichiarato Frederike Kaltheuner, direttore per la tecnologia e i diritti umani di Human Rights Watch. I rischi associati alla pubblicità politica a pagamento sono ben documentati. Creando un ecosistema di messaggistica mirata, le piattaforme consentono agli attori politici di confezionare messaggi fuorvianti o discriminatori in base alle caratteristiche personali più intime delle persone. Le piattaforme si affidano anche a sistemi algoritmici per prendere decisioni sulla destinazione dei contenuti promossi e sulla diffusione di un messaggio politico a pagamento. Non è sempre chiaro come questi sistemi algoritmici selezionino il pubblico target per le pubblicità e la diffusione può essere indirettamente intrusiva o discriminatoria. Un’industria di influencer online, società di gestione della reputazione e broker di dati politici commercializza anche servizi di profilazione degli elettori per trarre vantaggio dall’ambiente della messaggistica online. I legami tra questa industria e i partiti politici sono spesso invisibili, oscurando ulteriormente le fonti della messaggistica politica in un’atmosfera in cui troppo spesso prevale la messaggistica odiosa, disinformata o polarizzante.

ll governo del Regno Unito ha pubblicato un libro bianco che delinea i suoi piani per regolamentare l’intelligenza artificiale di uso generale. Il documento, pubblicato dal nuovo Dipartimento per la Scienza, l’Innovazione e la Tecnologia (DSIT), stabilisce le linee guida per quello che chiama “uso responsabile” e delinea cinque principi che vuole che le aziende seguano. Rispettivamente: sicurezza, sicurezza e robustezza; trasparenza e spiegabilità; equità; responsabilità e governance; e contestabilità e riparazione. Tuttavia, al fine di “evitare una legislazione che potrebbe limitare l’innovazione”, il governo ha scelto di non dare la responsabilità della governance dell’IA a un nuovo regolatore unico, chiedendo invece ai regolatori esistenti di escogitare dei piani ad hoc a seconda del proprio campo di competenza. Con il rapido sviluppo dell’IA, sono stati sollevati interrogativi sui rischi futuri che potrebbe comportare per la privacy, i diritti umani e la sicurezza delle persone. Si teme che l’IA possa mostrare pregiudizi nei confronti di particolari gruppi se addestrata su grandi insiemi di dati raccolti da Internet, che possono includere materiale razzista, sessista o di altro tipo. L’IA potrebbe anche essere usata per creare e diffondere disinformazione. Di conseguenza, molti esperti sostengono che l’IA debba essere regolamentata. Tuttavia, i sostenitori dell’IA affermano che la tecnologia sta già producendo reali benefici sociali ed economici per le persone. Il governo teme che le organizzazioni possano essere ostacolate nell’utilizzo dell’IA in tutto il suo potenziale perché un mosaico di regimi legali potrebbe creare confusione nelle aziende che cercano di rispettare le regole. Invece di affidare la responsabilità della governance dell’IA a un nuovo regolatore unico, il governo vuole che i regolatori esistenti – come l’Health and Safety Executive, la Commissione per l’uguaglianza e i diritti umani e l’Autorità per la concorrenza e i mercati – elaborino approcci propri che si adattino al modo in cui l’IA viene effettivamente utilizzata nei loro settori. Questi regolatori utilizzeranno le leggi esistenti piuttosto che ricevere nuovi poteri.

La Corte Suprema degli Stati Uniti deve pronunciarsi sul bilanciamento tra privacy e potere dell’Internal Revenue Service di richiedere i dati dei conti correnti bancari senza mai avvisare i titolari dei conti. La questione per la Corte è se l’Internal Revenue Service debba informare i titolari dei conti bancari di aver richiesto tali documenti quando cerca di riscuotere le tasse di un soggetto che non sia titolare del conto. I gruppi per i diritti dei contribuenti hanno esortato i giudici a limitare le prerogative dell’agenzia, mentre l’IRS ha affermato che sta usando un potere concesso dal Congresso. In particolare, si teme che il passo successivo dell’agenzia sarebbe quello di escutere il conto per riscuotere le passività. “È devastante il potere che ha il governo di prendere prima il denaro e poi fare domande”, ha detto Frank Agostino, ex avvocato dell’IRS. A quel punto, “il governo ha i vostri soldi e voi dovete intentare una causa per prelievo illecito dicendo: hanno preso i miei soldi, non quelli del contribuente moroso”. La legge dice che il governo non è tenuto a dare un preavviso se il suo obiettivo è quello di contribuire alla riscossione di un accertamento fiscale “contro la persona in relazione alla quale è stata emessa la citazione”. Le corti d’appello federali sono state divise su come interpretare questa eccezione all’obbligo di notifica. Secondo l’IRS, l’eccezione si applica anche quando i documenti richiesti non appartengono al contribuente debitore. I titolari dei conti nel caso in questione – la moglie del contribuente che deve far fronte ai debiti e due studi legali – sostengono che l’eccezione si applica solo quando il contribuente moroso ha un interesse legale nel conto bancario in questione.

English version

The European Union will restrict the circulation of political advertisements based on people’s personal characteristics and sensitivities. According to Human Rights Watch. The Parliament, Commission, and Council are reportedly negotiating a proposed regulation that would place limits on privacy-invasive political advertising and also require greater transparency in paid political messaging on digital platforms and other media. But, according to an initial reconstruction by Human Rights Watch, the regulation would not go far enough with its safeguards and risks causing collateral damage if applied too broadly to civil society groups and journalists participating in online political discourse. “Targeted political ads online can threaten privacy and compromise the integrity of political processes,” said Frederike Kaltheuner, director for technology and human rights at Human Rights Watch. The risks associated with paid political advertising are well documented. By creating a targeted messaging ecosystem, platforms enable political actors to package misleading or discriminatory messages based on people’s most intimate personal characteristics. The platforms also rely on algorithmic systems to make decisions on the targeting of promoted content and the dissemination of a paid political message. It is not always clear how these algorithmic systems select the target audience for advertisements and the dissemination may be indirectly intrusive or discriminatory. An industry of online influencers, reputation management companies and political data brokers also market voter profiling services to take advantage of the online messaging environment. The links between this industry and political parties are often invisible, further obscuring the sources of political messaging in an atmosphere where hateful, uninformed or polarising messaging too often prevails.

The UK government has published a white paper outlining its plans to regulate general-purpose artificial intelligence. The document, published by the new Department for Science, Innovation and Technology (DSIT), sets out guidelines for what it calls ‘responsible use’ and outlines five principles it wants companies to follow. Respectively: safety, security and robustness; transparency and explainability; fairness; accountability and governance; and contestability and redress. However, in order to ‘avoid legislation that could limit innovation’, the government has chosen not to give responsibility for AI governance to a new single regulator, instead asking existing regulators to devise ad hoc plans according to their field of expertise. With the rapid development of AI, questions have been raised about the future risks it might pose to privacy, human rights and people’s security. There are fears that AI could show bias against particular groups if trained on large datasets collected from the Internet, which may include racist, sexist or other material. AI could also be used to create and spread disinformation. Consequently, many experts argue that AI should be regulated. However, AI advocates claim that the technology is already producing real social and economic benefits for people. The government fears that organisations may be hindered from using AI to its full potential because a patchwork of legal regimes could be confusing for companies trying to comply with the rules. Rather than handing responsibility for AI governance over to a new single regulator, the government wants existing regulators – such as the Health and Safety Executive, the Equality and Human Rights Commission and the Competition and Markets Authority – to develop their own approaches that fit the way AI is actually used in their sectors. These regulators will use existing laws rather than receive new powers.

The US Supreme Court must rule on the balance between privacy and the Internal Revenue Service’s power to request bank account information without ever notifying account holders. The issue for the Court is whether the Internal Revenue Service must inform account holders that it has requested such records when it seeks to collect taxes from a non-account holder. Taxpayers’ rights groups have urged the courts to limit the agency’s prerogatives, while the IRS has argued that it is using a power granted by Congress. In particular, it is feared that the agency’s next step would be to excise the account to collect on the liabilities. “It is devastating the power the government has to first take the money and then ask questions,” said Frank Agostino, a former IRS lawyer. At that point, “the government has your money and you have to file a wrongful levy suit saying, they took my money, not the delinquent taxpayer’s money.” The law says that the government is not required to give notice if its purpose is to help collect a tax assessment ‘against the person in respect of whom the summons was issued’. Federal appellate courts have been divided on how to interpret this exception to the notice requirement. According to the IRS, the exception applies even when the requested documents do not belong to the debtor taxpayer. The account holders in the case – the debtor taxpayer’s wife and two law firms – argue that the exception only applies when the delinquent taxpayer has a legal interest in the bank account in question.

PRIVACY DAILY 80/2023

Un nuovo ordine esecutivo del Presidente Biden limiterà l’uso degli spyware commerciali da parte del Governo degli Stati Uniti. Questi strumenti sono stati utilizzati fin ora per sorvegliare una serie di soggetti in tutto il mondo. L’ordine risponde alle crescenti preoccupazioni riguardo ai programmi che possono catturare messaggi di testo e altri dati dei cellulari. Alcuni programmi – i cosiddetti exploit “zero-click” – possono infettare un telefono senza che l’utente clicchi su un link dannoso. È noto che i governi di tutto il mondo, compresi gli Stati Uniti, raccolgono grandi quantità di dati per scopi di intelligence e di law enforcement. La proliferazione di spyware commerciali ha, infatti, reso disponibili ai Paesi più piccoli strumenti potenti, ma ha anche creato quelle che i ricercatori e gli attivisti per i diritti umani avvertono come opportunità di abuso e repressione. La Casa Bianca ha reso noto l’ordine esecutivo prima del secondo summit per la democrazia che si terrà questa settimana. L’ordine “dimostra la leadership e l’impegno degli Stati Uniti nel promuovere la tecnologia per la democrazia, anche contrastando l’uso improprio di spyware commerciali e altre tecnologie di sorveglianza”, ha dichiarato la Casa Bianca in un comunicato. L’ordine di Biden, presentato come un divieto di utilizzo di spyware commerciali “che pongono rischi per la sicurezza nazionale”, prevede alcune eccezioni. L’ordine richiede al capo di ogni agenzia statunitense che utilizza programmi commerciali di certificare che il programma non rappresenti un rischio significativo per il controspionaggio o altri rischi per la sicurezza, ha dichiarato un alto funzionario dell’amministrazione. Tra i fattori che verranno utilizzati per determinare il livello di rischio per la sicurezza c’è il fatto che un attore straniero abbia utilizzato il programma per monitorare cittadini statunitensi senza autorizzazione legale o per sorvegliare attivisti per i diritti umani e altri dissidenti.

Il progetto di legge sui “Giochi Olimpici” potrebbe ottenere ampio sostegno, ma c’è chi denuncia una componente di sicurezza sproporzionata. Il testo, già adottato a larga maggioranza a fine gennaio in Senato, è stato esaminato la scorsa settimana all’Assemblea Nazionale ed è stato oggetto di un voto formale. L’articolo più controverso, sulla cosiddetta videosorveglianza “intelligente”, apre la strada a un esperimento che combinerebbe immagini riprese da telecamere e droni e algoritmi. L’esperimento riguarderà “eventi sportivi, ricreativi o culturali” su larga scala. Dovrebbe terminare il 31 dicembre 2024, ma potrebbe iniziare non appena la legge sarà promulgata e riguardare, ad esempio, la prossima Coppa del Mondo di rugby a settembre-ottobre. La maggioranza presidenziale e il ministro dell’Interno Gérald Darmanin hanno insistito sulle garanzie e hanno difeso più volte il processo: l’analisi delle immagini per individuare automaticamente atti o gesti potenzialmente rischiosi, e la segnalazione agli agenti dietro un muro di schermi in modo che possano inviare i colleghi a controllare la situazione o a intervenire. Ma l’elenco degli “eventi” e dei comportamenti da rilevare sarà stabilito per decreto. Con grande disappunto dei deputati di Nupes, che si preoccupano di cosa verrà trattenuto, nonostante gli esempi fatti dal ministro: “un principio di incendio, imbottigliamenti della popolazione, un pacco o una borsa abbandonati”. Sebbene l’obiettivo dichiarato sia quello di proteggere i milioni di persone che si prevede parteciperanno ai Giochi Olimpici e Paralimpici del 2024, i deputati dell’opposizione sospettano che l’esecutivo stia cercando di utilizzare l’esperimento come trampolino di lancio per generalizzare questa tecnologia di sorveglianza dopo l’evento. “È un testo sulle Olimpiadi, tutti amano le Olimpiadi, tutti amano lo sport, quindi tutto passa”, sospira al contrario il deputato Ugo Bernalicis, il cui gruppo voterà contro il testo. Promette già di sottoporre la questione al Consiglio costituzionale.

Il principe Harry si è presentato a sorpresa a Londra, dinanzi all’High Court, in occasione dell’inizio di un procedimento giudiziario per intercettazioni telefoniche e privacy che coinvolge l’Associated Newspapers Limited (ANL). È la prima volta che il Duca di Sussex torna nel Regno Unito dopo il funerale della Regina, lo scorso settembre. Il principe fa parte di un gruppo di sette ricorrenti di alto profilo, tra cui il cantante Sir Elton John e suo marito regista David Furnish, le attrici Liz Hurley e Sadie Frost, la baronessa Doreen Lawrence e il politico liberaldemocratico Sir Simon Hughes. Tutti hanno mosso accuse contro l’editore del quotidiano Daily Mail. Sostengono di essere stati vittime di “abominevoli attività criminali” e di “gravi violazioni della privacy” da parte dell’Associated Newspapers – e hanno annunciato a ottobre di voler intentare una causa per abuso di informazioni private contro ANL, che è anche l’editore di The Mail On Sunday e MailOnline. I presunti atti illeciti, che avrebbero avuto luogo dal 1993 al 2011, comprendono l’assunzione di investigatori privati per piazzare segretamente dispositivi di ascolto all’interno di automobili e abitazioni, la registrazione di conversazioni telefoniche private, l’accesso a conti bancari con mezzi illeciti e il pagamento di funzionari di polizia per ottenere informazioni riservate. L’ANL nega le accuse e sostiene che dovrebbero essere archiviate senza processo. Un’udienza preliminare dell’Alta Corte ha preso in considerazione le argomentazioni legali, dopodiché il giudice deciderà se andare avanti.

English version

A new executive order by President Biden will restrict the use of commercial spyware by the US government. These tools have been used so far to surveil a variety of subjects around the world. The order responds to growing concerns about programmes that can capture text messages and other mobile phone data. Some programmes – so-called ‘zero-click’ exploits – can infect a phone without the user clicking on a malicious link. Governments around the world, including the United States, are known to collect large amounts of data for intelligence and law enforcement purposes. The proliferation of commercial spyware has, in fact, made powerful tools available to smaller countries, but it has also created what researchers and human rights activists perceive as opportunities for abuse and repression. The White House released the executive order before the second Democracy Summit this week. The order ‘demonstrates US leadership and commitment to advancing technology for democracy, including by countering the misuse of commercial spyware and other surveillance technologies,’ the White House said in a statement. Biden’s order, billed as a ban on the use of commercial spyware ‘that poses a national security risk’, includes some exceptions. The order requires the head of each US agency that uses commercial programmes to certify that the programme does not pose a significant counterintelligence or other security risk, a senior administration official said. Among the factors that will be used to determine the level of security risk is whether a foreign actor has used the programme to monitor US citizens without legal authorisation or to surveil human rights activists and other dissidents.

The ‘Olympic Games’ bill could gain support, while the opposition denounces a disproportionate security component. The text, already widely adopted at the end of January in first reading in the Senate, was examined last week in the National Assembly and was subject to a formal vote. The most controversial article, on so-called ‘smart’ video surveillance, paves the way for an experiment that would combine images taken by cameras and drones with algorithms. The experiment will cover large-scale ‘sporting, recreational or cultural events’. It should end on 31 December 2024, but could start as soon as the law is enacted and cover, for example, the next Rugby World Cup in September-October. The presidential majority and Interior Minister Gérald Darmanin have insisted on guarantees and have repeatedly defended the process: the analysis of images to automatically detect potentially risky acts or gestures, and the alerting of agents behind a wall of screens so that they can send colleagues to check the situation or intervene. But the list of ‘events’ and behaviour to be detected will be established by decree. Much to the disappointment of the Nupes MPs, who are concerned about what will be detained, despite the examples given by the minister: ‘a fire start, population bottlenecks, an abandoned parcel or bag’. Although the stated aim is to protect the millions of people expected to attend the 2024 Olympic and Paralympic Games, opposition MPs suspect that the executive is trying to use the experiment as a springboard to generalise this surveillance technology after the event. ‘It is a text about the Olympics, everyone loves the Olympics, everyone loves sport, so everything passes,’ sighs MP Ugo Bernalicis, whose group will vote against the text. He already promises to refer the matter to the Constitutional Council.

Prince Harry made a surprise appearance at the High Court in London for the start of a wiretapping and privacy court case involving Associated Newspapers Limited (ANL). This is the first time the Duke of Sussex has returned to the UK since the Queen’s funeral last September. The prince is one of a group of seven high-profile claimants, including singer Sir Elton John and his director husband David Furnish, actresses Liz Hurley and Sadie Frost, Baroness Doreen Lawrence and Liberal Democrat politician Sir Simon Hughes. All have made accusations against the editor of the Daily Mail newspaper. They claim to have been victims of ‘abominable criminal activity’ and ‘serious breaches of privacy’ by Associated Newspapers – and announced in October that they would file a lawsuit for misuse of private information against ANL, which is also the publisher of The Mail On Sunday and MailOnline. The alleged misdeeds, which allegedly took place from 1993 to 2011, include hiring private investigators to secretly plant listening devices inside cars and homes, recording private telephone conversations, accessing bank accounts by illicit means, and paying police officers to obtain confidential information. The ANL denies the charges and argues that they should be dismissed without trial. A preliminary hearing of the High Court considered the legal arguments, after which the judge will decide whether to go ahead.

PRIVACY DAILY 77/2023

Trump e Putin arrestati? Una serie di immagini generate da un’AI si è presa gioco di questi potenti personaggi. Le immagini altamente dettagliate e sensazionali hanno inondato Twitter e altre piattaforme negli ultimi giorni, accompagnando la notizia che Trump deve affrontare possibili accuse penali e che la Corte penale internazionale ha emesso un mandato di arresto per Putin. Ma nessuna ddi esse è reale. Le immagini – e le decine di varianti che disseminano i social media – sono state, infatti, prodotte utilizzando generatori sempre più sofisticati – e ampiamente accessibili – alimentati dall’intelligenza artificiale. Gli esperti avvertono che le immagini sono foriere di una nuova realtà: una marea di foto e video falsi che inonda i social media dopo i principali eventi di cronaca, confondendo ulteriormente fatti e finzioni in momenti cruciali per la società. Sebbene la capacità di manipolare le foto e creare immagini false non sia nuova, gli strumenti di generazione di immagini AI di Midjourney, DALL-E e altri sono più facili da usare. Possono generare rapidamente immagini realistiche – complete di sfondi dettagliati – con poco più di una semplice richiesta di testo da parte degli utenti. Alcune delle immagini più recenti sono state determinate dal rilascio, questo mese, di una nuova versione del modello di sintesi testo-immagine di Midjourney, in grado, tra l’altro, di produrre immagini convincenti che imitano lo stile delle foto delle agenzie di stampa. La pratica è peraltro osteggiata dalle piattaforme di social media. Twitter ha una politica che vieta “media sintetici, manipolati o fuori contesto” con il potenziale di ingannare o danneggiare. Le annotazioni di Community Notes, il progetto di fact checking di Twitter, sono state allegate ad alcuni tweet per includere il contesto in cui le immagini di Trump sono state generate dall’intelligenza artificiale. Meta ha rifiutato di commentare. Alcune delle immagini inventate di Trump sono state etichettate come “false” o “mancanti di contesto” attraverso il programma di fact-checking di terze parti.

La data retention è una questione di vecchia data in Europa. Da sempre i governi hanno cercato di dare alle forze dell’ordine la possibilità di conservare i dati  che potrebbero essere rilevanti per le indagini. Allo stesse tempo, i tribunali nazionali e dell’UE hanno ripetutamente condannato le pratiche sproporzionate di raccolta dei dati. La capacità delle forze di polizia di ottenere e conservare i dati delle comunicazioni elettroniche ha causato lo stallo del Regolamento ePrivacy, una proposta legislativa che un numero crescente di Paesi ritiene non vedrà mai la fine dell’iter legislativo. In questo contesto, i governi europei stanno discutendo l’istituzione di un gruppo di esperti per discutere la conservazione e l’accesso ai dati delle forze dell’ordine. Secondo alcuni documenti trapelati, la data retention avrà un ruolo fondamentale. “Il tema dei dati deve essere affrontato in modo globale e coerente e non deve limitarsi alle questioni di accesso, ma anche di conservazione e sfruttamento”, si legge nel commento della Francia. L’Estonia la mette giù più diretta, affermando che “la conservazione dei dati è alla base dell’intero argomento. In poche parole: se non ci sono dati conservati, non ha senso parlare di accesso ai dati”. Sia la Lituania che la Polonia hanno ribadito questo punto, chiedendo che il gruppo sia copresieduto dalla Commissione e dalla presidenza di turno del Consiglio dei ministri dell’UE. La Francia aggiunge che dovrebbe esserci un monitoraggio regolare da parte del Comitato permanente per la cooperazione operativa in materia di sicurezza interna (COSI), che assicura la cooperazione sulle questioni di sicurezza interna dell’UE, “in collaborazione con il settore della giustizia”. Inoltre, Varsavia vuole anche dei sottogruppi dedicati alla crittografia e alla localizzazione dei dati. In effetti, Parigi ritiene che entrambe le questioni svolgano un ruolo centrale nella lotta alle organizzazioni criminali e alle reti terroristiche. Oltre alla conservazione dei dati, l’altro aspetto più sottolineato dai Paesi dell’UE è la crittografia end-to-end.

La Cina tenta di domare gli algoritmi. L’autorità di regolamentazione del mercato cinese ha pubblicato un aggiornamento delle norme sulla pubblicità online, compresa la supervisione degli algoritmi di raccomandazione utilizzati da app come Douyin (versione cinese di TikTok) che vengono utilizzati per inviare pubblicità a individui mirati. Le misure modificate di gestione della pubblicità su Internet entreranno in vigore il 1° maggio di quest’anno e avranno un impatto su un mercato altamente competitivo e in evoluzione che vale oltre 70 miliardi di dollari. Se da un lato le norme aggiornate si concentrano ancora sulla limitazione degli annunci online a comparsa, dall’altro gettano le basi per il controllo da parte dello Stato dei potenti algoritmi push. Secondo l’aggiornamento, chiunque utilizzi algoritmi di raccomandazione nella pubblicità online “deve registrare le regole per gli algoritmi e i registri pubblicitari”. Gli algoritmi sono l’elemento chiave del successo delle app di social media. Tuttavia, il potenziale abuso del potere degli algoritmi quando si tratta di bambini e adolescenti è fonte di preoccupazione per le autorità cinesi ed è stato invocato anche dai legislatori statunitensi per limitare l’uso o vietare TikTok. Secondo il rapporto, l’anno scorso il fatturato totale del mercato pubblicitario online cinese è sceso del 6,4% a 508,8 miliardi di yuan (74 miliardi di dollari). Con l’intensificarsi della concorrenza, la pubblicità online in Cina è diventata sempre più invasiva e alcune delle nuove disposizioni contenute nella normativa sono dirette a ridurla. La normativa prevede che gli operatori e gli influencer del live-streaming “si assumano le responsabilità e gli obblighi previsti dalla legge” quando si tratta di pubblicità. Le regole impediscono, inoltre, di inserire annunci pubblicitari nei veicoli, nei dispositivi di navigazione e negli elettrodomestici intelligenti senza il consenso dell’utente. Inoltre, si stabilisce che gli editor di annunci “non devono allegare annunci aggiuntivi o link commerciali quando gli utenti inviano e-mail o messaggi istantanei”.

English version

Trump and Putin arrested? A series of AI-generated images mocked these powerful figures. The highly detailed and sensational images have flooded Twitter and other platforms in recent days, accompanying the news that Trump faces possible criminal charges and that the International Criminal Court has issued an arrest warrant for Putin. But none of them are real. The images – and the dozens of variants that litter social media – have, in fact, been produced using increasingly sophisticated – and widely accessible – generators powered by artificial intelligence. Experts warn that the images are harbingers of a new reality: a flood of fake photos and videos flooding social media after major news events, further confusing fact and fiction at crucial moments in society. Although the ability to manipulate photos and create fake images is not new, AI image generation tools from Midjourney, DALL-E and others are easier to use. They can quickly generate realistic images – complete with detailed backgrounds – with little more than a simple text request from users. Some of the most recent images were brought about by the release this month of a new version of Midjourney’s text-image synthesis model, which can, among other things, produce convincing images that mimic the style of news agency photos. The practice is, however, opposed by social media platforms. Twitter has a policy prohibiting ‘synthetic, manipulated or out-of-context media’ with the potential to mislead or harm. Notes from Community Notes, Twitter’s fact-checking project, were attached to some tweets to include the context in which Trump’s images were generated by artificial intelligence. Meta declined to comment. Some of Trump’s fabricated images have been labelled as ‘fake’ or ‘lacking context’ through the third-party fact-checking programme.

Data retention is a long-standing issue in Europe. Governments have always tried to give law enforcement agencies the possibility to retain data that might be relevant for investigations. At the same time, national and EU courts have repeatedly condemned disproportionate data collection practices. The ability of police forces to obtain and retain electronic communication data has caused the stalling of the ePrivacy Regulation, a legislative proposal that an increasing number of countries believe will never see the end of the legislative process. In this context, European governments are discussing the establishment of an expert group to discuss the retention of and access to law enforcement data. According to leaked documents, data retention will play a key role. “The issue of data must be addressed in a comprehensive and coherent manner and must not be limited to issues of access, but also of retention and exploitation,” reads the commentary from France. Estonia puts it more bluntly, stating that ‘data retention underpins the whole topic. Simply put: if there is no data preserved, there is no point in talking about access to data’. Both Lithuania and Poland reiterated this point, calling for the group to be co-chaired by the Commission and the rotating presidency of the EU Council of Ministers. France adds that there should be regular monitoring by the Standing Committee on Operational Cooperation on Internal Security (COSI), which ensures cooperation on EU internal security matters, ‘in cooperation with the justice sector’. In addition, Warsaw also wants subgroups dedicated to encryption and data localisation. Indeed, Paris considers both issues to play a central role in the fight against criminal organisations and terrorist networks. Besides data retention, the other issue most emphasised by EU countries is end-to-end encryption.

China attempts to tame algorithms. China’s market regulator has published an update to the rules on online advertising, including the supervision of recommendation algorithms used by apps such as Douyin (Chinese version of TikTok) that are used to send advertisements to targeted individuals. The revised Internet advertising management measures will take effect on 1 May this year and will impact a highly competitive and evolving market worth more than USD 70 billion. While the updated rules still focus on limiting online pop-up ads, they also lay the groundwork for state control of powerful push algorithms. According to the update, anyone using recommendation algorithms in online advertising ‘must register rules for algorithms and advertising registries’. Algorithms are key to the success of social media apps. However, the potential abuse of the algorithms’ power when it comes to children and teenagers is a source of concern for Chinese authorities and has also been invoked by US lawmakers to restrict their use or ban TikTok. According to the report, last year the total turnover of the Chinese online advertising market fell by 6.4% to 508.8 billion yuan ($74 billion). As competition has intensified, online advertising in China has become increasingly intrusive and some of the new regulations are aimed at reducing it. The regulations require live-streaming operators and influencers to ‘assume the responsibilities and obligations prescribed by law’ when it comes to advertising. The rules also prevent advertisements from being placed in vehicles, navigation devices and smart appliances without the user’s consent. Furthermore, it is stipulated that ad editors ‘must not attach additional ads or commercial links when users send e-mails or instant messages’.