Privacy Daily

PRIVACYDAILY

N. 140/2023

LE TRE NEWS DI OGGI:

  • UK, APPLE CONTRO LA PROPOSTA DI LEGGE CHE AUMENTA LA SORVEGLIANZA
  • PROPOSTA AI, C’E’ CHI NE ESALTA I PREGI E CHI NE EVIDENZIA I DIFETTI
  •  SVIZZERA, LA CONFEDERAZIONE RICHIEDE PIU’ SICUREZZA AI PROPRI FORNITORI DI SERVIZI IT 

Apple ha dichiarato che eliminerà servizi come FaceTime e iMessage nel Regno Unito, piuttosto che diminuire la sicurezza, nel caso in cui le nuove proposte vengano rese legge e vengano attuate.Il governo sta cercando di aggiornare l’Investigatory Powers Act (IPA) del 2016.Vuole che i servizi di messaggistica mettano in chiaro le caratteristiche di sicurezza con il Ministero dell’Interno prima di fornirle ai clienti.La legge consente al Ministero dell’Interno di richiedere la disattivazione delle funzioni di sicurezza, senza informare il pubblico. In base all’aggiornamento, questo dovrebbe essere immediato.Attualmente è necessaria una verifica, può esserci anche un processo di supervisione indipendente e un’azienda tecnologica può fare appello prima di intraprendere qualsiasi azione.A causa della segretezza che circonda queste richieste, si sa poco di quante ne siano state emesse e se siano state rispettate. WhatsApp e Signal sono tra le piattaforme che si sono opposte a una clausola del disegno di legge sulla sicurezza online che consente all’autorità di regolamentazione delle comunicazioni di richiedere alle aziende di installare una tecnologia per la scansione di materiale pedopornografico nelle app di messaggistica criptate e in altri servizi. Le piattaforme non si adegueranno, hanno dichiarato, e Signal ha minacciato di “andarsene” dal Regno Unito.Anche Apple si è opposta al piano.Il governo ha aperto una consultazione di otto settimane sulle modifiche proposte all’IPA, che già consente la conservazione dei dati di navigazione in Internet per 12 mesi e autorizza la raccolta massiva di dati personali.Secondo il governo, “non si tratta di creare nuovi poteri”, ma di rendere la legge più adeguata alla tecnologia attuale.Apple si è sempre opposta alla legge, inizialmente ribattezzata “carta dei ficcanaso” dai critici. La sua risposta all’attuale consultazione è lunga nove pagine e si oppone: l’obbligo di comunicare al Ministero dell’Interno qualsiasi modifica alle caratteristiche di sicurezza dei prodotti prima del loro rilascio; l’’obbligo per le aziende non britanniche di conformarsi alle modifiche che interesserebbero i loro prodotti a livello globale, come ad esempio la fornitura di una backdoor per la crittografia end-to-end ; l’obbligo di agire immediatamente in caso di avviso di disabilitazione o blocco di una funzionalità da parte dell’Home Office, anziché attendere che la richiesta sia stata esaminata o impugnata. Apple afferma che: non apporterà modifiche alle funzioni di sicurezza specificamente per un paese che indebolirebbero un prodotto per tutti gli utenti; alcune modifiche richiederebbero l’emissione di un aggiornamento del software e quindi non potrebbero essere apportate in segreto; le proposte “costituiscono una minaccia seria e diretta alla sicurezza dei dati e alla privacy delle informazioni” che interesserebbe persone al di fuori del Regno Unito.Il Prof. Alan Woodward, esperto di sicurezza informatica dell’Università del Surrey, ha dichiarato che è improbabile che le aziende tecnologiche accettino le proposte.”C’è un certo grado di arroganza e ignoranza da parte del governo se crede che le aziende tecnologiche più grandi si conformeranno ai nuovi requisiti senza una grande battaglia”, ha aggiunto.

Le autorità di regolamentazione di tutto il mondo non mancano di preoccuparsi della crescita dell‘intelligenza artificiale.Devono intervenire sugli algoritmi che potrebbero influenzare o falsare le decisioni che riguardano la vita quotidiana di miliardi di persone? Che dire del rischio che i chatbot, come ChatGPT, incrementino la produzione di disinformazione online o conducano all’uso improprio di grandi quantità di dati personali? E cosa dovrebbero fare di fronte all’allarme che i computer potrebbero presto raggiungere un livello di intelligenza tale da sfuggire al controllo dei loro creatori, con conseguenze potenzialmente disastrose per l’umanità?La tecnologia si muove così velocemente – e i rischi potenziali sono, in alcuni casi, così poco conosciuti – che c’è ancora poco accordo su un programma di regolamentazione.L’Unione Europea era sulla buona strada per completare una legge sull’IA, la prima nel suo genere, che avrebbe limitato, o addirittura vietato, i sistemi di IA presumibilmente “ad alto rischio”, come quelli utilizzati per prendere decisioni su domande di lavoro, prestiti o trattamenti sanitari. Poi è esplosa la ChatGPT mania, ovvero l’enorme interesse del pubblico per il chatbot di intelligenza artificiale generativa di OpenAI, accessibile liberamente. I legislatori hanno rapidamente modificato i loro piani per includere i cosiddetti modelli di base, come il grande modello linguistico che sta alla base di ChatGPT.Le norme dell’UE obbligherebbero le aziende a rivelare su quali dati sono stati addestrati questi modelli e potrebbero renderle responsabili di un uso improprio della tecnologia, anche quando non controllano le applicazioni finali. Tuttavia, Patrick Van Eecke, co-presidente della divisione globale dello studio legale Cooley che si occupa di cyber, dati e privacy, ritiene che Bruxelles si sia mossa troppo presto per cercare di regolamentare una tecnologia che è ancora “un bersaglio mobile”, riflettendo un pregiudizio culturale nei confronti di una regolamentazione affrettata. “Ci piace regolamentare la realtà prima ancora che diventi realtà”, afferma, facendo eco a un’opinione ampiamente diffusa nel mondo dell’intelligenza artificiale. Molti dirigenti tecnologici statunitensi hanno però una spiegazione diversa. La considerano una deliberata mossa protezionistica dell’UE, che impone limitazioni a un gruppo di aziende prevalentemente americane che dominano il settore dell’intelligenza artificiale.

A seguito dell’attacco informatico a Xplain, la Confederazione svizzera chiede garanzie di sicurezza ai suoi fornitori di servizi informatici. “La vostra azienda deve essere sempre in grado di garantire la riservatezza, l’integrità e l’accesso ai sistemi e ai dati, nonché la trasparenza nel trattamento dei dati”, si legge nella lettera dell’Ufficio federale delle costruzioni e della logistica (UFCL).Le aziende informatiche che non sono in grado di soddisfare pienamente i requisiti concreti di sicurezza descritti o che individuano delle lacune, devono contattare il proprio partner contrattuale all’interno della Confederazione e il Centro nazionale per la sicurezza informatica. L’obiettivo principale di questo approccio è la sensibilizzazione”, spiega l’OFCL.A maggio, gli hacker hanno attaccato il fornitore di servizi informatici Xplain con un ransomware e hanno rubato grandi quantità di dati dell’Amministrazione federale. L’azienda ha rifiutato di essere ricattata e gli hacker hanno pubblicato i dati sulla darknet. Alla fine di giugno, il Consiglio federale ha deciso di rivedere sistematicamente tutti i contratti dell’Amministrazione federale con i fornitori di servizi informatici. Ha inoltre istituito un team di crisi per coordinare i lavori in corso sull’attacco informatico e formulare proposte sulle misure da adottare.Il governo sta inoltre avviando un’indagine amministrativa da parte del Dipartimento federale delle finanze. Lo scopo di questa indagine è quello di verificare in modo indipendente se, dove e perché le linee guida della Confederazione in materia di sicurezza possano essere state applicate in modo errato. In particolare, si tratta di capire come un fornitore privato di servizi informatici abbia potuto accedere a dati sensibili.Anche la Procura federale ha avviato un procedimento. Il Commissario federale per la protezione dei dati ha aperto un’indagine contro l’Ufficio federale di polizia (fedpol) e l’Ufficio federale delle dogane, oltre che contro la stessa Xplain.

English version

  • UK, APPLE AGAINST PROPOSED LAW INCREASING SURVEILLANCE
  • AI PROPOSAL, THERE ARE THOSE WHO EXALT ITS MERITS AND THOSE WHO HIGHLIGHT ITS DEFECTS
  • SWITZERLAND, CONFEDERATION DEMANDS MORE SECURITY FROM IT SERVICE PROVIDERS

Apple says it will remove services such as FaceTime and iMessage from the UK rather than weaken security if new proposals are made law and acted upon.The government is seeking to update the Investigatory Powers Act (IPA) 2016.It wants messaging services to clear security features with the Home Office before releasing them to customers.The act lets the Home Office demand security features are disabled, without telling the public. Under the update, this would have to be immediate.Currently, there has to be a review, there can also be an independent oversight process and a technology company can appeal before taking any action.Because of the secrecy surrounding these demands, little is known about how many have been issued and whether they have been complied with.But many messaging services currently offer end-to-end encryption – so messages can be unscrambled by only the devices sending and receiving them.WhatsApp and Signal are among the platforms to have opposed a clause in the Online Safety Bill allowing the communications regulator to require companies to install technology to scan for child-abuse material in encrypted messaging apps and other services.They will not comply with it, they say, with Signal threatening to “walk” from the UK. Apple has also opposed the plan. The government has opened an eight-week consultation on the proposed amendments to the IPA., which already enables the storage of internet browsing records for 12 months and authorises the bulk collection of personal data. They are “not about the creation of new powers” but making the act more relevant to current technology, it says. Apple has consistently opposed the act, originally dubbed a “snooper’s charter” by critics. Its submission to the current consultation is nine pages long, opposing:having to tell the Home Office of any changes to product security features before they are released; the requirement for non-UK-based companies to comply with changes that would affect their product globally – such as providing a backdoor to end-to-end encryption; having to take action immediately if a notice to disable or block a feature is received from the Home Office, rather than waiting until after the demand has been reviewed or appealed against. Apple says: It would not make changes to security features specifically for one country that would weaken a product for all users; Some changes would require issuing a software update so could not be made secretly; The proposals “constitute a serious and direct threat to data security and information privacy” that would affect people outside the UK. Cyber-security expert Prof Alan Woodward, from Surrey University, said technology companies were unlikely to accept the proposals.”There is a degree of arrogance and ignorance from the government if they believe some of the larger tech companies will comply with the new requirements without a major fight,” he added.

Regulators around the world have found no shortage of issues to worry about with the rise of artificial intelligence.Should they intervene in algorithms that could bias or distort decisions that affect the everyday lives of billions? What about the risk that chatbots, such as ChatGPT, will supercharge the production of online misinformation, or lead to the misuse of vast amounts of personal data? And what should they do about warnings that computers could soon reach such a level of intelligence that they escape the control of their makers — with potentially dire consequences for humanity?The technology is moving so fast — and the potential risks are, in some cases, so poorly understood — that there is little agreement yet on a regulatory agenda.The European Union was well on its way to finalising a first-of-its-kind AI Act that would have controlled, or even banned, supposedly “high-risk” AI systems — such as those used to make decisions on job or loan applications or health treatments. Then ChatGPT mania exploded — the huge public interest in OpenAI’s freely-available generative AI chatbot.Please use the sharing tools found via the share button at the top or side of articles. Lawmakers quickly adjusted their plans to include so-called foundation models, such as the large language model that sits behind ChatGPT.The EU rules would force companies to disclose what data these models have been trained on, and could make them liable for misuse of the technology, even when they do not control the ultimate applications.Please use the sharing tools found via the share button at the top or side of articles. However, Patrick Van Eecke, co-chair of law firm Cooley’s global cyber, data and privacy practice, believes Brussels has moved too soon to try to regulate a technology that is still “a moving target,” reflecting a cultural bias towards knee-jerk regulation. “We like to regulate reality even before it becomes reality,” he says — echoing a view widely held in the AI world.Please use the sharing tools found via the share button at the top or side of articles. Many US tech executives have a different explanation, though. They see it as a deliberate protectionist move by the EU, slapping limitations on a group of mainly American companies that dominate the AI industry.

In the wake of the cyber-attack on Xplain, the Swiss Confederation is demanding security guarantees from its IT service providers. A letter to this effect has been sent to 2871 firms.”Your company must at all times be able to ensure the confidentiality, integrity and access to systems and data, as well as transparency in data processing”, reads the letter from the Federal Office for Buildings and Logistics (BBL).IT companies that are unable to fully comply with the concrete security requirements described, or that identify loopholes, should contact their contractual partner within the Confederation, as well as the National Center for Cybersecurity. The primary aim of this approach is to raise awareness,” explains OFCL.In May, hackers attacked IT service provider Xplain with ransomware and stole large quantities of federal administration data stored there. The company refused to be blackmailed and the hackers published the data on the darknet. At the end of June, the Federal Council decided to systematically review all the federal administration’s contracts with IT service providers. It has also set up a crisis team to coordinate ongoing work on the cyber attack and to formulate proposals for measures to be taken.The government is also commissioning an administrative investigation by the Federal Department of Finance. The purpose of this investigation is to independently examine whether, where and why the Confederation’s security guidelines may have been misapplied. In particular, the question is how a private IT supplier was able to gain access to sensitive data.The Federal Prosecutor’s Office has also initiated proceedings. The Federal Data Protection Commissioner has opened an investigation against the Federal Office of Police (fedpol) and the Federal Customs Office, as well as Xplain itself.