Privacy Daily

PRIVACY DAILY 81/2023

L’Unione Europea limiterà la circolazione di annunci politici basati sulle caratteristiche personali e sulla sensibilità delle persone. Così, secondo quanto affermato da Human Rights Watch. Il Parlamento, la Commissione e il Consiglio starebbero negoziando una proposta di regolamento che porrebbe dei limiti alla pubblicità politica invasiva della privacy e richiederebbe anche una maggiore trasparenza nella messaggistica politica a pagamento sulle piattaforme digitali e su altri media. Ma, secondo una prima ricostruzione di Human Rights Watch, il regolamento non si spingerebbe abbastanza in là con le sue salvaguardie e rischia di provocare danni collaterali se applicato in modo troppo ampio ai gruppi della società civile e ai giornalisti che partecipano al discorso politico online. “Gli annunci politici mirati online possono minacciare la privacy e compromettere l’integrità dei processi politici”, ha dichiarato Frederike Kaltheuner, direttore per la tecnologia e i diritti umani di Human Rights Watch. I rischi associati alla pubblicità politica a pagamento sono ben documentati. Creando un ecosistema di messaggistica mirata, le piattaforme consentono agli attori politici di confezionare messaggi fuorvianti o discriminatori in base alle caratteristiche personali più intime delle persone. Le piattaforme si affidano anche a sistemi algoritmici per prendere decisioni sulla destinazione dei contenuti promossi e sulla diffusione di un messaggio politico a pagamento. Non è sempre chiaro come questi sistemi algoritmici selezionino il pubblico target per le pubblicità e la diffusione può essere indirettamente intrusiva o discriminatoria. Un’industria di influencer online, società di gestione della reputazione e broker di dati politici commercializza anche servizi di profilazione degli elettori per trarre vantaggio dall’ambiente della messaggistica online. I legami tra questa industria e i partiti politici sono spesso invisibili, oscurando ulteriormente le fonti della messaggistica politica in un’atmosfera in cui troppo spesso prevale la messaggistica odiosa, disinformata o polarizzante.

ll governo del Regno Unito ha pubblicato un libro bianco che delinea i suoi piani per regolamentare l’intelligenza artificiale di uso generale. Il documento, pubblicato dal nuovo Dipartimento per la Scienza, l’Innovazione e la Tecnologia (DSIT), stabilisce le linee guida per quello che chiama “uso responsabile” e delinea cinque principi che vuole che le aziende seguano. Rispettivamente: sicurezza, sicurezza e robustezza; trasparenza e spiegabilità; equità; responsabilità e governance; e contestabilità e riparazione. Tuttavia, al fine di “evitare una legislazione che potrebbe limitare l’innovazione”, il governo ha scelto di non dare la responsabilità della governance dell’IA a un nuovo regolatore unico, chiedendo invece ai regolatori esistenti di escogitare dei piani ad hoc a seconda del proprio campo di competenza. Con il rapido sviluppo dell’IA, sono stati sollevati interrogativi sui rischi futuri che potrebbe comportare per la privacy, i diritti umani e la sicurezza delle persone. Si teme che l’IA possa mostrare pregiudizi nei confronti di particolari gruppi se addestrata su grandi insiemi di dati raccolti da Internet, che possono includere materiale razzista, sessista o di altro tipo. L’IA potrebbe anche essere usata per creare e diffondere disinformazione. Di conseguenza, molti esperti sostengono che l’IA debba essere regolamentata. Tuttavia, i sostenitori dell’IA affermano che la tecnologia sta già producendo reali benefici sociali ed economici per le persone. Il governo teme che le organizzazioni possano essere ostacolate nell’utilizzo dell’IA in tutto il suo potenziale perché un mosaico di regimi legali potrebbe creare confusione nelle aziende che cercano di rispettare le regole. Invece di affidare la responsabilità della governance dell’IA a un nuovo regolatore unico, il governo vuole che i regolatori esistenti – come l’Health and Safety Executive, la Commissione per l’uguaglianza e i diritti umani e l’Autorità per la concorrenza e i mercati – elaborino approcci propri che si adattino al modo in cui l’IA viene effettivamente utilizzata nei loro settori. Questi regolatori utilizzeranno le leggi esistenti piuttosto che ricevere nuovi poteri.

La Corte Suprema degli Stati Uniti deve pronunciarsi sul bilanciamento tra privacy e potere dell’Internal Revenue Service di richiedere i dati dei conti correnti bancari senza mai avvisare i titolari dei conti. La questione per la Corte è se l’Internal Revenue Service debba informare i titolari dei conti bancari di aver richiesto tali documenti quando cerca di riscuotere le tasse di un soggetto che non sia titolare del conto. I gruppi per i diritti dei contribuenti hanno esortato i giudici a limitare le prerogative dell’agenzia, mentre l’IRS ha affermato che sta usando un potere concesso dal Congresso. In particolare, si teme che il passo successivo dell’agenzia sarebbe quello di escutere il conto per riscuotere le passività. “È devastante il potere che ha il governo di prendere prima il denaro e poi fare domande”, ha detto Frank Agostino, ex avvocato dell’IRS. A quel punto, “il governo ha i vostri soldi e voi dovete intentare una causa per prelievo illecito dicendo: hanno preso i miei soldi, non quelli del contribuente moroso”. La legge dice che il governo non è tenuto a dare un preavviso se il suo obiettivo è quello di contribuire alla riscossione di un accertamento fiscale “contro la persona in relazione alla quale è stata emessa la citazione”. Le corti d’appello federali sono state divise su come interpretare questa eccezione all’obbligo di notifica. Secondo l’IRS, l’eccezione si applica anche quando i documenti richiesti non appartengono al contribuente debitore. I titolari dei conti nel caso in questione – la moglie del contribuente che deve far fronte ai debiti e due studi legali – sostengono che l’eccezione si applica solo quando il contribuente moroso ha un interesse legale nel conto bancario in questione.

English version

The European Union will restrict the circulation of political advertisements based on people’s personal characteristics and sensitivities. According to Human Rights Watch. The Parliament, Commission, and Council are reportedly negotiating a proposed regulation that would place limits on privacy-invasive political advertising and also require greater transparency in paid political messaging on digital platforms and other media. But, according to an initial reconstruction by Human Rights Watch, the regulation would not go far enough with its safeguards and risks causing collateral damage if applied too broadly to civil society groups and journalists participating in online political discourse. “Targeted political ads online can threaten privacy and compromise the integrity of political processes,” said Frederike Kaltheuner, director for technology and human rights at Human Rights Watch. The risks associated with paid political advertising are well documented. By creating a targeted messaging ecosystem, platforms enable political actors to package misleading or discriminatory messages based on people’s most intimate personal characteristics. The platforms also rely on algorithmic systems to make decisions on the targeting of promoted content and the dissemination of a paid political message. It is not always clear how these algorithmic systems select the target audience for advertisements and the dissemination may be indirectly intrusive or discriminatory. An industry of online influencers, reputation management companies and political data brokers also market voter profiling services to take advantage of the online messaging environment. The links between this industry and political parties are often invisible, further obscuring the sources of political messaging in an atmosphere where hateful, uninformed or polarising messaging too often prevails.

The UK government has published a white paper outlining its plans to regulate general-purpose artificial intelligence. The document, published by the new Department for Science, Innovation and Technology (DSIT), sets out guidelines for what it calls ‘responsible use’ and outlines five principles it wants companies to follow. Respectively: safety, security and robustness; transparency and explainability; fairness; accountability and governance; and contestability and redress. However, in order to ‘avoid legislation that could limit innovation’, the government has chosen not to give responsibility for AI governance to a new single regulator, instead asking existing regulators to devise ad hoc plans according to their field of expertise. With the rapid development of AI, questions have been raised about the future risks it might pose to privacy, human rights and people’s security. There are fears that AI could show bias against particular groups if trained on large datasets collected from the Internet, which may include racist, sexist or other material. AI could also be used to create and spread disinformation. Consequently, many experts argue that AI should be regulated. However, AI advocates claim that the technology is already producing real social and economic benefits for people. The government fears that organisations may be hindered from using AI to its full potential because a patchwork of legal regimes could be confusing for companies trying to comply with the rules. Rather than handing responsibility for AI governance over to a new single regulator, the government wants existing regulators – such as the Health and Safety Executive, the Equality and Human Rights Commission and the Competition and Markets Authority – to develop their own approaches that fit the way AI is actually used in their sectors. These regulators will use existing laws rather than receive new powers.

The US Supreme Court must rule on the balance between privacy and the Internal Revenue Service’s power to request bank account information without ever notifying account holders. The issue for the Court is whether the Internal Revenue Service must inform account holders that it has requested such records when it seeks to collect taxes from a non-account holder. Taxpayers’ rights groups have urged the courts to limit the agency’s prerogatives, while the IRS has argued that it is using a power granted by Congress. In particular, it is feared that the agency’s next step would be to excise the account to collect on the liabilities. “It is devastating the power the government has to first take the money and then ask questions,” said Frank Agostino, a former IRS lawyer. At that point, “the government has your money and you have to file a wrongful levy suit saying, they took my money, not the delinquent taxpayer’s money.” The law says that the government is not required to give notice if its purpose is to help collect a tax assessment ‘against the person in respect of whom the summons was issued’. Federal appellate courts have been divided on how to interpret this exception to the notice requirement. According to the IRS, the exception applies even when the requested documents do not belong to the debtor taxpayer. The account holders in the case – the debtor taxpayer’s wife and two law firms – argue that the exception only applies when the delinquent taxpayer has a legal interest in the bank account in question.