Privacy Daily

Privacy Daily 23/2023

Per imparare a distinguere un semaforo, un algoritmo di deep learning deve passare in rassegna centinaia di migliaia di immagini in cui è segnalata la presenza di semafori finché non è in grado di riconoscerle in autonomia. Ma chi è che etichetta in primo luogo le immagini utilizzate per l’addestramento, indicando quali figure – semafori, gatti, persone, ponti e quant’altro – sono presenti al loro interno? Benvenuti nel mondo dei data labeler, gli etichettatori di dati: lavoratori umani al livello base della progettazione di software di deep learning e che operano all’interno di quelli che spesso vengono definiti gli “scantinati dell’intelligenza artificiale”. Scantinati che possono avere l’aspetto di fabbriche specializzate nell’etichettatura dei dati (spesso situate in nazioni in via di sviluppo), ma anche essere piattaforme che assoldano lavoratori da remoto o per cui, inconsapevolmente, lavoriamo gratuitamente anche noi (com’è il caso dei Captcha Code). Il ruolo di questi operai del deep learning non è solo di addestrare le intelligenze artificiali a distinguere determinati elementi di ogni tipo, ma anche di insegnare loro quali forme di linguaggio, immagini e situazioni vanno a tutti i costi evitate.

L’ufficio del Commissario per le informazioni del Regno Unito ha pubblicato un avviso con il quale chiede alle aziende di adeguare la privacy al loro sviluppo tecnologico. La posizione dell’ICO si riflette nel “Tech Horizons Report”, il report che descrive gli sviluppi tecnologici dell’immediato futuro che avranno un impatto sulla società. Il rapporto sottolinea che le aziende devono considerare la trasparenza, il controllo che le persone hanno sui loro dati e la quantità di dati raccolti per garantire che i loro servizi siano conformi a principi privacy. Il direttore della tecnologia, dell’innovazione e dell’impresa dell’ICO, Stephen Almond, ha dichiarato: “In qualità di regolatore, parte del nostro ruolo consiste nel promuovere la fiducia nel modo in cui le organizzazioni elaborano le informazioni personali, sostenendo al contempo la crescita e l’innovazione. Stanno emergendo nuove tecnologie che potrebbero rendere le nostre vite più facili, più sicure, più confortevoli, efficienti e divertenti, ma affinché abbiano successo, dobbiamo consentire alle persone di condividere in sicurezza le proprie informazioni ora e in futuro”.

L’autorità per la protezione dei dati della Repubblica ceca, Úřad pro ochranu osobních údajů, ha pubblicato il suo piano d’azione per il 2023. La DPA ha affermato che si concentrerà sul “trattamento dei dati personali quando si utilizzano i social network, nei sistemi di telecamere su larga scala e negli ufficiali giudiziari.” Verificherà inoltre alcuni sistemi informativi della polizia e si concentrerà sul settore del telemarketing con la collaborazione dell’Ufficio delle telecomunicazioni ceco.

English Translation

To learn how to distinguish a traffic light, a deep learning algorithm has to go through hundreds of thousands of traffic light images until it can recognise them on its own. But who is it that labels the images used for training in the first place, indicating which figures – traffic lights, cats, people, bridges and so on – are present in them? Welcome to the world of data labellers: human workers at the base level of deep learning software design and operating within what are often referred to as the ‘basements of artificial intelligence’. Basements that can look like factories specialising in data labelling (often located in developing nations), but also be platforms that hire workers remotely or for which we unwittingly work for free ourselves (as is the case with Captcha Code). The role of these deep learning workers is not only to train artificial intelligences to distinguish certain elements of all kinds, but also to teach them which forms of language, images and situations should be avoided at all costs.

The UK Information Commissioner’s Office has issued a notice asking companies to adapt privacy to their technological development. The ICO’s position is reflected in the ‘Tech Horizons Report’, the report describing technological developments in the near future that will impact society. The report emphasised that companies need to consider transparency, the control people have over their data, and the amount of data collected to ensure their services comply with privacy principles. The ICO’s director of technology, innovation and enterprise, Stephen Almond, said: ‘As a regulator, part of our role is to promote trust in the way organisations process personal information, while supporting growth and innovation. New technologies are emerging that could make our lives easier, safer, more comfortable, efficient and enjoyable, but for them to succeed, we need to enable people to safely share their information now and in the future.

The Czech Republic’s data protection authority, Úřad pro ochranu osobních údajů, published its action plan for 2023. The DPA said it will focus on “the processing of personal data when using social networks, in large-scale camera systems and in judicial officers.” It will also audit some police information systems and focus on the telemarketing sector with the cooperation of the Czech Telecommunications Office.