Le iniziative delle altre Autorità

Le iniziative delle altre Autorità

Il piano d’azione della CNIL per l’Intelligenza artificiale

La CNIL ha pubblicato un piano d’azione per proteggere la privacy nell’ambito dei sistemi di intelligenza artificiale (IA), in particolare dell’IA generativa come ChatGPT.
Il piano si concentra su quattro punti chiave:
– Comprendere il funzionamento dei sistemi di IA e il loro impatto sulle persone.
– Consentire e supervisionare lo sviluppo dell’IA nel rispetto del diritto alla protezione dei dati personali.
– Federare e sostenere gli “attori innovativi” dell’ecosistema dell’IA in Francia e in Europa.
– Verificare e controllare i sistemi di IA e proteggere le persone
Con riguardo al primo profilo, la CNIL intende comprendere il funzionamento e l’impatto dei sistemi di IA sulle persone. In particolare, si propone di approfondire temi come la “lealtà” e la trasparenza nel trattamento dei dati, la protezione dei dati pubblici e degli utenti, l’impatto sui diritti delle persone, la prevenzione dei bias e delle discriminazioni, nonché le sfide sul fronte della sicurezza. Questi aspetti saranno le priorità del lavoro del Servizio di Intelligenza Artificiale e del Laboratorio di Innovazione Digitale (LINC) della CNIL.
In secondo luogo, la CNIL pianifica di supervisionare lo sviluppo di sistemi di IA rispettosi della privacy. Molti operatori hanno, infatti, segnalato alla CNIL le incertezze relative all’applicazione del GDPR all’IA, soprattutto per quanto riguarda i profili legati al training dell’IA generativa. La CNIL sta quindi lavorando per supportare gli operatori del settore e prepararsi all’entrata in vigore del regolamento europeo sull’IA. A tal riguardo, sono già state pubblicate delle schede informative nel 2022, comprendenti contenuti educativi e una guida. La CNIL pubblicherà presto una guida sulle regole per la condivisione e il riutilizzo dei dati, incluso il riutilizzo dei dati pubblicamente accessibili per l’addestramento di modelli di IA. L’Autorità continuerà, inoltre, a lavorare sulla progettazione di sistemi di IA e sulla creazione di database per l’apprendimento automatico, con l’obiettivo di fornire raccomandazioni concrete. Verranno affrontate questioni come la ricerca scientifica per la creazione di database, l’applicazione del principio di finalità all’IA generativa, la divisione delle responsabilità, le regole per la selezione dei dati, la gestione dei diritti delle persone e le regole per la conservazione dei dati.
Rispetto al terzo punto invece la CNIL si sta attivando per regolamentare l’IA al fine di sostenere gli attori del settore, promuovendo i valori di tutela dei diritti e delle libertà fondamentali. Questa attività di supporto si manifesta attraverso tre iniziative: 1) lo sviluppo di una “sandbox”, avviato ormai due anni fa per sostenere progetti e attori innovativi nel campo dell’IA, offrendo consulenza su misura (dopo le sandbox specifiche per la salute del 2021 e per l’istruzione del 2022, verrà presto lanciata un’edizione del 2023, focalizzata sull’uso dell’IA nel settore pubblico); 2) un programma di sostegno specifico per i fornitori di videosorveglianza “aumentata” nell’ambito delle sperimentazioni previste per i Giochi Olimpici e Paralimpici del 2024; 3) un programma di “sostegno rafforzato” per aiutare le imprese innovative a conformarsi al GDPR, con un focus sulle imprese innovative nel campo dell’IA. In generale, la CNIL desidera stabilire un dialogo costante con gruppi di ricerca, centri di R&S e aziende francesi che sviluppano o desiderano sviluppare sistemi di IA al fine di garantire la conformità alle norme sulla protezione dei dati personali e a tal fine ha messo a disposizione uno specifico indirizzo (ia@cnil.fr) al quale essere contattata al riguardo –.
Con riferimento al quarto e ultimo punto, la CNIL è impegnata nella definizione di un quadro regolamentare per lo sviluppo dei sistemi di intelligenza artificiale che rispetti i diritti e le libertà individuali. A tal fine, progetta di svolgere attività di controllo per verificare la conformità dei sistemi di intelligenza artificiale, sia prima che dopo il loro utilizzo. Nel 2023, i controlli si concentreranno sull’uso della videosorveglianza “aumentata” da parte di attori pubblici e privati, sull’utilizzo dell’IA nella lotta contro le frodi e sulle istruttorie relative ai reclami presentati alla CNIL. Una particolare attenzione verrà dedicata agli attori che trattano dati personali per sviluppare o utilizzare l’IA affinché svolgano valutazioni d’impatto sulla protezione dei dati, informino le persone interessate e mettano in atto misure per garantire l’esercizio dei diritti delle persone.
L’obiettivo finale è stabilire regole chiare che proteggano i dati personali dei cittadini europei e promuovano lo sviluppo di sistemi di intelligenza artificiale rispettosi della privacy.