Salta al contenuto

Silenzio, entra la Corte (ma è quella di Facebook)

Silenzio entra la corte.

Ieri il Comitato creato da Facebook per la revisione delle proprie decisioni sulla rimozione di contenuti pubblicati dagli utenti ha iniziato a lavorare ai primi sei casi.

Tre casi, più o meno ricorrenti, di contenuti rimossi perché pubblicati in violazione dei termini d’uso di Facebook in fatto di hate speech, un caso relativo a una violazione della policy sulla pubblicazione di immagini di nudo, un caso di disinformazione a proposito di terapie anti-covid e un ultimo caso relativo a un contenuto rimosso perché ritenuto di propaganda nazista.

Sono queste le prime cause delle quali la corte d’appello speciale e, tutta privata, voluta da Facebook ha scelto di occuparsi nelle prossime settimane tra gli oltre 20 mila casi che utenti e piattaforma le hanno sottoposto.

A guidare la selezione, stando a quanto chiarito dallo stesso Comitato, la volontà che le decisioni riguardino il più ampio spettro possibile di utenti eventualmente anche in maniera indiretta ovvero fissando principi che possano, in futuro, guidare la moderazione gestita da Facebook nella rimozione dei contenuti.

Per ora, da ieri all’8 dicembre chiunque potrà inviare la propria opinione al Comitato che si impegna a esaminare le posizioni di tutti prima di decidere.

Poi, una volta assunta la decisione finale, Facebook avrà novanta giorni per adeguarsi.

Guai a negare lo sforzo importante di Facebook per affrontare un problema che diventa, ogni giorno, più rilevante con decine di milioni di contenuti, ogni anno, in ogni parte del mondo, rimossi dalla piattaforma e condannati all’oblio semplicemente perché segnalati come in contrasto con una delle regole contrattuali che governano il funzionamento del social network magari da un algoritmo e, quindi, rimossi sulla base della decisione di un moderatore.

E guai anche a notare che il meccanismo di funzionamento del Comitato così come le garanzie di indipendenza – sino alla creazione di un trust capace di garantirgli autonomia finanziaria – che lo assistono sono importanti, studiate nei dettagli, non comuni.

I dubbi che si tratti della strada giusta, però, restano.

Il comitato, in sostanza, amministra giustizia in materia di diritti fondamentali perché questo fa quando decide se la libertà di parola di qualcuno debba prevalere o soccombere davanti al rischio che un contenuto pubblicato online violi altri diritti e interessi della collettività.

Ed è difficile respingere il dubbio che un’attività tanto delicata relativa a quello che è, ormai, diventato un canale fondamentale dell’infrastruttura globale di comunicazione possa, davvero, essere affidata a un arbitro tutto quanto privato per quanto autorevole nelle sue componenti, moderno nei suoi meccanismi di funzionamento e indipendente dal gestore della piattaforma.

Compiti e missioni di questo genere, in democrazia, dovrebbero essere appannaggio esclusivo di Giudici e Autorità e, al limite, i giganti della tecnologia dovrebbero fornire a questi ultimi risorse tecnologiche e, ove necessario, economiche per amministrare giustizia.

Peraltro, mentre, probabilmente è vero che non c’è Giudice e Autorità al mondo che, allo stato, sia in grado di decidere sulle milioni di richieste di rimozione che Facebook riceve ogni giorno, non sarebbe così complicato immaginare uno o più soggetti pubblici che, richiesti da Facebook e/o dagli utenti decidano una selezione quantitativamente contenuta come farà il comitato in questione e fissino principi che Facebook potrebbe e, anzi, dovrebbe impegnarsi a rispettare.

Troppo presto per esprimere giudizi definitivi sull’idea di Zuckerberg ma, per ora, il dubbio resta.