La pubblicazione delle linee guida per i moderatori del social network da parte del Guardian riaccende il dibattito su come l'azienda fondata da Zuckerberg gestisce e censura quello che viene postato dagli utenti. E proprio questi ultimi devono essere messi a conoscenza di come funziona esattamente il processo

Il vero scandalo nelle linee guida sulla moderazione dei contenuti su Facebook ottenute e pubblicate dal Guardian è che sia stato il Guardian a doverle pubblicare. Non che Facebook prenda delle posizioni morali su come trattare violenze e abusi sulla sua piattaforma - il dettaglio con cui lo fa, piuttosto, testimonia che si tratta di questioni che la piattaforma considera attentamente - ma che gli utenti e il mondo debbano apprenderlo da documenti trafugati a giornalisti, e non divulgati spontaneamente dall’azienda.

È lo stesso dibattito da anni: è giusto sia il social network di Mark Zuckerberg, che gestisce le vite pubbliche e private di due miliardi di persone nel globo, a decidere a suo totale arbitrio quali contenuti debbano restare sulla piattaforma e quali no? E soprattutto, è lecito lo scarsissimo grado di trasparenza sui metodi, i criteri con cui quelle decisioni vengono prese, e i processi attraverso cui Facebook tenta di implementarle?

Già nel 2012 Adrian Chen, su Gizmodo, aveva rivelato dettagli ancora oggi attuali delle politiche di moderazione, tramite il materiale fornito da un ex moderatore; pagine che Chen definiva "una mappa del terreno morale" su cui si muove Facebook, proprio come quelle di cui si discute oggi. 

Sempre Chen fornisce quella che resta tuttora la più valida motivazione all’opacità di Facebook: "La policy sulla moderazione dei contenuti è vaga, e forse lo è intenzionalmente. Se gli utenti sapessero esattamente quali criteri vengono adottati per giudicare i loro contenuti, potrebbero costringere Facebook a rispettarli". Così invece possono sparire materiali tratti da inchieste giornalistiche, foto di rilevanza storica, o capolavori dell’arte che contengono nudità senza bene capire per quale ragione. Il mondo "open and connected", aperto e connesso, di cui Zuckerberg si fregia a ogni occasione sembra insomma allergico all’apertura, quando riguardi Facebook stesso.

Le slide tratte dai manuali di cui è entrato in possesso il Guardian, poi, trattano certamente temi controversi - dalle molestie sugli animali al livestream di autolesionismo, passando per la liceità di mutilazioni e morti violente. E certo, alcune posizioni sono estremamente controverse: l’idea che certi contenuti di bullismo e abusi di natura non sessuale su bambini siano consentiti a meno che non contengano "sadismo" o intenti "celebrativi", per esempio.

Ma il limite tra l’utilità di certi contenuti controversi per suscitare consapevolezza e la loro disutilità nel promuovere violenza e odio è labile e complesso, varia a seconda delle circostanze e delle norme sociali condivise a diverse latitudini. Pensare che un social network debba stendere un manuale della perfetta gestione etica del male in tutto il mondo, implementarlo in via istantanea e senza fallo, e che ci si debba indignare se non ci riesce è folle. Sono gli esseri umani, del resto, a faticare a comprendere le infinite sfaccettature morali dell’esistenza, nella vita di tutti i giorni. E se la soluzione dovesse essere una moralità di Stato imposta a tutti i social network, il risultato sarebbe di certo peggiore: conformismo, paternalismo, censura.

Insomma, meglio il tentativo sofisticato dei manuali di autoregolamentazione di Facebook, che l’utopia boldriniana di trovare una sorta di algoritmo - umano o computerizzato - che identifichi immediatamente ogni istanza del maligno e lo rimuova, possibilmente ancora prima che venga condiviso. Semplicemente, non c’è. Gli esseri umani sono fallibili, hanno concezioni differenti della distinzione tra accettabile e inaccettabile, e non esiste intelligenza artificiale che allo stato attuale sia in grado di computare la differenza tra satira e insulto; noi stessi affoghiamo spesso nei dibattiti su quello iato, e sarà prevedibilmente così finché esisteranno le democrazie liberali.

Facebook non deve quindi essere messo in croce per provare a risolvere in maniera complessa questioni complesse. Deve invece essere seriamente spronato a mutare registro: rendere trasparenti davvero le sue decisioni, come vengono prese e da chi; imparare a rispondere agli utenti che chiedono conto di quelle decisioni di rimozione o restrizione dei loro contenuti, senza abbandonarli a un limbo di (non) risposte automatiche, o a nessuna risposta. E deve assicurarci che le persone deputate a prenderle siano competenti, da un lato, e in grado di reggere l’enorme costo psicologico, dall’altro, di essere sottoposte per ore e ore ogni giorno a mutilazioni, decapitazioni, violenze, abusi e minacce di ogni genere.

Ciò che si deve chiedere a Facebook è che i suoi moderatori non siano soggetti dotati spesso di circa "dieci secondi", come rivela il Guardian, per compiere scelte così delicate. Che siano in grado di riconoscere e valutare le sofisticazioni etiche - perché non coinvolgere sistematicamente filosofi morali tra i team che mettono in pratica le linee guida? Facebook dice che fa ricorso a esperti: come esattamente? Che ruolo e potere decisionale hanno?

Quali tutele vengono predisposte per proteggere la salute mentale dei moderatori? In quali condizioni e regimi di lavoro operano? Si serve ancora, come nel 2012, di aziende che impiegano squadre di filippini, messicani e indiani pagati un dollaro l’ora - che possono diventare fino a quattro con le commissioni?

E se i contenuti sono milioni, miliardi, e il personale non basta, cosa impedisce a un’azienda che macina un miliardo di dollari di profitti ogni mese di aggiungerne agli attuali 4,5 mila non tremila, come annunciato di recente, ma 30 mila?

Fermo il rispetto delle leggi vigenti, che non è in discussione, la conclusione che si può trarre dalle rivelazioni del Guardian è chiara: basta chiedere a Facebook di diventare un censore migliore, più rapido ed efficiente, o immaginare sia benefico il dettargli una morale dall’alto. È tempo invece di chiedere chiarezza su quali siano i confini della sua morale; pretendere strumenti agili ed efficaci per costringere l’azienda a rispettarli; e, nel caso ci facessero proprio orrore, abbandonarla in un click.