Non basta un algoritmo per giudicare se i contenuti segnalati dagli utenti meritano davvero di essere eliminati. A farlo è un esercito di moderatori sparsi per il pianeta. Un lavoro essenziale, segreto e stressante, tra fake news, revenge porn e video raccapriccianti

«Senza il nostro lavoro, Facebook sarebbe inutilizzabile. Il suo impero collasserebbe. I vostri algoritmi non sono in grado di distinguere tra giornalismo e disinformazione, violenza e satira. Solo noi possiamo»: queste parole si leggono in una lettera inviata l’anno scorso a Mark Zuckerberg e firmata da oltre duecento persone. Persone che lavorano per il colosso di Menlo Park, ma anche per le altre principali piattaforme digitali di massa: da Instagram a Twitter, da TikTok a YouTube. Sono i moderatori dei contenuti dei social media, i guardiani clandestini degli avanposti della rete contemporanea: una professione poco conosciuta, ma nevralgica.

«Credo che l’aspetto più difficile sia la condizione di totale invisibilità in cui sono costretti a operare: per motivi di sicurezza, ma anche per minimizzare l’importanza del lavoro umano», spiega all’Espresso Jacopo Franchi, autore del libro “Obsoleti. Il lavoro impossibile dei moderatori di contenuti” (AgenziaX). «Oggi è impossibile stabilire con certezza se una decisione di moderazione dipenda dall’intervento di un uomo o di una macchina. I moderatori sono le vittime sacrificali di un mondo che rincorre l’illusione della completa automazione editoriale».

Perché serve ancora come l’ossigeno qualcuno, in carne e ossa, che si prenda la briga di nascondere la spazzatura sotto il tappeto agli occhi dei miliardi di iscritti (e inserzionisti) connessi in quel preciso istante. Un attimo prima che infesti i nostri monitor e smartphone, o che faccia comunque troppi danni in giro. E anche certe sfumature di senso la tecnologia non riesce a coglierle e chissà se le capirà mai. I moderatori digitali sono uomini e donne senza competenze o specializzazioni specifiche, e di qualsiasi etnia ed estrazione: una manodopera assolutamente intercambiabile.

Per essere assunti, basta essere subito disponibili e “loggabili”, avere una connessione stabile e pelo sullo stomaco. Il loro compito consiste, infatti, nel filtrare ed eventualmente cancellare l’oggetto dei milioni di quotidiane segnalazioni anonime che arrivano (a volte per fini opachi) dagli stessi utenti. Incentrate su post e stories, foto e video ributtanti. Immagini e clip pedopornografiche, messaggi d’odio e razzismo, account fake, bufale, revenge porn, cyberbullismo, torture, stupri, omicidi e suicidi, guerre locali e stragi in diretta. Fiumi di fango che sfuggono alla diga fallibile degli algoritmi, e che possono finire per rendere virale, inconsapevolmente, l’indicibile. Gli errori di selezione della macchina li risolvono gli uomini: dal di fuori tutto deve però sembrare una proiezione uniforme e indistinta dell’intelligenza artificiale.

[[ge:rep-locali:espresso:289788551]]

Un lavoro essenziale e misconosciuto per un trattamento barbaro. «Ero pagato dieci centesimi a contenuto. Per questa cifra ho dovuto catalogare il video di un ragazzo a cui era stato dato fuoco, pubblicato dall’Isis», scrive Tarleton Gillespie nel suo “Custodians Of The Internet”. I “custodians” lavorano a ritmi forsennati, cestinando fino a 1500 contenuti pro-capite a turno. Uno alla volta, seguendo le linee guida fornite dalle aziende, i mutevoli  CommunityStandards (soprannominati, tra gli addetti ai lavori, la Bibbia). Se non conoscono la lingua interessata si affidano a un traduttore online. L’importante è correre: una manciata di secondi per stabilire cosa deve essere tolto di mezzo dai nostri newsfeed e timeline. Non c’è spazio per riflettere: un clic, elimina e avanti col prossimo.

Un’ex moderatrice, Valera Zaicev, tra le maggiori attiviste della battaglia per i diritti di questa categoria che è ancora alle primissime fasi, ha raccontato che Facebook conta persino i loro minuti di pausa in bagno. Lavorano giorno e notte, i moderatori digitali. «Il nostro team di revisione è strutturato in modo tale da fornire una copertura 24/7 in tutto il pianeta», ha dichiarato a The Atlantic Monika Bickert, responsabile globale delle policy di Facebook. Nessuno sa niente del loro mandato, obbligati come sono al silenzio da marziali accordi di riservatezza. Pure la loro qualifica ufficiale è camaleontica: community manager, contractor, legal removals associate...

«Quello del moderatore di contenuti è un esempio, forse il più estremo, delle nuove forme di lavoro precario generato ed eterodiretto dagli algoritmi», aggiunge Franchi. «Nessuno può dirci con precisione quanti siano: si parla di 100-150 mila moderatori, ma non è stato mai chiarito quanti di questi siano assunti a tempo pieno dalle aziende, quanti siano ingaggiati con contratti interinali da agenzie che lavorano in subappalto e quanti invece retribuiti a cottimo sulle piattaforme di “gig working”, per “taggare” i contenuti segnalati dagli utenti e indirizzarli così verso le code di revisione dei moderatori “professionisti”».

[[ge:rep-locali:espresso:285337976]]

Restando a Facebook, si oscilla così dai moderatori più tutelati e con un contratto stabile negli Usa (15 dollari circa all’ora di salario) ai 1600 occupati dall’appaltatore Genpact negli uffici della città indiana di Hyderabad, che avrebbero una paga di 6 dollari al giorno stando a quanto rivelato, tra gli altri, dalla Reuters. Un esercito neo-industriale di riserva che si collega alla bisogna grazie a compagnie di outsourcing come TaskUs, persone in smart-work permanente da qualche angolo imprecisato del globo, per un pugno di spiccioli a chiamata. Il loro capo più autoritario e immediato, in ogni caso, è sempre l’algoritmo. Un’entità matematico-metafisica che non dorme, non si arresta mai.

Una forza bruta ma asettica, tirannica e prevedibile, fronteggiata dall’immensa fatica del corpo e della mente. «È un algoritmo a selezionarli su LinkedIn o Indeed attraverso offerte di lavoro volutamente generiche», ci dice ancora Iacopo Franchi, «è un algoritmo a organizzare i contenuti dei social che possono essere segnalati dagli utenti, è un algoritmo a pianificare le code di revisione ed è spesso un algoritmo a determinare il loro punteggio sulla base degli “errori” commessi e a decidere della loro eventuale disconnessione, cioè il licenziamento».

Già: se sbagliano in più del 5 per cento dei casi, se esorbitano da quei “livelli di accuratezza” monitorati a campione, può scattare per loro il cartellino rosso, l’espulsione. Per chi riesce a rimanere al proprio posto, è essenziale rigenerarsi nel tempo libero. Staccare completamente, cercare di recuperare un po’ di serenità dopo avere introiettato tante nefandezze. «Ci sono migliaia di moderatori nell’Unione Europea e tutti stanno lavorando in condizioni critiche per la loro salute mentale», ha asserito Cori Crider, direttore di Foxglove, un gruppo di pressione che li assiste nelle cause legali. Sta di fatto che nel 2020 Facebook ha pagato 50 milioni di dollari a migliaia di moderatori che avevano sviluppato problemi psicologici a causa del loro lavoro.

È uno dei new jobs più logoranti. Pochi resistono più di qualche mese, prima di essere defenestrati per performance deludenti o andarsene con le proprie gambe per una sopravvenuta incapacità di osservare il male sotterraneo del mondo senza poter fare nulla oltre che occultarlo dalla superficie visibile dei social. Gli strascichi sono pesanti. Il contraccolpo a lungo andare è micidiale, insopportabile. L’accumulo di visioni cruente traccia un solco profondo. Quale altra persona si sarà mai immersa così a fondo negli abissi della natura umana?

«L’esposizione a contenuti complessi e potenzialmente traumatici, oltre che al sovraccarico informativo, è certamente un aspetto rilevante della loro esperienza professionale quotidiana, ma non bisogna dimenticare anche l’alta ripetitività delle mansioni», spiega all’Espresso Massimiliano Barattucci, psicologo del lavoro e docente di psicologia delle organizzazioni. «A differenza di un altro lavoro del futuro come quello dei rider, più che ai rischi e ai pericoli per l’incolumità fisica, i content moderator sono esposti a tutte le fonti di techno-stress delle professioni digitali. E questo ci consente di comprendere il loro elevato tasso di turnover e di burnout, e la loro generale insoddisfazione lavorativa».

L’alienazione, l’assuefazione emotiva al raccapriccio sono dietro l’angolo. «Può nascere un progressivo cinismo, una forma di abitudine che consente di mantenere il distacco dagli eventi scioccanti attinenti al loro lavoro», conclude Barattucci. «D’altro canto possono esserci ripercussioni e disturbi come l’insonnia, gli incubi notturni, i pensieri o i ricordi intrusivi, le reazioni di ansia e diversi casi riconosciuti di disturbo post-traumatico da stress (PTSD)».

Nella roccaforte Facebook di Phoenix, in Arizona, un giorno, ha raccontato un’ex moderatrice di contenuti al sito a stelle e strisce di informazione The Verge, l’attenzione di tutti è stata catturata da un uomo che minacciava di lanciarsi dal tetto di un edificio vicino. Alla fine hanno scoperto che era un loro collega: si era allontanato durante una delle due sole pause giornaliere concesse. Voleva mettersi così offline dall’orrore.