Colloquio con Antonio Garcia Martinez, ex dipendente del colosso di Menlo Park e autore di “Chaos Monkeys”. «È una follia che i burocrati europei diventino i controllori dell’algoritmo che sceglie quali post far comparire sul mio smartphone»

Palo Alto, Silicon Valley. È il 25 aprile 2011, e Antonio Garcia Martinez, dopo un passato in Goldman Sachs e una startup in Y Combinator, è appena stato assunto da Facebook. Di fronte ha un pezzo grosso, il capo di prodotto Chris Cox. Le nuove reclute lo guardano ammirate e intimidite. Lui chiede: «Cos’è Facebook? Datemi una definizione». «È un social network», risponde uno sprovveduto. «Sbagliato!», ribatte Cox, «Non lo è affatto». Un tirocinante si fa coraggio: «È il tuo giornale personalizzato», dice. Risposta esatta: «È ciò che dovrei leggere e a cui dovrei pensare», lo benedice il superboss, «recapitato a me personalmente ogni giorno». Alla scena, tratta da “Chaos Monkeys”, il volume tra l’autobiografico e lo spietato pubblicato da Martinez lo scorso anno, seguono pagine che definiscono la creatura di Mark Zuckerberg «il vero fine teleologico dei media moderni» e una esperienza «quasi religiosa», dotata peraltro di un altrettanto «inebriante fascismo aziendale». Il messaggio è chiaro: Facebook è il mondo reinterpretato non più tramite gli intermediari tradizionali - giornali, partiti, governi o chiese - ma attraverso la rete delle proprie relazioni sociali. “Channel You”, lo chiama Martinez, che a Facebook, prima di andarsene, ha contribuito a creare i meccanismi di pubblicità personalizzata che oggi valgono miliardi. Lo incontro ad Amburgo, a margine di un convegno intitolato “Disrupting Democracy”, cioè rivoluzionare la democrazia. Non necessariamente in meglio. Anzi.

Martinez, nel suo intervento si è chiesto se «la democrazia può sopravvivere a Facebook». Cosa risponde?
«Che c’è stato un tempo in cui ciascuno aveva diritto alla propria opinione; ora ciascuno ha diritto alla propria realtà, e alla propria verità. Ed è difficile avere una democrazia funzionante quando le varie parti del corpo elettorale non riescono a essere in accordo nemmeno sugli elementi essenziali del reale, alcuni dei quali sono ormai legati a Facebook. Dare una visione personalizzata del mondo a ogni utente, del resto, è sempre stato parte dei piani di Facebook. Tempo fa suonava ridicolo, oggi molto meno. Non credo sia ben conciliabile con la democrazia. Non voglio dare l’impressione che sia il solo Facebook a distruggerla, ma credo che Facebook amplifichi delle tendenze in atto e le peggiori».

Per le elezioni, per esempio: se lo volesse, ha sostenuto, potrebbe già manipolare l’esito del voto - magari sollecitando di recarsi alle urne soltanto gli elettori di una precisa parte politica, nelle aree contese. Davvero è abbastanza per pilotare le elezioni? E quanto contano i meccanismi di personalizzazione dei messaggi di propaganda politica su di un social network?
«Di certo contribuiscono, ma non credo siano il problema principale. La realtà è che, in un mondo mediato dal digitale, tutto - dagli appuntamenti online alla politica - diventa un problema di marketing. So che gli europei sono terrorizzati dalla pubblicità personalizzata, ma è paranoia: non credo sia questo a mettere in pericolo la democrazia. Il problema è vivere ciascuno in una propria realtà selezionata da altri. È qui che si cela il rischio di manipolazioni».

Eppure sappiamo molto poco della reale esposizione a messaggi di propaganda mirata a scopi politici, al punto che in gergo vengono chiamati “dark ads”: slogan minuziosamente calibrati sul profilo del singolo elettore, di cui tutti gli altri non sono al corrente. Un recente studio della Online Privacy Foundation dimostra che funzionano. Non dovremmo regolamentarli, renderli più trasparenti?
«Non si sa nemmeno perché li si chiami così. Ogni campagna di marketing prova centinaia di post diversi su migliaia di segmenti diversi dell’utenza, e se tutti comparissero a ciascuno non sarebbero niente altro che semplice pubblicità. Insomma, non dovremmo chiamarle “dark ads” ma, più semplicemente, “ads” - perché in qualunque campagna un singolo utente non vede tutte le pubblicità, eppure non chiamiamo quelle non viste “dark ads”. In Europa la prima reazione è dire: regolamentiamo! Ma non so come si potrebbe fare. Certo, se vedi un messaggio pubblicitario deve essere chiaro che è un messaggio pubblicitario; anzi, si dovrebbe specificare anche chi lo ha pagato. Questo vale in particolare per i messaggi politici, così da comprendere se qualche entità “oscura” sta cercando davvero di manipolare la realtà».

Oggi Facebook è un colosso che fonda le sue fortune quasi interamente sulla pubblicità. Ma c’è stato un tempo, quando lei ne faceva parte per esempio, in cui le cose stavano diversamente. Qual è stato il punto di svolta?
«Facebook è un’azienda che innova costantemente. Eppure il team pubblicitario non è mai stato all’avanguardia nelle tecnologie pubblicitarie. Tutti la pensano così, anche se pochi lo direbbero pubblicamente. La pubblicità su Facebook funziona, non c’è dubbio, ma non è da lì che escono o sono mai usciti nuovi strumenti per farla. Ciò che ha reso Facebook la miniera d’oro che è oggi, e una delle aziende con la valutazione più alta al mondo, è stato introdurre la pubblicità sul News Feed da dispositivi mobili. Non è stata la prima a farlo, ma l’ha lanciata proprio nel momento in cui il mondo intero la voleva. Su questo Facebook merita un elogio: l’azienda è stata in grado di comprendere esattamente quando l’utenza si sarebbe trasferita in massa su smartphone, e riconfigurarsi in soli sei mesi da una compagnia incentrata essenzialmente sull’esperienza desktop a una che fa del suo cuore quella mobile. Ed è stato un po’ come l’espansione a Occidente degli Stati Uniti nel XIX secolo: una landa sconfinata, che nessuno prima aveva messo a frutto».


L ei sostiene, come Zuckerberg in passato, che Facebook sia più simile a una “social utility” come il gas, l’elettricità o l’acqua, che a un social network. Diversi legislatori cominciano a pensarla allo stesso modo, sottolineando che dunque andrebbe regolamentato come un servizio irrinunciabile. È d’accordo?
«Sbaglia chi pensa che si tratti di un “optional”, che potremmo tutti smettere di usare Facebook se in qualche modo decidessimo di farlo. Non è così. Se anche domani scomparisse, verrebbe rimpiazzato da un altro social network per definire la nostra identità online, e sarebbe il nuovo Facebook. È così che siamo stati condizionati a vivere, e questo non si cambia. È come avere l’acqua corrente: potrà essere questo o quel soggetto a fornirla, ma ormai è una caratteristica delle società umane. Vogliamo regolamentare Facebook allo stesso modo? Va bene, entro certi limiti. Ma l’idea che dei burocrati europei debbano diventare i controllori e i regolatori dell’algoritmo del News Feed di Facebook, per esempio, è una follia. Ed è impossibile che un’azienda che, peraltro, modifica questo algoritmo ogni giorno, apra il cuore della sua proprietà intellettuale a un qualche ministero o autorità per la protezione dei dati. Se passasse una legge simile in un paese, Facebook semplicemente lo abbandonerebbe».

E tuttavia la questione della trasparenza di quegli algoritmi esiste. Perché non dare agli utenti un modo di capire come Facebook seleziona davvero i contenuti che ci mostra?
«Ma se “aprissimo” quegli algoritmi, a che servirebbe? Non ho mai lavorato direttamente con il team che si occupa del News Feed, ma sono stato a capo di un gruppo che faceva ampio uso di tecniche di intelligenza artificiale per filtrare e controllare le pubblicità - un po’ come oggi si fa con le “fake news” - e mi chiedo: se Facebook decidesse di mostrarvi il modello di regressione lineare a 137 fattori usato due ore fa, su due settimane di dati, e di divulgare i numeri che ne risultano, che se ne farebbe il pubblico? In che modo conoscere quel modello matematico, per giunta modificato di continuo, informerebbe il dibattito su Facebook?»

Quindi non si può fare nulla?
«Si potrebbero forse divulgare gli input di quel modello. Per esempio, se si basa su dati considerati eticamente discutibili. Ma anche qui: troppo spesso una certa retorica finisce per ritenere gli algoritmi responsabili di alcuni fatti politicamente scorretti, che tuttavia sono veri. E non è che un insieme di dati va ritenuto scorretto solo perché ci dice ciò che non riteniamo politicamente accettabile».

Come sottrarre potere a Facebook, dunque?
«Beh, è ora che gli utenti comincino a usare il cervello».