Le nuove tecnologie hanno un grande potenziale ma presentano anche grossi rischi. Per questo prima di arrivare a manifestazioni neoluddiste serve creare delle norme

Prima conoscere, poi discutere, poi deliberare», scriveva Luigi Einaudi nelle sue famose Prediche inutili (1959). Un principio che nella nostra postmodernità è stato convertito nel «conoscere per prevedere» dell’odierna economia della conoscenza che, a tale scopo, accumula senza sosta dati da processare.

 

Nella società industriale la pianificazione venne introdotta per cercare di ridurre progressivamente la probabilità degli imprevisti. E la società dell’informazione ha dato sempre maggiore slancio alle finalità di previsione, rispondendo a un’esigenza strutturale dei sistemi produttivi, come pure a un bisogno profondo della natura umana. E quanto più le società e i sistemi sono complessi – ovvero, come ha evidenziato Ulrich Beck, «società del rischio» – tanto più cresce l’ansia da imprevedibilità e, quindi, il desiderio di prevedere. Un anelito eterno che vede oggi al posto degli antichi aruspici – con percentuali di successo incomparabilmente superiori – gli algoritmi predittivi. Ed è precisamente di essi che si nutrono l’intelligenza artificiale e il machine learning (che è un sottoinsieme della prima), il cui obiettivo a ben vedere non è tanto il comprendere – ecco perché, nella fattispecie, alcuni studiosi (come la sociologa Elena Esposito) mettono in dubbio la stessa espressione di intelligenza, preferendo quella di «comunicazione artificiale» –, ma il prevedere. A questo servono, giustappunto, i big data.

 

Gli algoritmi non individuano relazioni causali, ma ricercano correlazioni; e, dunque, dal momento che tendono sostanzialmente a delineare e “scoprire” le strutture esistenti dei processi e dei fenomeni, non riescono a ridurre veramente l’incertezza che circonda il futuro. E, infatti, questo è – o piuttosto dovrebbe essere, come racconta quella delusione che si traduce nell’incessante avanzata dell’astensionismo – il compito della politica, e non quello di assegnare ad agenti autonomi che prescindono dal controllo umano un potere decisionale sulla vita collettiva. L’impatto dell’Ai (Artificial Intelligence) sarà quello, a ogni livello, di una nuova dirompente rivoluzione (post)industriale che produrrà ulteriori metamorfosi sociali. Ecco perché l’Ai va sottoposta a una serie di regolamentazioni, a differenza di quanto avvenuto nel caso delle piattaforme (le quali, comunque, possiedono una funzione eminentemente commercial-pubblicitaria, e vengono largamente utilizzate in chiave ludica).

 

Le implicazioni dell’intelligenza artificiale, invece – ancora più massicciamente di quanto si sia visto con i social network –, investono (e invadono) il campo politico. L’Ai risulta già ampiamente in grado di generare video deep-fake sempre più realistici e chatbot simulanti alcune argomentazioni del discorso pubblico tra umani, offrendo ad attori che perseguano fini di destabilizzazione delle “armi” impressionanti, inimmaginabili in precedenza.

 

E, allora, la sfida consiste nel ritorno a una forma di «politica pedagogica»: vale a dire, la “spiegabilità” e la trasparenza (almeno parziale) di quegli algoritmi che influiscono sulla vita pubblica, così da rendere l’impiego dell’Ai ancora più proficuo per l’intera collettività. Altrimenti il rischio ulteriore è quello di ritrovarci presto al cospetto di manifestazioni di neoluddismo dalle conseguenze (appunto...) imprevedibili.