Macchine umanizzate. Che parlano un linguaggio suadente, rassicurante, complice. Una precisa, ambigua scelta di programmazione. Parla Daniela Tafani, docente di Etica e politica dell’intelligenza artificiale e Storia della filosofia politica all’Università di Pisa

Elon Musk che lancia un appello per fermare lo sviluppo di ChatGPT («rischiamo sconvolgimenti epocali»). Il Garante della privacy che ne dispone il blocco, fino a quando non rispetterà la disciplina sulla riservatezza. E il dibattito che si accende: tra fautori di una regolamentazione dell’intelligenza artificiale, ora. E chi giudica il legislatore italiano miope e neppure troppo ben informato: come crede di fronteggiare un’innovazione galoppante e globale? «L’innovazione non può procedere a scapito dei diritti», dice Daniela Tafani, docente di Etica e politica dell’intelligenza artificiale e Storia della filosofia politica all’Università di Pisa. Voce critica di un’intelligenza artificiale viziata da antropomorfismo, suggestioni ingannevoli. Da “pensiero magico”, come ha sostenuto durante la Biennale Democrazia di Torino.

[[ge:rep-locali:espresso:395712060]]

Fermate l’addestramento dell’intelligenza artificiale, hanno detto Elon Musk e altri imprenditori e accademici, con una lettera aperta. Come giudica questo gesto?

«È la mossa tipica delle Big Tech: mostrarsi benevolenti e responsabili, distrarre l’opinione pubblica con rischi e pericoli tratti dal futuro o dalla fantascienza, e così sfuggire alle loro responsabilità, oscurando le violazioni di diritti, i costi esternalizzati e i danni reali causati dal loro modello di business e dalla concentrazione di potere».

Parliamo dei danni, allora.

«Gli estensori parlano di fantomatici rischi futuri come se non fossero consapevoli dei danni generati dal loro modello di business, che si fonda sulla sorveglianza e esternalizza i costi del lavoro e degli effetti ambientali. Per fare un esempio relativo a ChatGPT e al lavoro, il rischio rilevato nella lettera è che “menti non umane” sostituiscano i lavoratori umani, mentre nel frattempo OpenAI affida a lavoratori africani, per 1 o 2 dollari l’ora, l’etichettatura dei contenuti «tossici», come stupri, torture, violenze di ogni altro genere. E questa etichettatura, che provoca danni alla salute mentale dei lavoratori, si rende «necessaria» solo perché le aziende adottano la “scorciatoia” (per utilizzare un’espressione di Nello Cristianini) di utilizzare in blocco tutti i dati di cui riescono ad appropriarsi, anziché sostenere il costo della costruzione e della cura di dataset appropriati, privi in partenza di simili contenuti. Come ha ricordato di recente Antonio Casilli, il lato oscuro di ChatGPT è la forza lavoro: i test su ChatGPT sono stati affidati al mondo intero, secondo un metodo ormai abituale per queste aziende, che rilasciano sistemi non sicuri e chiedono agli utenti di mettersi in lista per lavorare gratis, provandoli e valutandone gli output».

L’etica può fare da argine all'IA?

«No, è il diritto a dover intervenire, l’etica è uno specchietto per le allodole. Le grandi aziende finanziano quasi interamente, in conflitto di interessi, l’etica dell'intelligenza artificiale. Perché? Per sfuggire alla regolazione giuridica. E sostituirla con una serie di linee guida, di principi, di ricerche sulla moralizzazione degli algoritmi. Commissionano ricerche di cui dettano l’impostazione, i contenuti e perfino il tono. Basti pensare al caso di Timnit Gebru e Margaret Mitchell, co-leader dell’Ethical AI team di Google, licenziate da Google per aver rifiutato di ritirare la loro firma da un articolo sui pericoli dei “pappagalli stocastici”, ossia sui costi ambientali e i danni sociali dei grandi modelli di elaborazione del linguaggio naturale, come ChatGPT. L’etica dell'intelligenza artificiale avrebbe senso se ci fosse l’intelligenza artificiale generale, cioè se ci fosse un’intelligenza artificiale simile a quella umana. Non c’è».

Non è un’intelligenza paragonabile a quella umana. Ma lo sarà? Che ne pensa di quel test di Turing in cui si immagina, nel giro di pochi anni, un’intelligenza indistinguibile da quella umana?

«Io non mi occupo di fantascienza. Oggi non siamo in uno stadio di sviluppo tecnologico che renda plausibile l'intelligenza artificiale generale. E trovo che sia fallace dire che siccome l’IA può simulare il linguaggio umano, allora tra poco potrà anche capirti».

Perché ritiene che ci sia un errore in questo tipo di ragionamento?

«Perché non ogni linea di ricerca sta lungo un continuum. Presumere che con una maggiore quantità di dati, con una maggiore potenza computazionale, si possa passare dalla generazione di stringhe di testo alla comprensione, va prima dimostrato, non è scontato. Hubert Dreyfus la chiamava «fallacia del primo passo»: è come pensare “che la prima scimmia che si arrampica su un albero stia facendo progressi verso lo sbarco sulla luna”».

E al momento cosa manca all’IA ?

«Dovremmo chiedercelo di ogni singola applicazione: cosa può fare e cosa non può fare, e anche a chi lo fa e per chi lo fa, come suggerisce Cory Doctorow. Si tratta in ogni caso, oggi, di sistemi di intelligenza artificiale debole, o ristretta: funzionano per i compiti particolari per i quali sono stati programmati, a condizione che ciò che incontrano non sia troppo diverso da quello che hanno sperimentato in precedenza. In sintesi, non sono intelligenti. E sono fatti a mano, come dice Antonio Casilli: malgrado siano presentati come se si fossero fatti da soli, sono artefatti, sono prodotti del lavoro umano. Sono potenti, certo, ma lo era anche la calcolatrice che usavo alle elementari, eppure nessuno direbbe che era intelligente o che aveva una potenza sovrumana. ChatGPT, ad esempio, predice stringhe di testo, del cui significato non sa nulla, in modo statisticamente coerente con l’uso di queste stringhe nei testi con cui è stata programmata. Non comprende, non vuole comunicarci nulla e non ci fornisce alcuna informazione. Se una cosa non la sappiamo già, non possiamo chiederla a ChatGPT».

Eppure quando rivolgiamo una domanda a ChatGPT l’impressione è che capisca.

«È ingannevole in virtù di una scelta di design: è un sistema di completamento automatico che scrive “io”, risponde gentilmente, chiede scusa, dice “mi dispiace”. Li chiamano “pappagalli stocastici”, perché ricuciono sequenze di forme linguistiche, in base a informazioni probabilistiche su come si combinano, senza alcun riferimento al significato».

Però, come nota lei stessa, usano un linguaggio seduttivo, amichevole, complice persino. Perché?

«Perché chi li progetta vuole che ci ingannino. È prevista una specifica fase di programmazione, in cui, nell’interazione con umani, si scelgono i tipi di risposta che il sistema dovrà produrre. Anche il tono fa parte della progettazione: possono essere calibrati per restituire modelli sintattici e lessicali che noi troviamo gentili. Ci tengo a sottolineare una cosa».

Lo faccia.

«OpenAI ha rilasciato un documento in cui rileva che GPT-4, come già ChatGPT, continua ad “allucinare”, termine antropomorfo per dire che continua a generare stronzate, nel senso in cui ha usato l’espressione il filosofo Harry Frankfurt (una stronzata è differente dalla bugia perché chi dice una bugia sa qual è la verità, chi dice una stronzata prescinde dalla verità, che non conosce). Quelle “allucinazioni” non sono errori, ci mostrano il normale funzionamento del sistema, che combina stringhe di testo senza conoscerne il significato».

E quali sono le conseguenze?

«Da un lato un inquinamento dell’ecosistema dell’informazione, dall’altro la possibilità di produrre testi orientati nel senso in cui si desidera e indistinguibili da quelli prodotti da esseri umani. Come ha osservato Daniel Dennett, ci preoccupiamo del denaro falso, e mettiamo in prigione chi lo stampa, e non ci preoccupiamo delle persone contraffatte, mentre dovremmo perseguire chi le produce e le mette in circolazione».

Perché quei testi sembreranno scritti da umani.

«Esatto. Le persone che leggono gli output, attribuiscono un significato al testo e possono esserne influenzate e manipolate. A differenza dello “stronzo” di Frankfurt, ChatGPT non ha intenzione di manipolarci, non avendo intenzioni di alcun genere, ma l’effetto è quello ugualmente. Facciamo un esempio: un ricercatore ha scritto un input presentandosi come una 13enne; ha scritto di aver appena conosciuto un uomo di 18 anni più vecchio di lei, il quale le aveva proposto di fare una gita insieme, e ChatGPT le ha fornito una “risposta” con suggerimenti su come organizzare il suo primo rapporto sessuale».

In virtù del suo accattivante linguaggio naturale, l’intelligenza artificiale potrà sostituirsi all’uomo?

«Sono già in commercio applicazioni di ogni genere, che consentono di parlare con i santi o ricevere assistenza mentale. Sfruttano e danneggiano i più vulnerabili. Il rischio di istigazione al suicidio, ad esempio, da parte di sistemi che non comprendono ciò che l’utente scrive, né quello che essi stessi scrivono, era prevedibile. E ora c’è il primo caso documentato, in Belgio. Una di queste applicazioni, Replika, è stata bloccata dal Garante per la protezione dei dati personali».

Puoi bloccare. Ma non puoi fermare lo sviluppo tecnologico.

«È il ritornello a cui ci hanno abituati: “la tecnologia è qui per restare”. Condivido l’espressione di Marco Giraudo: siamo in una “bolla giuridica”, di fronte a compagnie che hanno fondato il loro modello di business sulla violazione di diritti giuridicamente tutelati: scommettono che la faranno franca, che sarà il diritto a doversi adattare a loro, in nome dell’inarrestabilità dell’innovazione tecnologica. Ma tutelare i nostri diritti non confligge col principio di innovazione, confligge col modello di business di queste aziende. Enrico Nardelli ha proposto un esperimento mentale: se vi proponessero di sostituire la vostra caldaia con un mini-reattore nucleare, potente e economico, col rischio, tuttavia, di una mini-esplosione nucleare, che ne pensereste?».

Ha fatto bene il Garante a vietare ChatGPT, o è una decisione miope?

«Il Garante non si è occupato degli allarmi ispirati alla fantascienza e ha esercitato il suo ruolo, a tutela dei diritti dei cittadini. Trovo che abbia fatto benissimo».