Figure autorevoli criticano la corsa senza scrupoli etici al superamento del cervello umano. Inutile illudersi che la sperimentazione possa fermarsi: ma siamo ancora in tempo per mettere delle regole

Ormai lo si può considerare un genere «tecnosociologico» a tutti gli effetti. È quello che potremmo chiamare il «pentitismo dell’Intelligenza artificiale», le cui schiere si infittiscono di figure non più integrate nell’establishment e nelle aristocrazie digitali e di personaggi a un passo dal convertirsi in apocalittici.

 

Uno degli ultimi a iscriversi al «club dei pentiti (e disillusi) dell’IA» è stato Geoffrey Hinton, premio Turing 2018, uno dei massimi pionieri delle intelligenze generative e delle reti neurali, che si è dichiarato estremamente inquieto su quanto sta accadendo. Una sorta di «Oppenheimer 4.0» che ha lanciato l’allarme su una corsa senza scrupoli etici all’Intelligenza artificiale, spinta esclusivamente dalla logica del profitto. Perché, a suo dire, l’accelerazione nel campo del deep learning – alla base dei sistemi di Large Language Model (Llm) come ChatGpt – risulta talmente forte da far sì che il superamento dell’intelligenza umana da parte delle macchine non solo non sia più in questione, ma possa avvenire ben prima dei trent’anni che si erano immaginati necessari.

 

E, in effetti, la velocità del processo (e dei progressi) costituisce un dato oggettivo. Una specie di «singolarità», come quella teorizzata da Ray Kurzweil, sarebbe insomma dietro l’angolo. Con conseguenze potenzialmente catastrofiche, tali da configurare lo scenario della prevalenza e della vendetta del supercomputer Hal 9000 profetizzata nel celebre film di Stanley Kubrick, “2001: Odissea nello spazio”. E, da questo punto di vista, rappresentano una vera e propria nemesi anche le ultime proteste del sindacato degli sceneggiatori di Hollywood, che temono la propria sostituzione a opera di qualche Llm.

 

Hinton osserva che si stanno moltiplicando i cosiddetti «comportamenti emergenti», palesati dalle IA (vale a dire le abilità impreviste e non pianificate dai programmatori), e che l’arrivo del giorno in cui esse saranno in grado di scriversi i codici di funzionamento da sole non è più una fantasia distopica, bensì una realtà prossima ventura.

 

In tal modo, anche la sua voce si aggiunge a quelle decisamente critiche, se non direttamente catastrofiste, di vari opinion leader molto diversi fra loro, come Stephen Hawking, Henry Kissinger, Noam Chomsky, lo scrittore Eliezer Yudkowsky e Yuval Noah Harari, fattosi nel frattempo sempre più pessimista (al punto da essere stato definito «l’intellettuale anti-Silicon Valley» dal cofondatore di Netflix, Reed Hastings). Si tratta di figure autorevoli e importanti ed è dunque assai opportuno ascoltarle, soprattutto nella loro denuncia degli eccessi del tecnodeterminismo e del soluzionismo partoriti dall’«Ideologia californiana»: come l’idea, deleteria, che degli agenti automatici possano prendere alcune decisioni di natura pubblica in autonomia.

 

Al medesimo tempo, però, non bisogna ricadere in nessuna demonizzazione, che risulterebbe sterile innanzitutto perché la sperimentazione sull’IA non si fermerà (come mostra la Cina). E, pertanto, il nodo fondamentale è semmai quello di stabilire delle regolamentazioni efficaci, che – senza penalizzare lo sviluppo tecnologico – garantiscano informazioni e protezioni adeguate per la società civile, oltre a uno spazio di controllo pubblico degli algoritmi.