“Tutto nasce dalla domanda posta nel 1950 da Alan Turing, uno dei più grandi matematici del Novecento – comincia Nello Cristianini. – Era un quesito semplice e sconvolgente: le macchine possono pensare? Oggi probabilmente abbiamo trovato la risposta”. Goriziano, 56 anni, ha speso metà della vita a studiare l’intelligenza artificiale. Laureato in fisica a Trieste, master alla Royal Holloway di Londra, dottorato di ricerca nell’ateneo di Bristol, professore associato in statistica all’università di California-Davis, ha la cattedra di AI (artificial intelligence, appunto) a Bath in Inghilterra. Definirlo un esperto è dire poco. Nel 2014 Cristianini è stato inserito nella lista degli scienziati più influenti del decennio, qualità a cui abbina la dote rara del divulgatore. Insomma parla di cose estremamente complicate ma le spiega in maniera esemplare, davanti a un pubblico in sala o nei suoi saggi. L’ultimo, pubblicato da Il Mulino, si intitola Machina Sapiens: leggerlo è il modo per entrare nei misteri, le meraviglie e le paure di un futuro che è già arrivato.
E dunque qual è la risposta all’interrogativo di Turing? “Nel dicembre del 2022 – riassume Cristianini – il sistema ChatGPT ha cominciato a parlare con noi: oggi si può conversare con un computer senza distinguerlo da un essere umano. È accaduto e il mondo non è stato più lo stesso. In sostanza le intelligenze artificiali si sono mostrate in grado di svolgere compiti che vanno oltre le intenzioni iniziali dei loro creatori. E ancora non sappiamo né il come né il perché. Le abbiamo riempite con milioni di dati, numeri, equazioni, formule, notizie, enciclopedie, libri di storia e romanzi, teorie, ipotesi, catene sterminate di pagine web. Le abbiamo addestrate a svolgere alcuni compiti, ma altre abilità sono spontaneamente emerse. Stupendoci e in parte inquietandoci”. La conclusione sembra essere una: volevamo costruire qualcosa, stiamo creando qualcuno. Un algoritmo ha rubato all’uomo i segreti della conoscenza? Forse sì. O forse no: non del tutto, perlomeno non ancora.
“Abbiamo definito l’homo sapiens per distinguerlo dagli animali, attribuendogli un monopolio – riprende Cristianini. – Le cose però stanno cambiando rapidamente. Abbiamo di fronte entità complesse capaci di pensare in maniera diversa da noi che le abbiamo costruite. Del resto Turing aveva previsto che entro la fine dello scorso millennio le macchine intelligenti avrebbero superato le nostre capacità: molte delle sue idee si sono realizzate, altre suonano come avvertimenti”. I segnali allarmanti sono visibili. E il disorientamento si riverbera anche sugli addetti ai lavori: “Un collaudatore di Google è stato licenziato per aver affermato che la macchina è autocosciente. Geoffrey Hinton, pioniere della AI, ha lasciato lo stesso colosso informatico motivando così le sue dimissioni: è come fosse atterrato un alieno, i chatbot sanno molto più di noi e arriveranno a ragionare meglio”, racconta Cristianini.
Ma nel frattempo il problema da scientifico è diventato politico, ingarbugliando ancor più le carte. Con il voto del 13 marzo scorso, l’Unione europea è stata la prima istituzione al mondo a mettere dei paletti all’intelligenza artificiale. Ha infatti emanato un regolamento che si applicherà a tutti i soggetti pubblici e privati che producono strumenti con tecnologia di AI rivolti al mercato europeo, indipendentemente dalla nazionalità delle aziende: anche i Big americani, dunque, devono adeguarsi se vorranno continuare a operare nel vecchio continente. La mossa è rivoluzionaria o velleitaria, a seconda dei punti di vista. Ed è la conseguenza della contrapposizione fra due schieramenti: i giganti tecnologici californiani – Facebook, Google, Amazon, Apple, Tesla – esaltano la deregolamentazione appellandosi al libero mercato, l’Unione europea sostiene invece una serie di limiti a sperimentazioni e applicazioni. È una distanza ideologica, oltreché economica. Se la narrazione di Silicon Valley vede nella creazione di tecnologie intelligenti una missione per il bene dell’umanità, dall’altra parte dell’oceano (e non solo) viene sottolineato che ripercussioni come la violazioni dei diritti umani e l’impatto ambientale non possono essere considerati incidenti di percorso.
E il professore da che parte sta? “Innanzitutto parliamo di intelligenza delle macchine, non di coscienza: il sentire è altra cosa. Quanto ai rischi, esistono diverse categorie. Penso ai call center, cioè alla competizione uomo-macchina per certi tipi di lavoro. Poi agli abusi degli utenti. O a quelli dei progettisti: mi riferisco alla costruzione di modelli fatti per ingannarci o diffondere disinformazione sui social media. Nel contempo sono convinto che l’istinto dell’uomo sia esplorare: Prometeo ha giocato con il fuoco, no? Adesso siamo sulla soglia di qualcosa che scopriremo nei prossimi anni: servono cautela, attenzione e circospezione. Questo almeno l’abbiamo capito e per una volta ci stiamo muovendo in anticipo”.