L’Università Statale di Milano ha intrapreso un percorso di estremo interesse per quanto riguarda lo sviluppo delle applicazioni dell’Intelligenza Artificiale. O meglio, si è posta questa domanda: chi deve interagire con l’AI? Solo gli informatici, i matematici, gli ingegneri? O non è il caso di formare una nuova generazione di studenti che abbiano invece una formazione pesantemente umanistica associata a competenze informatiche?
Il nostro rapporto con gli assistenti dell’AI è in realtà complesso. Una buona parte delle risposte dei chatbot sono banali, motivo per cui potrebbe essere importante avere, sulla scrivania di chi li interroga, persone non solo competenti dei linguaggi di programmazione, ma anche competenti sotto il profilo della cultura in generale.
Abbiamo intervistato a questo proposito il professor Alfio Ferrara che tiene uno di questi corsi sperimentali.

Professor Ferrara, perché questa scelta?
“La mia esperienza accademica si concentra su due aspetti fondamentali: la ricerca e la didattica, ma in quest’ordine esatto: credo fermamente sia necessario sviluppare un rapporto più stretto tra il mondo accademico e quello delle imprese. Tuttavia, per realizzare questo obiettivo, è necessaria un’attitudine non tradizionale da parte degli accademici e una curiosità intellettuale nuova da parte delle aziende, poiché la ricerca non è sempre un’attività immediatamente produttiva. Venendo al cuore del mio pensiero, la mia tesi è che la frontiera della ricerca nell’ambito dell’Intelligenza Artificiale sia di natura umanistica piuttosto che informatica”.
Professore, molti di noi lavorano con testi e scrittura, sia per vie dirette che indirette, manipolando testi, immagini e contenuti video. Oggi, un nuovo attore in questo campo è proprio l’Intelligenza Artificiale, che produce contenuti in modi che prima non erano possibili. Che cosa comporta tutto questo in prospettiva? Ma soprattutto, ha senso parlare di “intelligenza” quando parliamo di AI?
“Una collega, nel suo corso di comunicazione, ha proposto un esercizio interessante: scrivere una fundraising letter utilizzando ChatGPT. Gli studenti sono stati coinvolti in questo processo non per essere sostituiti, ma per imparare a comunicare in modo efficace con l’ausilio di ChatGPT. Questo è il punto su cui voglio insistere: l’uso di ChatGPT come partner intellettuale, un supporto per generare idee piuttosto che un sostituto della scrittura personale. Se un programma scrive al posto nostro, è facile accorgersene. Se, invece, lo utilizziamo come suggerito, l’approccio può rivelarsi molto produttivo.
”Per iniziare a utilizzare questi strumenti in modo efficace, è fondamentale rimuovere lo strato ideologico associato al termine Intelligenza Artificiale. Questo termine, pur essendo una grande idea di marketing, è fuorviante. L’AI non possiede intelligenza; è solo una simulazione di comportamenti intelligenti. È importante non definirla come Intelligenza Artificiale o simulatore di comportamenti umani, poiché non si possono utilizzare questi strumenti senza conoscerli a fondo. Non basta saperli usare; è necessario comprendere come funzionano. A differenza di una macchina del caffè, per cui non è necessario essere ingegneri meccanici, qui è necessario avere una certa competenza tecnica. Dobbiamo quindi formare una nuova generazione di studenti, in particolare umanisti, affinché comprendano il funzionamento di un transformer, di una rete neurale e di come l’informazione venga manipolata e trasformata”.
Stiamo pensando alle nuove generazioni, giusto?
“Questo ragionamento solleva una questione interessante: il bias culturale. Non si tratta solo di un problema, ma di una questione seria. Se immaginiamo che i nostri figli vengano educati da insegnanti che producono contenuti di questo tipo, ci troviamo di fronte a una sfida significativa. I bias dell’informazione non sono intrinsechi al modello comunicativo, ma derivano dai dati che utilizziamo: gli strumenti che abbiamo a disposizione possono rivelare queste distorsioni culturali che si manifestano quando produciamo e riproduciamo informazioni. È necessario avviare una nuova ricerca su questi argomenti. In particolare, credo sia appunto interessante utilizzare questi strumenti per svelare bias, tendenze culturali e opinioni politicamente corrette. Questo ripensamento richiede competenze specifiche. Non si tratta di competenze tecniche, perché se il bias fosse il risultato di una cattiva simulazione del modello, dovremmo investire in ingegneri per sviluppare modelli migliori. Tuttavia, il problema non risiede nel modello, ma è di natura culturale: il vero investimento deve essere orientato verso il sapere umanistico, che tradizionalmente sviluppa quel senso critico necessario per affrontare queste questioni. È fondamentale fornire agli studenti non solo gli strumenti tecnici per comprendere come avviene l’ingegnerizzazione, ma anche il contesto culturale e critico necessario per valutare gli obiettivi”.