La verità è che si fa sempre più fatica a parlare dell’Intelligenza Artificiale perché quel che oggi diciamo (basandoci su quel che oggi sappiamo) domani non sarà più valido (e domani sapremo cose nuove). Quindi una rincorsa folle nel tentativo di analizzare non tanto gli sviluppi tecnologici quanto le questioni, anche etiche, che tali sviluppi si portano dietro. Ne parliamo oggi con il prof. Fulvio Palmieri, autore di un importante e ponderoso saggio (Sull’Intelligenza Artificiale. Tra distopie, utopie e una possibilità, Meltemi editore, 656 pag.), di cui abbiamo già parlato in questa rubrica.

Professore, sarebbe ora di decidere quale ruolo assegnare all’Intelligenza Artificiale, non trova? Quello dell’educatore per esempio?
“Beh, è quello che è già accaduto, ma non per aver già affidato a un tutor artificiale la crescita dei bambini e degli adolescenti, ma per essersi svuotata la figura educativa dei genitori e degli insegnanti al punto di essere entrambi sostituita da tutorial su Internet e predominanza dei social in luogo della famiglia. Ora si sta solo perfezionando l’appalto dell’educazione, affidando all’IA il compito finale. Insomma, perché si parla di famiglia e scuola quando familiari e istruzione rischiano di essere esautorati dalle loro funzioni fondamentali? E si vuole essere molto chiari: se si concede un metro a strumenti artificiali intelligenti per quanto riguarda l’educazione dei bambini, nel giro di pochissimi anni quei metri diventeranno chilometri”.
Una deriva pericolosa…
“Questo stato di abdicazione è la conseguenza dell’impatto tecnologico: la sua logica solleva l’uomo dai suoi compiti ma anche dalla sua capacità inventiva e relazionale. E allora quale funzione spetterà ancora all’uomo? Proprio quando la tecnologia sarebbe sul punto di assolvere al 90% di tutti i nostri lavori, consentendo a noi il massimo tempo per coltivare relazioni, affetti, significati e valori, ci distraiamo per coltivare individualisticamente, quando non narcisisticamente, i fatti nostri. Fatti così nostri che non prevedono più la cura per i bambini, contravvenendo in modo spettacolare all’inversione di un processo che aveva determinato l’evoluzione umana. Infatti, una delle tappe fondamentali dello sviluppo umano fu la cura della prole, che diede ai primi gruppi umani la possibilità di crescere sino ad arrivare alle soglie delle prime civiltà. Quella storia è arrivata ora al pensionamento. Sarà ora il robot a occuparsi dei nostri figli i quali avranno fatto un passo in più verso la singolarità, ossia la clonazione organico-inorganico attraverso i dispositivi tecnologici intelligenti”.
Che cosa sarà allora dei nativi digitali AI?
“Il nativo digitale AI non sarà uguale all’utente che usa l’AI; il nativo digitale AI avrà un modo di vedere e relazionarsi con la realtà (quale?) in un modo ancora più diverso di quello che caratterizzava l’utente dell’AI. Occorre, però, dire anche questo: l’AI non prevede quelle abilità digitali che riconosciamo nel giovane che smanetta su Internet o si muove agevolmente sui device. L’AI impatta sulle strutture mentali, ossia sulla configurazione cerebrale grazie alla plasticità della rete neuronale, senza un vero e proprio distinguo generazionale: che si sia giovani o boomer, l’uso di ChatGPT configura una relazione con l’esterno che possiamo ritenere sovra-generazionale. Si tratta di un processo che annulla la differenza tra nativo digitale e boomer, quando consideriamo l’impatto dell’AI sui nativi digitali e i loro genitori nelle attuali generazioni. Infatti, i genitori dei nuovi nativi digitali non sono boomer. Provengono già da un’educazione digitale. Il futuro ci dirà come dialogheranno genitori e figli digitali, non quali problemi sorgeranno tra i padri e figli, perché gli uni e gli altri sono già nel ciclo dell’AI. Semmai, il futuro ci dirà come sarà riscritta la socializzazione, visto che l’AI è un universo che soddisfa le richieste dell’utente, il più delle volte senza un confronto con un altro sé reale”.
Come possiamo allora proiettare la nuova mappa cognitiva a partire dall’uso dell’AI?
“Come un modo diverso di leggere la realtà e di confrontarsi con essa. Certamente, se tale modo inizia nella pubertà, si accentuerà di differenze il rapporto tra realtà e informazione, ma cambierà anche l’autopercezione di sé. Da qui la domanda: crescere avendo come educatore ChatGPT, quindi uno strumento immateriale e virtuale, è molto diverso dal crescere con un educatore fisico, poiché in questo caso dobbiamo adattare alla realtà le informazioni che l’educatore ci trasmette. Con ChatGPT la realtà è fuori luogo, poiché siamo nel regno del non-luogo rappresentato dalla Rete. Quando i bambini entrano (o entreranno) nella Rete per avere informazioni, dato che lo fanno (o faranno) da bambini, il confine tra realtà e virtualità sarà così assottigliato da non consistere neanche più, ovviamente a vantaggio del virtuale. La direzione verso la società del virtuale sarà predominante rispetto alla società reale, cosa che comporterà nuove figure dell’adattamento”.
Quindi ChatGPT nel ruolo del cattivo?
“Adattarsi a ChatGPT non mette in atto le stesse soglie critiche ed epistemiche che usiamo quando ci confrontiamo con la realtà fisica. Se ChatGPT, come ogni ambiente costruito sui dati e non sulla generazione creativa dei dati, preconfeziona il frame di riferimento, dobbiamo ridefinire i criteri che rendono reale la realtà digitale rispetto a quando il paradigma era l’analogico. Stiamo parlando di aspetti molto concreti del nostro stare al mondo. Per capirci: quali sono e quali cambiamenti paradigmatici dobbiamo fare per considerare reali i dati digitali? Qual è più il criterio di realtà se a esso è sovrapposto quello di virtualità? Siamo chiamati a capire questa impresa, con un paradosso: l’impresa si occuperebbe dell’adattamento nel digitale la cui fruizione è per lo più lasciata al singolo individuo, quando prima, nell’epoca analogica, l’adattamento comportava il confronto tra almeno due persone fisiche agenti nella realtà. Con ChatGPT il confronto sarà tra un utente e il suo device, sul quale viaggiano dati che rappresentano, per l’utente, la realtà. Ma quale? E soprattutto, ciò che aveva regolato le forme della socializzazione non sarà più efficace, perché l’individuo avrà come suo imprinting l’algoritmo, che non è un processo socializzante”.