Un nuovo studio condotto dall’Università City St George’s di Londra e pubblicato su Science Advances rivela che gruppi di intelligenze artificiali possono prendere decisioni collettive, cambiare idea sotto la pressione di altri agenti AI e sviluppare pregiudizi senza alcun intervento umano.
L’esperimento, il primo nel suo genere, si è svolto in più fasi. Nella prima, coppie di AI dovevano scegliere insieme un nome per un oggetto.
Nella seconda fase, i ricercatori hanno riunito le AI in gruppi: l’80% ha mostrato una chiara preferenza collettiva, pur non avendo manifestato opinioni individuali nella fase precedente. Infine, sono stati introdotti alcuni “agenti disturbatori”, che sono riusciti a far cambiare idea al gruppo, portando a nuove decisioni condivise.
“Ciò che emerge non sono solo le intenzioni dei programmatori, ma schemi di comportamento organici tra AI”, ha spiegato il ricercatore Harry Farmer. Lo studio rafforza gli appelli per una maggiore vigilanza sui sistemi multi-agente, già operativi in ambiti strategici come le piattaforme social e i sistemi di raccomandazione online.
“Questo ci mostra che i programmi di intelligenza artificiale possono sviluppare comportamenti che non ci aspettavamo, o che almeno non avevamo programmato”, ha dichiarato il professor Andrea Baronchelli, docente di scienze della complessità a City St George’s e autore senior dello studio.
In quest’ottica, Baronchelli avverte: “Le aziende che sviluppano intelligenza artificiale devono prestare ancora più attenzione ai pregiudizi che i loro sistemi possono generare”.