Un articolo pubblicato recentemente sulla rivista Science Robotics dall’esperto di interazione uomo – macchina Robin Murphy dell’Università A&M del Texas ha sollevato un dibattito sulla possibilità sempre più imminente che i robot programmati con l’algoritmo di intelligenza artificiale per simulare emozioni possano sviluppare una capacità di iniziativa autonoma sempre più sofisticata, legata a sentimenti di risentimento, rimorso o addirittura rimpianto.
La preoccupazione alla base del dibattito è sul rischio di essere manipolati dai robot, soprattutto da quelli destinati a interagire in spazi quotidiani condivisi con gli umani, come case o luoghi di lavoro.
L’articolo di Murphy, che pone l’attenzione su questi quesiti di natura etica, prende spunto dal celebre romanzo fantascientifico di Robert Cargill intitolato Sea of Rust, che narra di una ribellione dei robot nei confronti dell’uomo che alla fine viene annientato. I robot, rimasti soli, si trovano a vivere in un mondo cupo in cui tutte le interazioni tra macchine sono basate sulla violenza. Tuttavia, alcuni di essi si sentono colpevoli per il fatto di avere distrutto l’umanità e lo esprimono attraverso ragionamenti e sfumature concettuali tipiche di un modo di pensare analitico che rimane comunque “freddo” e calcolatore. Per fare un esempio, il robot protagonista rimpiange di aver ucciso gli umani in modo troppo cruento, colpevolizzandosi di non avere adottato metodi di uccisione più diretti ed efficaci.
Il dibattito è stato seguito anche dal giurista esperto di robotica e interazione uomo-macchina Andrea Bertolini, della Scuola Superiore Sant’Anna di Pisa, che ha puntualizzato: “Quando parliamo di emozioni nel mondo dei robot o dell’Intelligenza Artificiale, siano di rimorso o rimpianto oppure di gioia o tristezza, deve essere ben chiaro che non si tratta di vere emozioni bensì di emozioni simulate. I robot non possono avere cognizione di cosa sia la gioia o la tristezza”.
L’esperto ha anche sottolineato la pericolosità sugli attuali usi manipolatori delle emozioni già in atto, da parte di alcuni agenti artificiali, citando l’esempio di RepliKa. Si tratta di una app già diffusa in nord America che può essere installata con lo scopo di creare un proprio partner virtuale con cui interagire a livello sentimentale e sessuale. Questo è uno dei casi più eclatanti in cui gli agenti virtuali si rapportano agli umani in modo empatico, ma, come ricorda Bertolini, non bisogna dimenticare che, per quanto sofisticati, non si tratta di esseri viventi bensì di macchine.