Che lo sviluppo dell’intelligenza artificiale possa mettere in pericolo l’umanità è stato certificato ormai dalle Nazioni Unite, che un mese fa ha istituito una Commissione speciale di esperti per studiare le soluzioni guida per “contenere” i potenziali effetti negativi dell’AI. Ma mentre le istituzioni internazionali cominciano a costruire recinti legali dove l’AI dovrà essere regolarizzata, l’industria della difesa mondiale non si ferma e pianifica il commercio delle applicazioni più sofisticate di queste tecnologie.
L’automazione artificiale è sempre più sfruttata dagli eserciti, come dimostra da anni l’utilizzo di droni da parte del Pentagono (in Iraq, Yemen, Afghanistan) e l’uso esteso dell’arma nella guerra tra Russia e Ucraina. Ma queste sofisticatissime armi dotate di intelligenza artificiale potrebbero sfuggire al controllo dei governi, finendo nelle mani dei terroristi. Qualcuno addirittura crede che potrebbero sfuggire al controllo del loro “padrone” e “ribellarsi” andando contro chi le controlla… Chi ha una certa età ricorda il film di Stanley Kubrick “2001 Odissea nello Spazio”, con il computer “Al” che si ribella al suo operatore. Ma qui non si tratta di un film di fantascienza, ma di scenari diventati di colpo presenti. Già anni fa si lanciò la campagna “Stop Killer Robots” perché le Nazioni Unite imponessero un divieto sull’utilizzo di robot assassini analogo a quello attualmente in vigore per le armi chimiche. Secondo i promotori della campagna, già alcune nazioni – tra le quali Usa, Israele, Russia, Regno Unito, Cina e Corea del Sud – stanno mettendo a punto armi con “maggiore autonomia di combattimento”. Cioè si stanno costruendo droni-robot che non avranno bisogno di un “pilota esterno” umano per portare a termine le loro missioni militari. Ma a quel punto chi prenderebbe la decisione di uccidere ?
Già nel 2017 alcuni manager responsabili di alcune delle aziende più innovative in campo di robotica e intelligenza artificiale avevano sottoscritto una lettera aperta all’Onu per chiedere di impedire l’impiego di robot negli eserciti. Tra i firmatari Mustafa Suleyman, numero uno di Deep Mind, la divisione AI di Google, lo stesso Musk e tre italiani: Alessio Bonfietti di MindIT, Angelo Sudano di ICan Robotics e Domenico Talia di DtoK Labs. Appelli analoghi sono giunti negli anni da diciannove Paesi, tra i quali figurano – in maniera significativa – Egitto e Pakistan, che vogliono scongiurare a ogni costo la possibilità di vedere queste armi in mano ai jihadisti.

Uno dei cento firmatari, Stuart Russel, vicepresidente di Bayesian Logic e docente di Intelligenza Artificiale all’università di Berkeley, ha prodotto un cortometraggio, breve ma decisamente inquietante, che era stato mostrato durante un’evento promosso dalla campagna presso la Convenzione delle Nazioni Unite sulle Armi Convenzionali. Il video mostra un attacco di droni che uccide con devastante efficienza senza alcun controllo umano.
“C’è una nuova corsa alle armi tra le nazioni più tecnologicamente avanzate per sviluppare sottomarini, aerei da combattimento, navi da guerra e carri armati autonomi che possano trovare il loro bersaglio da sole e usare forza bruta senza l’intervento di decisioni umane. Un solo grosso conflitto sarà sufficiente a scatenare queste nuove armi con tragiche conseguenze umanitarie e e una destabilizzazione della sicurezza globale”, aveva avvertito già cinque anni fa Noel Sharkey, professore emerito di intelligenza artificiale dell’università di Sheffield.
“Questo è davvero uno dei punti di svolta più significativi per l’umanità”, ha detto in un’intervista al New York Times, Alexander Kmentt, capo negoziatore austriaco sulla questione. “Qual è il ruolo degli esseri umani nell’uso della forza? È una questione di sicurezza assolutamente fondamentale, una questione legale ed etica”.
Ma gli Stati Uniti, così come Russia, Australia, Israele e altri paesi hanno finora sostenuto che non è necessaria alcuna nuova legge internazionale, mentre la Cina vorrebbe definire qualsiasi limite legale in modo così restrittivo da avere scarso effetto pratico, dicono i sostenitori del controllo degli armamenti.
Il risultato è stato che al Palazzo di Vetro il dibattito procede su nodi procedurali con poche possibilità di andare avanti su un mandato giuridicamente vincolante in tempi brevi. “Non riteniamo che sia davvero il momento giusto”, ha detto Konstantin Vorontsov, vice capo della delegazione russa alle Nazioni Unite, ai diplomatici in una sala conferenze nel seminterrato del quartier generale delle Nazioni Unite a New York.
Il recente terremoto nella leadership di OpenAI, la leader mondiale nel settore dell’intelligenza artificiale, sembra che sia stato provacato anche dalle divisioni all’interno dell’azienda sulla questioni su come contenere i pericoli della tecnologia. Intanto, al recente vertice di San Francisco tra Joe Biden e Xi Jinping, funzionari cinesi e statunitensi hanno discusso anche dei potenziali limiti all’uso dell’I.A. nelle armi nucleari.
A questo punto, potrebbe essere sufficiente che le Nazioni Unite adottino linee guida non vincolanti? Molti hanno dubbi. ”Questa non è la trama di un romanzo distopico, ma una realtà incombente”, ha detto ai funzionari riuniti di recente al Palazzo di Vetro Gaston Browne, il primo ministro di Antigua e Barbuda.
Sempre al New York Times, il mediatore diplomatico austriaco Kmentt, ha ammesso che le Nazioni Unite hanno avuto difficoltà a far rispettare i trattati esistenti che fissano limiti su come possono essere intraprese le guerre, ma ha affermato che c’è ancora bisogno di creare un nuovo standard giuridicamente vincolante, ha affermato: “Solo perché qualcuno commetterà sempre un omicidio, ciò non significa che non sia necessaria una legislazione che lo proibisca”, ha detto Kmentt. “Quello che abbiamo al momento è che l’intero campo è completamente non regolamentato”.
In questo momento le regole del Pentagono USA vietano l’uso di qualsiasi nuova arma autonoma o anche il suo sviluppo a meno che non siano stati approvati dagli alti funzionari del Dipartimento della Difesa. Questi droni devono essere utilizzati in un’area geografica definita per periodi limitati. E se le armi-robot sono controllate dall’intelligenza artificiale, il personale militare deve conservare “la capacità di disimpegnarsi o disattivare i sistemi schierati che dimostrano comportamenti non intenzionali”.
Almeno inizialmente, sarà necessaria l’approvazione umana prima che venga intrapresa un’azione letale, hanno affermato al New York Times i generali dell’aeronautica. Però Frank Kendall, il segretario dell’Aeronautica Militare, ha anche affermato al New York Times che queste macchine alla fine dovranno avere il potere di intraprendere da sole azioni letali, pur rimanendo sotto la supervisione umana sul modo in cui vengono schierate. “Le decisioni individuali rispetto al non prendere decisioni individuali sono la differenza tra vincere e perdere – e non si perde”, ha detto Kendall aggiungendo: “Non penso che le persone contro cui ci troveremo ad affrontare lo farebbero, dando loro un enorme vantaggio se ci mettessimo questa limitazione”.

All’inizio di novembre il diplomatico l’austriaco Kmentt ha ottenuto un ampio sostegno per un piano rivisto che chiedeva all’ufficio del segretario generale delle Nazioni Unite di mettere insieme un rapporto sulle armi autonome letali, ma ha chiarito che, in rispetto alle maggiori potenze, le deliberazioni dettagliate sulla questione sarebbero rimaste con un comitato delle Nazioni Unite a Ginevra, dove ogni singola nazione può effettivamente bloccare il progresso o forzare l’annacquamento del linguaggio. “Se aspettiamo troppo a lungo, ce ne pentiremo davvero”, ha dichiarato Kmentt sempre al New York Times. “Presto sarà economico, facilmente disponibile e sarà ovunque. E le persone si chiederanno: perché non abbiamo agito abbastanza velocemente da cercare di porre dei limiti quando ne avevamo la possibilità?”
Così mentre gli USA, Cina, Russia, Israele e chissà quanti altri paesi si stanno preparando a dispiegare armi autonome su larga scala, è partita la corsa alle Nazioni Unite per trovare in tempo soluzioni per prevenire che scenari finora da film di fantascienza, diventino realtà.