“Regolamentate l’intelligenza artificiale”. È questo l’insolito appello rivolto al Congresso da Sam Altman, CEO di OpenAI e pioniere dell’IA generativa con ChatGPT e GPT-4.
Nel corso di un’audizione tenutasi martedì davanti alla Commissione giudiziaria del Senato, l’informatico 35enne ha ribadito che a suo avviso i politici dovrebbero stabilire delle linee guida per gli sviluppatori di IA al fine di evitare “danni significativi al mondo” – malgrado si sia al contempo detto “fiducioso” che l’innovazione possa avere più effetti positivi che negativi.
L’imprenditore nativo di Chicago ha avanzato autonomamente una strategia in tre punti su come il Congresso potrebbe intervenire.
In primo luogo, creando un’agenzia federale incaricata di rilasciare licenze per lo sviluppo di modelli di IA al di sopra di un livello predeterminato di capacità – e con l’autorità di annullare tali licenze nel caso in cui i modelli violino gli standard federali di sicurezza.
Quindi, secondo il 35enne, il Governo dovrebbe stabilire requisiti di sicurezza per i suddetti modelli ad alta capacità – come il divieto di auto-replicazione – nonché test specifici di funzionalità che i modelli devono superare – come la conferma della loro capacità di produrre informazioni accurate o la garanzia che non producano contenuti dannosi e/o falsi.
Infine, il CEO di OpenAI si è augurato che la sicurezza e la stabilità degli strumenti di IA possano essere verificati da parte di professionisti non affiliati alle aziende tech, in modo da garantire la terzietà.

All’audizione di martedì, oltre ad Altman, hanno preso parte anche altri due esperti di intelligenza artificiale: Gary Marcus, professore di psicologia e scienze neurali della New York University, e Christina Montgomery, Chief Privacy & Trust Officer di IBM. Tutti e tre hanno convenuto che l’IA dovrebbe essere governata tanto a livello federale quanto sul piano internazionale.
“Abbiamo costruito macchine che sono come tori in un negozio di porcellane: Potenti, spericolate e difficili da controllare”, ha detto Marcus. E per risolvere questo problema, l’accademico ha suggerito di creare un’agenzia di regolamentazione simile alla Food and Drug Administration in campo farmaceutico-alimentare.
L’impetuosa avanzata di strumenti di intelligenza artificiale – tra cui proprio ChatGPT e GPT-4 – ha ingenerato apprensione nella comunità degli esperti, secondo cui software super-sofisticati potrebbero presto rendere obsoleto il cervello umano od essere usati per scopi malefici da regimi liberticidi in giro per il mondo.
Discussion about this post