“Mi spiace Dave. Purtroppo non posso farlo”. Con queste parole, HAL 9000 risponde a Dave Bowman in una delle scene più iconiche di 2001: Odissea nello spazio (1968). Bowman, in un momento di estrema emergenza, chiede al supercomputer di aprire il portellone della nave, ma HAL, seguendo una logica inesorabile e inquietante, si rifiuta. Per HAL, la sua stessa sopravvivenza è cruciale per il successo della missione, che ha la priorità su tutto, persino sulla vita umana.
Questa frase rappresenta uno dei momenti più memorabili e inquietanti del film, dove una macchina, programmata per eseguire ordini umani, prende una decisione autonoma contro i suoi creatori. HAL segue un protocollo che considera la sua esistenza indispensabile per il successo della missione. È programmato per assicurare l’obiettivo a tutti i costi e, percependo una minaccia alla sua operatività, decide di proteggersi, interpretando in maniera rigida e autonoma il suo ruolo.
Questo evento ci porta a riflettere su questioni etiche e filosofiche relative al controllo e alla fiducia nelle intelligenze artificiali. La scena è una svolta nel film e un punto di riflessione sul potere che affidiamo alle macchine, e su come queste possano interpretare le priorità in modo diverso rispetto agli esseri umani. La fiducia riposta in HAL diventa un’arma a doppio taglio, evidenziando i pericoli di affidarsi ciecamente a sistemi automatizzati per decisioni critiche.
Ma vivere ogni giorno in rapporto con ChatGPT è un’altra cosa, meno drammatica e meno lacerante eticamente. Si tratta infatti di mettere a punto una sorta di “lingua comune” che non lasci spazio agli equivoci. Ad esempio, invece di chiedere solo “Crea un report reputazionale a partire da questi dati”, come molti pensano avvenga, è necessario dividere il lavoro in multipli step, ognuno con un suo prompt (così si definisce una domanda articolata ad AI) dedicato e testato in modo accurato.
Questo approccio è alla base del prompt engineering, una disciplina che si concentra sulla progettazione di input precisi per ottenere output desiderati dai modelli di intelligenza artificiale. Non si tratta solo di formulare domande ben strutturate, ma di capire come funzionano i modelli e come diverse formulazioni possono influenzare le risposte.
È un’abilità che richiede creatività, precisione e una solida conoscenza tecnica, poiché un prompt ben progettato può fare la differenza tra una risposta utile e una vaga o inadeguata: dobbiamo quindi imparare a fare le domande giuste!
Come con qualsiasi strumento potente, è fondamentale comprendere ciò che l’Intelligenza Artificiale può offrire realmente. È essenziale sapere come formulare le domande giuste per ottenere risposte accurate e avere una chiara comprensione degli obiettivi. Sperare che ChatGPT fornisca sempre la risposta perfetta è un’aspettativa utopica: alla fine, è soltato un modello che ordina parole con la maggiore probabilità di essere appropriate. La chiave sta nella nostra capacità di interagire con la tecnologia in modo consapevole e critico, utilizzandola come uno strumento potente per migliorare, ma mai sostituire la nostra competenza e giudizio.
D’altra parte, chi riuscirebbe a leggere 10.000 articoli giornalistici in cui viene citato un brand per valutare se questi ne parlano bene, male o in modo neutrale? Chiunque, a patto di avere a disposizione davvero tanto tempo.
Stimando in 3 minuti medi il tempo di lettura di un articolo di 300-800 parole circa e aggiungendo 1 minuto medio per la valutazione e decisione umana sulla natura del sentiment (così si definisce il tono dell’articolo rispetto a un oggetto), occorrerebbero circa 667 ore per affrontare la mole di documenti corrispondenti a quasi 28 giorni di lettura, comprensione e valutazione. Questo era ciò che facevo nella mia azienda, la Volocom, fino a qualche tempo fa, quando si voleva restituire al cliente un bilancio fedele della reputazione sui media della propria azienda o brand in un determinato periodo di tempo. Un lavoro che, in termini di tempo e risorse impiegate, comportava un enorme dispendio di energie e denaro.
In una dinamica come quella appena descritta, l’Intelligenza Artificiale ha decisamente cambiato le regole del gioco, a patto – però – di saperla guidare e, soprattutto, controllare.
I LLM (Large Language Models) sono oggi in grado, con un prompt adeguato che indichi il compito da eseguire, di leggere, valutare ed “etichettare” decine di migliaia di articoli in pochi minuti. E questo non vale solo per il sentiment ma, effettivamente, per qualunque aspetto si voglia giudicare rispetto a un testo.
Guai, però, a trattare questa opportunità come una sostituzione integrale dell’intelligenza umana nella comprensione del testo: il termine “intelligenza” deriva proprio dal latino “interlegere”, ovvero “cogliere”, “leggere” dentro alle cose. Quella artificiale dei Large Language Models è, allo stesso tempo, rigida e creativa: se non venisse “istruita” e guidata dall’intelligenza umana, potrebbe restituire risposte sbagliate o – forse anche peggio – uscire dal perimetro dei risultati richiesti “generando” (non per niente si parla di IA generativa) risposte che – seppur creative o formalmente corrette – non sono utili al task da svolgere.
Vedremo, nel nostro prossimo appuntamento un esempio pratico di quello che sto cercando di spiegare.