I ricercatori della Cornell University hanno creato un software di intelligenza artificiale in grado di avvertire gli utenti quando una discussione online sta per degenerare – mettendoli in guardia dall’usare un linguaggio poco consono. La ricerca è stata spiegata nel dettaglio in due recenti studi, che analizzano l’efficacia dell’intelligenza artificiale nella moderazione delle discussioni online.
Il nome del software è ConvoWizard, che in sostanza è un plugin per il browser che utilizza una rete neurale profonda. ConvoWizard si è allenato studiando migliaia di commenti su un forum del social network Reddit, che promuove conversazioni sincere su questioni controverse legate alla politica, all’economia e alla cultura.
ConvoWizard riesce ad avvisare gli utenti quando una conversazione sta iniziando a diventare conflittuale, e lo comunica agli utenti in tempo reale, mentre stanno digitando le loro risposte
“Chi discute con buone intenzioni è solo un essere umano. Nel bel mezzo di un dibattito acceso, su un argomento a cui si tiene molto, può essere facile reagire emotivamente e rendersene conto solo dopo il fatto”, ha dichiarato Jonathan Chang, dottorando in informatica della Cornell. “L’idea non è quella di dire agli utenti cosa dire”, ha detto Chang, “ma di incoraggiarli a comunicare come farebbero di persona”.
“ConvoWizard si chiede fondamentalmente: ‘Se questo commento viene pubblicato, aumenterebbe o diminuirebbe la tensione stimata nella conversazione? Se il commento aumenta la tensione, ConvoWizard dà un avvertimento”, ha detto Chang. “Lo strumento è in grado di fornire un feedback senza sconfinare nel territorio pericoloso in cui si dice di fare questo o quello”.
Discussion about this post