In una notte come tante, Angel Cholka fu svegliata da una torcia della polizia che illuminava la finestra di casa sua. Sulla porta, un agente le chiese se lì abitasse una ragazza di nome Madi. Angel, confusa e impaurita, corse nella stanza della figlia sedicenne solo per scoprire che aveva ingerito un numero pericoloso di pillole.
Angel non sapeva che il messaggio della figlia, inviato durante la notte da un dispositivo scolastico e contenente l’intenzione suicida, era stato intercettato da un sistema di sorveglianza dotato di intelligenza artificiale. L’allarme era stato trasmesso al consulente scolastico, che aveva prontamente avvisato le forze dell’ordine.
Questa storia riportata dal quotidiano americano New York Times mette in evidenza una forma di monitoraggio, che viene applicata a milioni di studenti statunitensi. I contenuti scritti sui dispositivi forniti dalle scuole vengono scandagliati, alla ricerca di parole chiave o frasi che possano indicare un rischio imminente per la salute mentale. Sistemi come quelli offerti da GoGuardian, Gaggle e similari, si sono diffusi rapidamente durante la pandemia, quando molti istituti li hanno adottati per lo studio da remoto.
Il controllo, tuttavia, non si limita all’orario scolastico. Se un’allerta viene rilevata dopo le ore di lezione, e i genitori non possono essere contattati, saranno le autorità locali ad intervenire direttamente presso il domicilio dei giovani. Il metodo ha permesso interventi veloci in situazioni critiche, tuttavia ha anche sollevato polemiche per le sue implicazioni etiche.
Se da un lato il monitoraggio ha salvato vite, dall’altro ha generato conseguenze indesiderate. Alcuni ragazzi sono stati svegliati durante la notte dalla polizia per messaggi che si sono rivelati essere falsi allarmi, come poesie scritte anni prima o semplici ricerche.
L’uso di queste metodologie pone questioni delicate sul bilanciamento tra privacy e sicurezza. Organizzazioni per i diritti civili hanno espresso preoccupazioni, specialmente per i contenuti legati agli appartenenti alla comunità LGBTQ+ e per il rischio di un’inutile esposizione alle forze dell’ordine. Inoltre, i dati sugli esiti di tali misure sono spesso trattenuti dalle aziende tecnologiche e rendono difficile una valutazione completa dei benefici rispetto a eventuali danni.
Nonostante le critiche, molti educatori ritengono che rinunciare a questi strumenti potrebbe avere conseguenze tragiche. “Spegnerli significherebbe rischiare la vita di uno studente,” ha affermato Talmage Clubbs, direttore dei servizi di consulenza in una scuola del Missouri.
Il monitoraggio scolastico con intelligenza artificiale rappresenta una sfida complessa, che unisce progresso tecnologico e implicazioni sociali. Sebbene possa essere un’ancora di salvezza per giovani in difficoltà, la sua applicazione solleva domande su come preservare la dignità e i diritti dei ragazzi.