Non è un segreto: Amazon sta diventando l’unica alternativa a tante, forse troppe, piccole pratiche della nostra vita. Dallo shopping, agli alimentari, allo streaming, ai libri, il gigante griffato Jeff Bezos ha, negli ultimi quindici anni, invaso tantissime delle crepe sub-ottimali della nostra esistenza commerciale, offrendo prodotti che, sulla carta, dovrebbero condurci verso la loro ottimizzazione.
Tra gli ultimi di questi, in circolazione da ormai circa due anni, sono i sistemi di riconoscimento vocale. La schiera di prodotti, che varia leggermente in dimensioni, riconosce i comandi vocali dell’utente e chiede alla propria intelligenza artificiale, Alexa, di agirne a riguardo. L’inizio della loro permanenza nella vetrina virtuale di Jeff Bezos, vise un numero elevato di proteste e strani accadimenti svolgersi a contatto con gli strani oggetti. Ad esempio, uno dei video virali più cliccati dell’anno fu quello pubblicato su Instagram da una ragazza che, una volta chiesto alla sua assistente virtuale “se fosse connessa alla CIA”, non ricevette risposta oltre allo spegnimento inaspettato dell’aggeggio.
Siamo ormai relativamente distanti dall’euforia allarmista scatenata da quel piccolo episodio, e Amazon, in quanto a device per la casa, ha solamente ampliato il proprio catalogo, ed affinato oltremodo i servigi della sua musa Alexa. Di recente, però, il parallelo che lega la presenza di questi oggetti ad una narrativa di sorveglianza Orwelliana, sembra aver ripreso piede.
All’inizio di Ottobre, in fatti, Amazon ha patentato una sfaccettatura della propria intelligenza artificiale mirata a riconoscere lo stato fisico ed emotivo dell’utente, in base solamente alla voce. Fin qui, tutto bene. I mezzi che portano al fine, però, son ben più interessanti del fine stesso. Per riconoscere questo tandem di stati, i nuovi algoritmi di Alexa basano il loro giudizio su distinte caratteristiche fisiche della voce, tra le quali l’accento, l’origine etnica, l’età, e il sesso. Sulla carta, tutto ciò viene analizzato per poter offrire dei servizi pubblicitari più personalizzati. Al di fuori di ciò, però, un registro di tali informazioni, per ogni utente in linea, porta a sé una dialettica altamente allarmista, poiché queste informazioni sono, palesemente, utilizzabili a fini maliziosi con allarmante facilità.
Ad esempio, quando, pochi mesi fa, Amazon lanciò i propri algoritmi di riconoscimento facciale, oltre al lato pubblico, tentò (con successo) di virarne la presentazione il più possibile verso le forze dell’ordine. Ciò scatenò un esteso dibattito socio-culturale, diviso tra chi ritenesse ciò un’invasione della privacy, e chi lo ritenesse uno strumento di difesa interna necessario se non naturale. Ciò che stona, però, nello sviluppo di questi nuovi algoritmi di riconoscimento vocale, è il presentimento che Amazon possa, tutto ad un tratto, categorizzare i propri utenti per nazionalità, lingua nativa, ed accento. Come successe dunque con gli algoritmi di riconoscimento vocale, non è del tutto da escludere che Amazon possa provare a vendere questo tipo di algoritmi nuovamente alle forze dell’ordine, o addirittura a quelle di sorveglianza. La paura nasce, tutto sommato, dalle relativamente nascoste politiche di Amazon riguardanti le richieste postegli da governi e associazioni di sicurezza. Facendo filtrare poco, diventa difficile prevedere esattamente quante informazione, e quali, Amazon possa essere in grado di smerciare ai vari corpi di sorveglianza. Ciò che è relativamente ovvio, in tutto ciò, è il presunto interesse da parte di organi governativi verso questo tipo di tecnologia, poiché, un registro di nomi completo, organizzato per nazionalità o etnia, combinato in oltre con la cronologia di ordini, può effettivamente essere di gran uso ai governi di tutte le nazioni.
Quel che rimane da stabilire, dunque, è la moralità del caso. La tecnologia c’è, è stata sia sviluppata che patentata. Gli organi politici e quelli delle forze dell’ordine si avventeranno su questi servizi non appena glie ne sarà data la possibilità, poiché rappresentano un’opportunità troppo ghiotta. Quel che bisogna stabilire, dunque, è l’azione pubblica lungo l’asse morale: è da stabilire, se il mondo preferisca sapere che questi sistemi possano monitorare possibili offensori più di quanto detesti essere monitorato di per sé.