Protezione dei dati e fake news. In queste ore, le parole Facebook e Cambridge Analytica sono comparse parecchie volte sul vostro schermo, vero? Mentre il Parlamento Europeo ha convocato il fondatore del social, Mark Zuckerberg, accusato di aver “ingannato” l’organismo europeo in precedenti audizioni, per chiedergli maggiori delucidazioni sulla protezione dei dati e mentre Facebook crolla in Borsa, la vicenda si ingrossa. Anche se ormai è conosciuta dai più, è bene dare una rinfrescatina ai suoi passaggi per capirli meglio.

Riassumendo.
Il primo passaggio:
- C’è una società che si chiama Cambridge Analytica, fondata nel 2013 dall’imprenditore miliardario Robert Mercer e il cui CEO è Alexander Nix, specializzata nel realizzare profili psicometrici delle persone, attraverso i dati raccolti sui social network. Una società che sembra abbia avuto accesso a oltre 50 milioni di utenti USA del social di Mark Zuckerberg e a cui il comitato elettorale di Donald Trump si è affidato per la realizzazione di un’intensa attività online durante le presidenziali 2016, di duplice genere: raccolta-dati e pubblicazione di pubblicità altamente personalizzate e targettizzate sui singoli utenti, attraverso l’uso di un algoritmo capace di tracciare le loro emozioni, partendo dai loro dati.
Il secondo passaggio:
- C’è un’applicazione di nome ”thisisyourdigitallife”, realizzata da un ricercatore di Cambridge, Aleksandr Kogan, che fino al 2015 ha offerto di produrre online su Facebook dei profili psicologici digitali. Una specie di “quiz”, che usava come base le attività online dell’utente e a cui si poteva accedere registrandosi tramite il proprio login Facebook. L’applicazione di Kogan, in questo modo, aveva accesso ai dati personali di chi si era incuriosito dell’applicazione e si è registrato (circa 270mila in tutto), ma ha avuto anche accesso indirettamente ai profili Facebook degli amici degli iscritti. Una pratica che era consentita allora a tutte le applicazioni, secondo le condizioni d’uso di Facebook non più in vigore oggi.
Il terzo passaggio:
- Due inchieste del New York Times e del The Guardian, pubblicate a metà marzo, hanno scoperto però che “thisisyourdigitallife” avrebbe venduto nel 2015 i dati raccolti attraverso le registrazioni dei suoi iscritti (270mila) e degli amici degli iscritti (fino a 50 milioni, secondo le stime dei due giornali) a Cambridge Analytica. Questa, invece, è sempre stata una pratica illegale. Le condizioni d’uso di Facebook di allora e di oggi infatti vietavano e vietano ai proprietari delle app (come “thisisyourdigitallife”) di condividere a società terze (come Cambridge Analytica) i dati raccolti sugli utenti. Pena, il ban del profilo di quell’app su Facebook e il ban del profilo di chi ha acquisito i dati, oltre che la cancellazione di tutti i dati raccolti fino a quel momento. Ban, però, che per Cambridge Analytica non è mai arrivato, se non venerdì 16 marzo 2018, a quasi tre anni dal momento in cui quella pratica illegale avrebbe avuto luogo. E questo nonostante Christopher Wylie, ex dipendente di Cambridge Analytica e principale fonte del The Guardian, abbia detto che Facebook fosse a conoscenza del problema già dal 2016. Accusandola, quindi, di essere indirettamente responsabile dell’utilizzo dei dati di Cambridge Analytica.

Insomma, un’applicazione ha raccolto dei dati vendendoli a una società (al cui interno era consigliere anche Michael Flynn, ex consigliere di Trump coinvolto nell’indagine Russiagate, e il cui fondatore dava fondi al giornale di Steve Bannon, ex consulente della strategia di Trump), che li avrebbe usati per influenzare un’elezione politica: sembra una puntata di Black Mirror, vero? E invece no. È una realtà virtuale che assume i contorni della concretezza. Le domande sono tante, certo. Una fra tutti: ma ci si può ancora fidare di Facebook? Per anni il social network di Mark Zuckerberg ha aperto le proprie porte alle applicazioni e ai suoi sviluppatori, permettendo loro di usare il social network per raccogliere dati. Dati utili allo sviluppo delle applicazioni stesse e sicuri per gli utenti, in quanto filtrati della loro identità e protetti da privacy. Dati però dannosi del rispetto stesso della privacy se venduti a società terze, come infatti era stato vietato dalle condizioni d’uso di Facebook e come sembra sia successo nel caso di Cambridge Analytica. E non solo. Già nel 2010 ad esempio un’inchiesta del Wall Street Journal rivelò che un’azienda di monitoraggio online – RapLeaf – stava raccogliendo e rivendendo dati raccolti su Facebook, a società di marketing e a consulenti politici.
La vision di Facebook, in realtà, non è oscura come lo scandalo Cambridge Analytica può farci credere. Mark Zuckerberg, il suo team e i sviluppatori dell’app, hanno sempre supportato e sostenuto l’idea di una visione aperta del mondo, capace di favorire la raccolta e la condivisione dei dati per lo sviluppo di piattaforme e di strumenti integrati utili alle vite reali delle persone. Lo ha ribadito anche uno dei vicepresidenti di Facebook, Andrew Bosworth. Che in un post su Facebook dal suo profilo ha scritto di recente: “Abbiamo pensato che ogni applicazione potesse essere social. Che il vostro calendario dovesse essere integrato con i vostri eventi Facebook e con i compleanni dei vostri amici, che le vostre mappe dovessero sapere dove vivessero i vostri amici, che la vostra rubrica dovesse mostrarvi le foto dei vostri contatti. Era una visione ragionevole, ma non si è materializzata nel modo in cui avevamo sperato”. La sensazione infatti è che Facebook a volte non sia riuscita e non riesca tutt’oggi a gestire le situazioni di abuso del proprio regolamento e gli episodi di violazione più importanti. Che ci arrivi tardi, quando già l’azione illegale è stata compiuta. O che a volte nemmeno se ne renda conto. A novembre 2016, Mark Zuckerberg aveva definito “pazza” l’idea che le fake news create ad hoc (da realtà come Cambridge Analytica) avessero potuto influenzare il risultato delle elezioni 2016. Oggi, dopo quanto emerso nel caso Cambridge Analytica ma non solo, la percezione è ben diversa, anche all’interno del social network. E lo è per bocca dello stesso Facebook, che dal 2015 ha reso noto di aver implementato la propria policy per evitare che realtà come “thisisyourdigitallife” possano accedere ai dati degli utenti come invece accadeva allora: “I dati che Cambridge Analytica, SCL, Wylie e Kogan hanno usato, certificati tramite Facebook, sono stati distrutti. Se questi dati esistono ancora, si tratterebbe di una grave violazione delle politiche di Facebook e di un’inaccettabile violazione della fiducia e degli impegni assunti da questi gruppi” ha scritto il social network in un post sulla propria newsroom, dove ha evidenziato: “Ci stiamo muovendo in modo aggressivo per determinare l’accuratezza di queste affermazioni. Rimaniamo impegnati a rafforzare vigorosamente le nostre politiche per proteggere le informazioni delle persone. Desideriamo inoltre chiarire che oggi, quando gli sviluppatori creano app che richiedono determinate informazioni da parte di persone, conduciamo una solida revisione per identificare potenziali violazioni delle norme e valutare se l’app ha un uso legittimo dei dati. In realtà, rifiutiamo un numero significativo di app attraverso questo processo. L’app di Kogan non consentirebbe oggi l’accesso ai dati degli amici dettagliati oggi”.

Insomma, Facebook sembra aver imparato la lezione. Anche se forse è troppo tardi. E anche se forse non può nemmeno forzare troppo la mano: secondo molti addetti ai lavori, infatti, se Mark Zuckerberg iniziasse a usare il pugno di ferro con tutti gli sviluppatori di tutte le app, quegli stessi sviluppatori potrebbero migrare su altre piattaforme o crearne di proprie, abbandonando Facebook. E questo rischierebbe di far crollare il sistema-azienda ormai consolidato, su cui lo stesso Facebook ha basato molti dei propri investimenti. Al suo interno, non a caso, proprio su questi temi le scaramucce interne non mancano. Secondo quanto riportato dal New York Times mercoledì 19 marzo, Alex Stamos, Chief Information Security Officer Facebook, sarebbe in procinto di lasciare entro agosto la corte di Mark Zuckerberg per divergenze d’opinione con i senior dell’azienda sulle interferenze russe nelle elezioni statunitensi 2016 e sulla gestione della concessione dei dati alle applicazioni. Una notizia smentita da Stamos, che ha reso noto di non voler lasciare l’azienda, pur riconoscendo che in queste settimane c’è stato un “cambio di ruolo”, che però non intacca il suo “pieno coinvolgimento nel mio lavoro su Facebook”.

Ora, in ogni caso, la palla passa a noi. A noi utenti. Guardiamoci in faccia e parliamoci con chiarezza. Potrebbe succedere o no anche in Italia o in Europa, che profili fake creati ad arte da società di consulenza, usando dati che abbiamo direttamente o indirettamente concesso loro, possano interferire nella nostra vita e nella vita politica del nostro Paese? Risposta: sì. Facciamocene una ragione. Facebook ha il dovere morale di continuare – o iniziare? – a lavorare nella direzione che sembra aver voluto intraprendere, per permettere che i nostri dati non vengano rivenduti e utilizzati più, da chi li vuole sfruttare per secondi fini. Ma con tutta la buona fede e tutte le buone precauzioni del mondo, con 2,2 miliardi di utenti nel mondo e milioni di applicazioni, software e sviluppatori in giro per il web, tutto questo potrebbe non bastare.
Ecco perché un po’ sta anche a noi. Alla nostra educazione digitale. Alla nostra cura dei nostri dati personali. C’è infatti un passaggio di questa vicenda, nella quale non si è verificata nessuna falla in nessun sistema e in cui nulla è stato rubato, ma semmai venduto illegalmente e male controllato dai coloro i quali avrebbero dovuto controllare, che in pochi hanno evidenziato: ma se quei 270mila utenti non avessero concesso così a cuor leggero l’accesso dei propri dati e della propria privacy a “thisisyourdigitallife” per usare una demenziale app-quiz sulla creazione di un’identità digitale, tutto questo circolo vizioso che sta coinvolgendo Cambridge Analytica, Facebook e la campagna elettorale di Donald Trump, sarebbe mai partito? La risposta, probabilmente, è no. O almeno non da qui. E questo deve far riflettere.