E’ quasi la fine di Ottobre 2020 e Giorgio Parisi, Presidente dell’Accademia dei Lincei, la più antica istituzione scientifica italiana, fondata nel 1603 da Patrizio Cesi, un botanico che ebbe tra i suoi soci Galileo Galilei, lancia un monito sul blog dell’Huffingtonpost: “Misure drastiche o a metà novembre 500 morti al giorno”. Il suo monito nasceva da un grafico in cui si faceva vedere l’andamento dei nuovi casi e i morti mediati su di un intervallo di una settimana. Da metà settembre in poi i morti e i casi aumentavano pari a un raddoppio ogni settimana.
Il documento conteneva anche una serie di azioni da fare per contenere la epidemia, ma soprattutto richiamava un precedente documento fatto dalla commissione Covid-19 dell’Accademia dei Lincei in cui si riteneva che “superata la fase acuta della epidemia, sia giunto il momento, per le istituzioni sanitarie regionali, l’Iss e la Protezione Civile di pianificare una condivisione dei dati concertata con la comunità scientifica”. Richiamando che: “Apparentemente niente è stato fatto in quella direzione e le amare conclusioni del documento linceo sono ancora di grande attualità. In assenza di trasparenza, ogni conclusione diviene contestabile sul piano scientifico e, quindi, anche sul piano politico. Solo con la trasparente alleanza tra scienza e politica possiamo affrontare efficientemente la convivenza con il coronavirus e prevenire una possibile insorgenza del Covid-19 o gestire l’emersione di future, possibili, epidemie”.
Il 15 di Novembre, ospite a “Mezz’ora in più” dichiara che “L’Rt così non è affidabile, capisco le difficoltà di fare delle stime, ma il calcolo dell’Rt dovrebbe rintracciare le persone che si sono ammalate e capire quando si sono ammalate. Va fatto sforzo enorme, è normale che si siano difficoltà visti i numeri”.
In tempi in cui tutti si riempiono la bocca della parola “Big Data”, si assiste ad un ennesimo fallimento metodologico. Sempre lo stesso: mancano i dati e quelli che ci sono, sono parziali e non affidabili. Non è un problema di oggi, è il problema che si trova a sperimentare sempre lo scienziato quando tratta dati che non sono stati preordinati da un esperimento costruito ad hoc: lacune, dati parziali, se non addirittura artefatti e via discorrendo.
Per ovviare a questi inconvenienti è necessario che i dati relativi alla pandemia siano rigorosamente disponibili a tutti i livelli, anche se parziali o artefatti, attraverso un canale di accesso libero. Sarà poi cura dello scienziato valutarne la bontà con le tecniche che meglio conosce. In tal modo le varie discipline scientifiche potranno analizzare i dati con finalità proprie, creando anche un mosaico di informazioni che dovranno essere poi rianalizzate, utilizzando anche sistemi di Intelligenza Artificiale.
Per far questo tuttavia non è solo necessario avere i dati a tutti i livelli ma bisogna creare una banca dati nazionale della epidemia in cui confluiscano tutte le informazioni numeriche e non, al fine di definire il fenomeno e poterlo trattare per una eventuale recrudescenza o in casi di nuove epidemie. E’ una esigenza immediata che non può essere lasciata alla libertà dei singoli, ma deve essere normata. La comunità scientifica italiana ha le competenze per analizzare questi dati, a partire dall’Istat e dall’Istituto Superiore di Sanità fino a chi si occupa di analizzare sistemi complessi come il Centro Fermi o alcuni istituti del CNR. Allora sì che avrebbe senso parlare di Big Data al servizio della società.