top of page

Accenni di metodologia

Per stimare in modo credibile l'andamento della mortalità durante la pandemia è opportuno ricorrere all'uso di dati relativi alle morti per ogni causa, non solo alle morti ufficialmente attribuite al Covid-19, che sono probabilmente sottostimate. Ciò consente di misurare non solo le morti direttamente dovute alla pandemia, ma anche le dinamiche di mortalità collegate agli effetti collaterali del lockdown, come la diminuzione della mortalità dovuta ad incidenti stradali oppure l’aumento della mortalità causato dal congestionamento delle strutture ospedaliere o dalle mancate richieste di soccorso legate al timore di contagio negli ospedali.

Considerare le morti per ogni causa permette di stimare l'eccesso di mortalità.

L'eccesso di mortalità è definito come la differenza tra il numero di decessi osservati (fonte dati Istat) e il numero di decessi attesi in una situazione di normalità, cioè in caso di assenza della pandemia in ciascun comune italiano, nel periodo di riferimento (nel caso italiano, dal giorno ufficiale di inizio pandemia, ovvero il 21 febbraio 2020).

Il numero di decessi attesi in una situazione di normalità può essere stimato, tra gli altri, attraverso approcci 'intuitivi', controfattuali, o di machine learning. 

Il nostro lavoro utilizza proprio questi tre.

L'approccio 'intuitivo' consiste nel confrontare il trend dei decessi nel 2020 per un dato comune con i suoi trend nel passato (nell'anno precedente o per la media degli anni precedenti).

L'approccio controfattuale che adottiamo è il trajectory balancing. Esso consiste nella costruzione di un'unità sintetica come media ponderata del trend dei decessi nel periodo 2015-2019 dello stesso comune e di comuni con caratteristiche (demografiche, sanitarie, economiche e ambientali) simili ad esso. Non è possibile utilizzare dati al 2020 per la costruzione dell'unità sintetica, in quanto tutti i comuni italiani, seppure in maniera eterogenea, sono stati colpiti dalla pandemia. Ciò è possibile grazie alla poca volatilità del dato sulla mortalità.

Gli algoritmi di machine learning utilizzati sono tre: Least Absolute Shrinkage and Selection Operator (LASSO), Random Forest e Stochastic Gradient Boosting. Caratterizzati da crescenti gradi di complessità e flessibilità, permettono di predire i dati sulla mortalità in condizioni di normalità. Per maggiori dettagli si consulti la sezione "Data and Methodologies" dell'articolo accademico.

L'approccio e quindi l'algoritmo che, in media, restituisce stime migliori, facendo un errore quadratico medio inferiore fino al 18% delle stime dell'approccio intuitivo, è il LASSO, che riportiamo nelle mappe.

La migliore accuratezza delle stime si ha soprattutto ad un livello più granulare, cioè in comuni di piccole e medie dimensioni.

Per ulteriori dettagli, si rimanda ai riferimenti presenti nell'articolo accademico.

bottom of page