Altro che detective. Per scovare i "furbetti" del welfare c'è chi usa l'Intelligenza artificiale. Ma "viola i diritti umani"

Altro che detective. Per scovare i "furbetti" del welfare c'è chi usa l'Intelligenza artificiale. Ma "viola i diritti umani"

Febbraio 05, 2020 - 16:54

Fa discutere in Olanda il sistema di sorveglianza automatizzato elaborato dal Governo in materia di welfare state. L'algoritmo incrocerebbe varie banche dati per stabilire chi è più probabile che abusi di prestazioni sociali. Ora un tribunale l'ha giudicato irregolare. Ma anche altri Governi stanno mettendo in campo strategie di controllo basate sull'intelligenza artificiale e i dati personali.

In Svizzera due anni fa si era discusso, soppesando tutela della privacy e lotta agli abusi, sulla possibilità per le assicurazioni sociali di impiegare detective per "scovare" eventuali casi di abuso. Come noto la votazione di novembre 2018 aveva visto una maggioranza della popolazione a favore di questa possibilità.
 
In altri Paesi la discussione ha raggiunto decisamente un altro livello. Per scovare i "furbetti" del welfare state, coloro che abusano di prestazioni sociali, ricevendole nonostante non ne abbiano diritto, il Governo olandese (e si presume altri nel mondo) hanno deciso di affidarsi all'intelligenza artificiale, tramite un sistema di sorveglianza automatizzato. Un tribunale olandese ha però ordinato l'immediata sospensione del sistema automatizzato per l'individuazione di frodi in materia di welfare, in quanto viola i diritti umani sotto il profilo della tutela dei dati e della privacy. Una sentenza che potrebbe avere un'eco ben al di la dei Paesi Bassi. 
 
La sentenza è stata accolta con favore dal relatore speciale dell'ONU sulla povertà estrema e i diritti umani, Philip Alston, che la ritiene "una chiara vittoria per tutti coloro che sono giustamente preoccupati per le gravi minacce che i sistemi di welfare digitale rappresentano per i diritti umani". Secondo Alston la sentenza "stabilisce un forte precedente legale da seguire per altri tribunali". "Questa è una delle prime volte in cui un tribunale ha fermato l'uso delle tecnologie digitali e delle abbondanti informazioni digitali da parte delle autorità del welfare per motivi di diritti umani", ha aggiunto. 
 
Un verdetto che verrà letto con attenzione anche nel Regno Unito, dove pure il governo sta accelerando lo sviluppo di un sistema automatizzato di controllo dei beneficiari di prestazioni sociali. 
 
Secondo un'indagine condotta dal giornale "The Guardian" lo scorso ottobre il Dipartimento per il Lavoro e le Pensioni britannico ha aumentato la propria spesa a circa 8 milioni di sterline l'anno per un’"officina di automazione intelligente", dove informatici stavano sviluppando più di 100 programmi intelligenti da utilizzare nel settore del welfare. 
 
Ma come funziona il sistema messo a punto dal Governo olandese? Il "sistema di indicazione del rischio" (SyRI) è un modello di calcolo del rischio sviluppato nell'ultimo decennio dal Ministero degli affari sociali e dell'occupazione per calcolare la probabilità che un individuo commetta una frode previdenziale o fiscale, o violi le leggi sul lavoro.
 
Come spiega il Guardian è impiegato principalmente nei quartieri a basso reddito, raccoglie i dati governativi precedentemente conservati in database separati, come ad esempio quelli sull'occupazione, i dati relativi al debito personale e alle prestazioni sociali, l'istruzione e la storia abitativa, quindi li analizza utilizzando un algoritmo segreto per identificare quali individui potrebbero essere a più alto rischio di commettere frodi sulle prestazioni sociali.
 
Una vasta coalizione di gruppi a favore della  privacy e dei diritti sociali, sostenuta dal più grande sindacato olandese, ha sostenuto che i quartieri poveri e i loro abitanti sono stati spiati digitalmente senza alcun concreto sospetto di illecito individuale, prendendo di mira in modo sproporzionato i cittadini più poveri, violando dunque le norme sui diritti umani.
 
Il tribunale ha stabilito che la legislazione del SyRI contiene garanzie insufficienti contro le intrusioni nella privacy e ha criticato una "grave mancanza di trasparenza" sul suo funzionamento. Nella sentenza si giunge alla conclusione che in mancanza di maggiori informazioni, il sistema può costituire una discriminazione sulla base dello status socio-economico o di quello di migrante. Il governo olandese può ora ricorrere in appello contro la decisione.