L’uso delle tecnologie nei sistemi di protezione sociale minaccia i diritti umani
Amnesty International ha pubblicato un nuovo rapporto sulle tecnologie digitali, tra cui l’intelligenza artificiale, l’automazione e i processi decisionali algoritmici, che stanno esacerbando le disuguaglianze nei sistemi di protezione sociale a livello globale.
Dalla Serbia all’India, fino ai Paesi Bassi, queste tecnologie vengono accolte dai governi come sistemi all’avanguardia per migliorare la distribuzione delle risorse e i sistemi amministrativi, identificare eventuali frodi e potenziare la sicurezza. Tuttavia, Amnesty International ha dimostrato che la digitalizzazione incontrollata dei sistemi di protezione sociale comporta numerosi rischi per i diritti umani e aggrava le disuguaglianze.
La Social Card introdotta in Serbia rappresenta un esempio di un sistema decisionale semi-automatico utilizzato in un contesto di sicurezza sociale già compromesso, con conseguenze dirette sulle comunità marginalizzate, come indicato in un rapporto del 2023 di Amnesty International. La tecnologia, utilizzata senza adeguate salvaguardie o protezioni dei diritti umani, ha influito in modo significativo sulle comunità rom (nella foto) e sulle persone con disabilità.
Tale sistema ha ampliato le discriminazioni esistenti e ha creato ulteriori ostacoli all’accesso al diritto alla sicurezza sociale. Molte delle persone intervistate da Amnesty International sono state private del loro già esiguo sostegno finanziario, il che ha comportato l’interruzione del loro accesso a beni e servizi essenziali, come cibo e medicine, a causa di alcune falle nel registro della Social Card.
In India, il sistema di identificazione biometrica Aadhaar, che fornisce un numero di identificazione unico a cittadini e residenti, compresi i bambini, viene utilizzato come metodo di verifica e autenticazione delle informazioni di identità in vari servizi pubblici, tra cui prestazioni di sicurezza sociale e razioni alimentari. Questo avviene attraverso metodi completamente digitalizzati. Giornalisti e ricercatori della società civile, tra gli altri, hanno documentato come tutto ciò abbia portato all’esclusione di molte persone dalla protezione sociale fondamentale.
Nel 2021, Amnesty International ha documentato come un sistema algoritmico utilizzato dall’Agenzia delle entrate olandese avesse utilizzato la profilazione razziale sui beneficiari degli assegni familiari. Lo strumento avrebbe dovuto verificare se le richieste di prestazioni fossero legittime o fraudolente, ma il sistema aveva erroneamente penalizzato migliaia di genitori provenienti da famiglie a basso reddito e di origine migratoria, trascinandoli in indebitamenti ingenti e povertà.
Secondo Amnesty International, è essenziale che prima di introdurre la tecnologia nei sistemi di protezione sociale, gli stati considerino attentamente e valutino il suo utilizzo in relazione ai potenziali rischi per i diritti umani.
L’introduzione di qualsiasi tecnologia deve essere accompagnata da valutazioni indipendenti e solide sull’impatto sui diritti umani durante l’intero ciclo di vita del sistema, dalla progettazione alla messa in opera, e dall’adozione di efficaci misure di mitigazione.
Questo articolo è stato pubblicato qui
Lasciare un commento
Per commentare registrati al sito in alto a destra di questa pagina
Se non sei registrato puoi farlo qui
Sostieni la Fondazione AgoraVox