Spagna algoritmo

Spagna: un algoritmo previene la violenza domestica

Redazione Informare 02/01/2023
Updated 2023/01/02 at 2:12 PM
6 Minuti per la lettura

Da ben diciassette anni in Spagna un algoritmo aiuta le forze dell’ordine ad individuare i casi di violenza domestica più gravi. Funziona davvero?

Violenza di genere: un attacco ai diritti costituzionali

«La violenza di genere non è un problema che riguarda la sfera privata. Al contrario, essa rappresenta il simbolo più brutale dell’ineguaglianza esistente nella nostra società. Si tratta di una violenza che si rivolge contro le donne per il fatto stesso d’essere tali, per essere considerate dai loro aggressori carenti dei diritti minimi di libertà, rispetto e capacità decisionale.»

Si apre così la Ley Orgánica contro la violenza di genere emanata in Spagna nel 2004. Poi il monito ai poteri pubblici, che «non possono disinteressarsi della violenza di genere, la quale costituisce uno degli attacchi più evidenti a diritti fondamentali come quello alla libertà, all’eguaglianza, alla vita, alla sicurezza e alla non discriminazione che sono proclamati nella nostra Costituzione». 

La Legge Organica 10/2022

Tanto basta a comprendere quanto il tema della violenza di genere sia sentito nell’ordinamento spagnolo, al punto da intervenire nuovamente sul tema con la Ley Orgánica 10/2022. La legge nota come legge del “solo sì è sì” ha profondamente innovato la disciplina dei reati contro la libertà sessuale. 

Secondo la definizione accolta dalla novella, la violenza sessuale si configura sulla base dell’esistenza o meno del consenso libero, volontario e chiaro. Non rileva, dunque, il comportamento della vittima, la sua resistenza o meno all’aggressione, come invece sostenuto da parte della giurisprudenza. 

La legge introduce, tra l’altro, il reato delle molestie in strada e prevede misure di contrasto alla violenza sessuale digitale. Tra i pilastri della legge si staglia la prevenzione attraverso, in primo luogo, l’educazione sessuale, l’educazione sull’uguaglianza di genere e affettivo-sessuale. Ma anche la tecnologia gioca un ruolo di primo piano nel contrasto alla violenza di genere. Come?

VioGén: un algoritmo per prevenire il rischio di violenza di genere

Già nel 2007, su disposizione della Ley Orgánica 1 del 2004, in Spagna è stato introdotto un sistema algoritmico che valuta il rischio di recidiva nell’ambito della violenza domestica. Secondo l’indagine del ministero spagnolo, dopo il primo abuso le violenze si ripetono nel 15% dei casi. 

Partendo da questo dato, il software VioGén utilizza i dati delle denunce per elaborare previsioni di rischio. In particolare, il software analizza le risposte delle persone che segnalano episodi di violenza alla polizia e assegna un livello di protezione proporzionale alla gravità riscontrata. Mediante l’analisi previsionale, l’algoritmo punta il focus delle forze dell’ordine su quei casi a maggior rischio di recidiva

VioGén, dunque, sembrerebbe avere tutte le carte in regola per essere un validissimo ausilio per le forze dell’ordine. Tuttavia, non è proprio così. 

Lo studio di Eticas

Secondo lo studio condotto da Eticas, l’algoritmo tende a sottostimare il rischio di recidiva. 

Tra il 2003 e il 2021, infatti, ben 71 donne assassinate avevano precedentemente presentato una denuncia senza ottenere un livello di rischio che comportasse la protezione della polizia. Inoltre, nel 2021, solo 1 donna su 7 che ha chiesto protezione alla polizia l’ha effettivamente ricevuta. 

Secondo la valutazione di Eticas, questo bias potrebbe essere legato ai continui tagli finanziari. Più precisamente, l’algoritmo fornirebbe un numero di punteggi di rischio “estremo” – cioè, rischio di omicidio – parametrato alle risorse disponibili. VioGén, tra l’altro, sottovaluterebbe le forme di violenza psicologica e non-fisica. Un’ulteriore criticità è data dalla qualità dei dati elaborati dall’algoritmo.

Al momento della denuncia, infatti, le vittime sono chiamate a compilare dei questionari sugli indicatori di rischio. Tuttavia, rispondere correttamente alle domande si rileva estremamente complicato a causa del carico emotivo del momento, soprattutto se in sede di redazione del questionario manchi il supporto degli agenti di polizia.

Il dato più allarmante è che, sebbene gli ufficiali di polizia possano correggere la valutazione di rischio, nel 95% dei casi accettano acriticamente il risultato dell’algoritmo. Il pericolo è che il software si trasformi in uno strumento di deresponsabilizzazione delle forze dell’ordine, un ulteriore passaggio burocratico a detrimento della tutela delle vittime. 

Possibili soluzioni

Tra le raccomandazioni di Eticas v’è quella di aumentare il numero di ufficiali specializzati in violenza di genere e di fornire supporto psicologico alle vittime. È opportuno, peraltro, intervenire sul dato algoritmico, corredando lo stesso di una motivazione, per implementarne la trasparenza. Ancora, si suggerisce di avere riguardo del feedback delle vittime e delle parti interessate nell’aggiornamento del software. 

Il monito che si ricava dall’esperienza spagnola è che il software non può che rappresentare un mero supporto dell’attività umana. Nel fornire assistenza alle vittime di violenza di genere, infatti, il contatto umano, l’empatia, l’ascolto sono imprescindibili per comprendere al meglio le dinamiche degli episodi di violenza e i loro possibili sviluppi. 

di Ilaria Ainora e Edna Borrata

Condividi questo Articolo
Lascia un Commento

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *