informareonline-clerview-AI

Clearview AI: il software di riconoscimento facciale utilizzato dall’Ucraina

Ilaria Ainora 15/03/2022
Updated 2022/03/14 at 9:53 PM
3 Minuti per la lettura

L’Ucraina ha iniziato a utilizzare il riconoscimento facciale Clearview AI durante il conflitto con la Russia. Il software, in grado di estrarre immagini dai social media e da altre piattaforme, è stato di recente multato dal Garante privacy italiano.

Clearview AI al servizio del ministero della Difesa ucraino

Sembrerebbe che l’Ucraina abbia iniziato ad avvalersi del software di riconoscimento facciale Clearview AI. La notizia è stata riportata da Reuters online e rilanciata da altri media americani. La società Clearview AI avrebbe inviato una lettera all’Ucraina offrendo le proprie applicazioni a supporto della causa ucraina nel conflitto. In particolare, il software servirebbe ad aiutare a “scoprire assassini russi, combattere la disinformazione”, nonché ad identificare i caduti. Al momento non sono chiare le finalità per le quali il ministero della Difesa stia utilizzando il software.

Cos’è Clearview AI

Clearview AI è una società con sede legale negli Stati Uniti nata nel 2017. La società statunitense, specializzata in software di riconoscimento facciale al servizio delle forze dell’ordine, non sarebbe estranea a violazioni della privacy dei dati.

Sembrerebbe, inoltre, aver a disposizione un database di 10 miliardi di volti. Di questi, più di 2 miliardi di immagini proverrebbero dal social media russo VKontakte.

Sanzioni e criticità

Soltanto la scorsa settimana l’Italia ha multato la società per 20 milioni di euro per aver violato le leggi sulla privacy dei consumatori Ue. Il Garante privacy ha, inoltre, ordinato di cancellare tutti i suoi dati sui residenti in Italia.

Sanzioni simili anche dall’Inghilterra e dalla Francia. L’Ufficio del Commissario per le informazioni del Regno Unito avrebbe ordinato alla società di interrompere l’elaborazione di tutti i dati degli utenti a novembre. Ha fatto seguito un ordine simile dalla Francia, a dicembre.

Il parere dell’esperto

Sulle criticità del software si è espresso Pierluigi Paganini, esperto di cybersecurity ed intelligence. In una dichiarazione rilasciata all’ANSA ha infatti dichiarato che “L’uso sul campo del sistema di riconoscimento facciale Clearview AI apre scenari inquietanti.” Ha, poi spiegato che “diversi studi hanno dimostrato che i sistemi di intelligenza artificiale forniscono a volte indicazioni errate, ‘falsi positivi'”. La circostanza sarebbe particolarmente allarmante se inserita in un “contesto di guerra e di confusione”.

Se è vero che quest’applicativo può essere usato a scopi umanitari, ad esempio al fine di favorire il ricongiungimento agevolato delle famiglie o il riconoscimento più veloce delle vittime, al contempo comporta rischi di non poco momento in altre situazioni. Questi sistemi, infatti, sono affetti da errori, sicché “potrebbero far prendere delle decisioni sbagliate in un terreno di guerra in cui bisogna agire velocemente”. Ha poi concluso che Clearview AI considera il terreno militare “come mercato potenziale per espandere il suo business”.

Condividi questo Articolo
Lascia un Commento

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *