L’Italia ha ricevuto 38 milioni di euro negli ultimi quindici anni. Solo Francia e Spagna hanno avuto di più. Un report dell’ong Statewatch mostra i rischi connessi all’uso di questa tecnologia sui migranti
di Laura Carrer
L’Italia è al terzo posto per quantità di fondi europei destinati alla ricerca nel campo dell’intelligenza artificiale per il controllo delle frontiere. Con Francia e Spagna in testa, ogni anno in Italia arrivano 38 milioni di euro, il 12% del budget totale distribuito dall’Unione europea negli ultimi quindici anni, che ammonta a 341 milioni di euro.
Sono le cifre emerse dalla ricerca A clear and present danger realizzata dall’organizzazione inglese Statewatch, da molti anni attiva per la promozione dei diritti digitali, che restituisce un’immagine dell’Europa zoppicante. Secondo l’organizzazione, che ha lavorato insieme a European Digital Rights e Access Now tra le altre, l’attuale proposta di regolamentazione europea sull’intelligenza artificiale,
l’AI act, non fornisce infatti adeguate salvaguardie sull’uso di questa tecnologia in campo migratorio. La proposta, dice la Commissione europea, “è basata sui diritti fondamentali e sui valori dell’Ue con lo scopo di dare alle persone e agli altri utenti la fiducia nell’adozione di soluzioni basate sull’IA, incoraggiando al contempo le aziende a svilupparle”.Due pesi, due misure
Non ci sono però particolari obblighi in merito all’uso di intelligenza facciale ai confini: una scelta che permetterà di fatto, così come dichiarato dalla Commissione Europea, lo sviluppo di tecnologie che metteranno a rischio alcune categorie di persone senza nessuna tutela normativa. In questo caso, afferma l’organizzazione, “è vitale che il legislatore, e la legge stessa, riconosca il problema e imponga di conseguenza dei limiti e delle salvaguardie sul design e sull’uso di AI in contesto ad alto rischio, in questo caso il controllo delle migrazione”.
Secondo l’Unione poi i rischi inaccettabili nell’uso di questa tecnologia, oltre alla sorveglianza svolta in tempo reale nello spazio pubblico, sono esemplificati dai sistemi che operano “tecniche subliminali”, ovvero che sfruttano gruppi vulnerabili e che assegnano un punteggio alle persone giudicandone il comportamento e le caratteristiche fisiche. Il controllo ai confini o il mancato accesso al welfare sono esemplificativi di come queste tecniche o giudizi siano però giustificate quando le persone sulle quali si operano sono migranti.
IA e forze dell’ordine
Come riportato da Statewatch su questo punto, “ogni pratica che mina l’essenza dell’autonomia di una persona causa un danno”. Stesso discorso per il tema della vulnerabilità, definita unicamente attraverso fattori come l’età e la disabilità fisica e psichica. “La legge dovrebbe considerare tutte le caratteristiche sensibili come potenziali indicatori di disuguaglianza (e quindi con un più alto rischio di vulnerabilità)”, si legge nel report. Non solo età, sesso attribuito alla nascita ma anche provenienza etnica, stato di salute, orientamento sessuale e stato socio-economico; si parla di sorveglianza marittima, Promenade – in corso fino al 2023 – e Ranger sono i più esemplificativi. Il primo punta ad applicare intelligenza artificiale e big data per il monitoraggio (e il rilevamento automatico di eventuali anomalie) delle navi nel Mediterraneo, favorendo lo scambio di queste informazioni tra autorità internazionali. In questo progetto Leonardo, partecipata al 30% dal ministero dell’Economia e delle finanze, ha preso parte insieme a sei ministeri europei in varie materie. Nel secondo, Ranger, progetto di sorveglianza marittima con lo scopo di creare tecnologie radar che possano allertare le autorità in caso di eventuale riconoscimento di nave sospetta al largo del Mediterraneo, Leonardo ha la fetta maggiore di finanziamento dopo la francese Cs Groupe.
La spinta europea per la creazione di dataset e tecnologie che aumentino il potere degli stati membri ai confini si ripercuote sui migranti.
Il lancio della campagna europea Reclaim Your Face due anni fa non ha sancito poi un vero e proprio divieto nell’utilizzo di tecnologie biometriche nello spazio pubblico, così come chiesto dalle oltre 60 associazioni a supporto della campagna. In alcuni casi come la ricerca di vittime di crimini o sospetti, l’identificazione biometrica è considerata “strettamente necessaria” e potrebbe essere utilizzata dall’autorità di polizia per fini securitari. È chiaro quindi, dice Statewatch, che “si permette l’utilizzo [di questi sistemi, ndr] per il controllo delle migrazioni e dell’asilo e […] questo pone in una situazione di alto rischio il diritto alla non discriminazione e alla privacy”.
La posizione dell’Unione europea in merito alla ricerca nel campo dell’intelligenza artificiale è che tecnologie di questo tipo continuano a poter essere studiate in tutte le loro applicazioni, e per Statewatch “non è chiaro quale bisogno ci sia di fare ricerca nel momento in cui questi sistemi sono proibiti nella realtà”. A livello generale poi, così come già affermato da numerose associazioni per la promozione dei diritti digitali, la proposta di regolamento proibisce unicamente i sistemi di intelligenza artificiale menzionati nella legge, limitando notevolmente il campo di azione che una norma di questo tipo potrebbe avere in contesto europeo.
Gli appalti in Italia
I finanziamenti dell’Unione europea monitorati dalla ong risultano essere finiti perlopiù nelle tasche delle compagnie private. In Italia gioca la parte del leone Leonardo. Marisa, Promenade e Ranger sono i tre progetti vinti con Horizon 2020 dall’ex Finmeccanica, che ha ricevuto dall’Unione europea più di 3 milioni di euro. Il progetto Marisa, che coinvolge anche l’Università di Bologna, ha avuto lo scopo di creare uno strumento che permettesse lo scambio di dati e informazioni raccolte su internet o sui social media. “La soluzione proposta fornirà meccanismi per ottenere informazioni da qualsiasi fonte di big data, eseguire analisi di una varietà di dati in base alla rappresentazione geografica e spaziale, utilizzare tecniche per cercare modelli tipici e nuovi che identifichino possibili connessioni tra eventi”, viene riportato sulla scheda del progetto.
...rischia di entrare nei meccanismi di un sistema di controllo pericoloso e senza vie d’uscita concrete, come emerge anche da un report del Centro Hermes per la trasparenza e i diritti umani digitali*. I respingimenti di Frontex negli ultimi anni sono certamente un primo campanello d’allarme sull’impatto che la non-regolamentazione del settore potrebbe causare in futuro. Un tema importante da considerare, dice Statewatch, se vogliamo regolare il futuro dell’intelligenza artificiale per tutti.
*L’autrice di questo articolo ha contribuito allo studio
da Wired
Nessun commento:
Posta un commento