DontSpyEU la campagna provocatoria per convincere il Consiglio a vietare le tecnologie di sorveglianza biometrica nel regolamento europeo sull’AI
Hermes Center, The Good Lobby e info.nodes lanciano questa iniziativa per impedire agli Stati membri di gettare le basi della sorveglianza di massa
Durante l’ultimo trilogo sul regolamento europeo sull’intelligenza artificiale conclusosi ieri, diversi Governi dell’UE hanno esercitato pressioni per indebolire significativamente il divieto all’utilizzo di sistemi per l’identificazione biometrica in tempo reale e per il riconoscimento delle emozioni, in nome della sicurezza nazionale e della “difesa delle frontiere”. Una normativa così debole, se approvata, può essere sfruttata per esercitare la sorveglianza di massa, denunciano Hermes Center, The Good Lobby e info.nodes.
Per questo, in vista del prossimo negoziato previsto per il 6 dicembre, le 3 organizzazioni lanciano una provocazione ai membri dei Governi dell’UE che siedono in Consiglio, oltre che ai rappresentanti della Commissione e agli europarlamentari, attraverso il sito Don’t spy eu, che ne simula il riconoscimento facciale e anticipa quello che potrebbe succedere a tutti i cittadini europei se l’AIAct non li proteggerà esplicitamente.
Un algoritmo analizza le loro immagini pubbliche caricate e assegna a ciascuno genere, età e “stato emotivo”. L’obiettivo è evidenziare il grande margine di errore e di approssimazione di queste tecnologie e indurre politici e rappresentanti delle istituzioni a riflettere sulle decisioni che sono chiamati a prendere durante il negoziato in corso.
“Vogliamo sensibilizzarli in prima persona e far comprendere ai cittadini europei i problemi connessi alle tecnologie di sorveglianza negli spazi pubblici. Il riconoscimento facciale e altre forme di sorveglianza biometrica hanno il potenziale per minare i nostri diritti e le nostre libertà negli spazi pubblici. Dal monitoraggio delle emozioni e dei presunti “comportamenti sospetti” in Europa, alla repressione dei manifestanti a Hong Kong, fino ai violenti ed erronei arresti di uomini di colore negli Stati Uniti, il riconoscimento facciale ci trasforma in codici a barre ambulanti in tutto il mondo”, dichiara Martina Turola di The Good Lobby.
Vietare le tecnologie di riconoscimento facciale è importante anche per arginare l’abuso di deepfake. La presenza di modelli addestrati a riconoscere volti e la diffusione di tecnologie software che estraggono i punti identificativi da un volto, infatti, possono essere usati per il riconoscimento facciale ma anche per produrre deepfake. In uno scenario in cui i sistemi che trattano biometria facciale non siano ostacolati, le nostre foto online possano essere usate, senza il nostro consenso, per profilarci. Un AI Act debole e non determinato a bloccare il trattamento dei dati biometrici porta inevitabilmente ad una profilazione massiccia, non consensuale, che usa i nostri dati biologici per collezionare informazioni sulle nostre vite. Per “responsabilizzare” i decisori pubblici, il sito della campagna Don’t Spy EU raccoglie i deepfake delle personalità politiche più rilevanti per ciascun paese dell’Unione Europea e invita chi sia in grado di produrre foto false, ma verosimili, di caricarle sul sito per contribuire alla richiesta di divieto di utilizzo di questi sistemi di identificazione biometrica .
“I dati di biometria vocale e facciale devono essere trattati con una tutela straordinaria, perché l’attuale sistema informativo è fortemente vulnerabile a queste produzioni, eppure continuiamo ad assistere a una diffusione incontrollata di applicazioni che trattano, producono, e falsificano questi dati biometrici. Serve quindi un divieto radicale e totale sul trattamento di questi punti identificativi.” spiega Claudio Agosti, Lead Technologist del Centro Hermes per la Trasparenza e i Diritti umani digitali.
Condividi