fbpx
Dona

27 Aprile 2021

EmailTwitterFacebookWhatsApp

Regolamento Intelligenza Artificiale, perché siamo delusi

di The Good Lobby

Qualche giorno fa la Commissione Europea ha presentato una proposta di Regolamento per l’Intelligenza Artificiale (AI) che sottolinea i rischi della sorveglianza biometrica di massa, e propone una nuova regolamentazione per vietare l’uso da parte delle forze dell’ordine di alcune di queste tecnologie —un piccolo passo nella giusta direzione.

Un sistema di riconoscimento biometrico è un particolare tipo di sistema informatico che ha la funzionalità e lo scopo di identificare una persona sulla base di una o più caratteristiche fisiologiche e/o comportamentali (biometria), confrontandole con i dati, precedentemente acquisiti e presenti nel database del sistema, tramite degli algoritmi e di sensori di acquisizione dei dati in input.

Apprezziamo che la Commissione riconosca che la sorveglianza biometrica di massa ha un impatto altamente invasivo sui diritti e le libertà delle persone, così come il fatto che l’uso di queste tecnologie possa “influenzare la vita privata di una grande parte della popolazione ed evocare una sensazione di sorveglianza costante (…)“. Questi sono esattamente i motivi che hanno spinto la coalizione Reclaim Your Face, di cui siamo entrati recentemente a fare parte, a battersi per vietare la sorveglianza biometrica e dimostra che i nostri punti hanno colpito nel segno.

Purtroppo, però, siamo delusi perché la proposta odierna non fa abbastanza per proteggere le persone da molteplici tipologie di sorveglianza biometrica di massa che abbiamo già visto in azione in Europa. Come risultato la proposta si contraddice, permettendo alcune forme di sorveglianza biometrica di massa che però riconosce essere incompatibili con i nostri diritti fondamentali e con le libertà protette in Europa.

In particolare, la proposta vieta “l’identificazione biometrica da remoto” in “tempo reale” per finalità di sicurezza. Eppure, riteniamo ci siano ancora grossi problemi:

  • La formulazione è spesso vaga e contiene diversi elementi definiti in maniera poco precisa, lasciando ampio spazio di interpretazione e discrezione. Ciò riproduce molti dei problemi già esistenti nelle leggi sulla protezione dei dati personali che ci hanno portato a chiedere un divieto esplicito;
  • Il divieto si applica solo alle forze dell’ordine, ma non proibisce usi altrettanto invasivi e pericolosi da parte di altre autorità governative e di aziende private, che costituiscono comunque una sorveglianza biometrica di massa;
  • Il divieto per le forze dell’ordine presenta molte eccezioni definite in modo troppo ampio e che quindi potrebbero seriamente minarne lo scopo. In questo modo si lascia ampio spazio per una sorveglianza biometrica di massa continuativa dello spazio pubblico da parte delle autorità di polizia;
  • È vietata solo l’identificazione in “tempo reale” a fini di sicurezza. È quindi ancora possibile identificare persone dopo che le immagini sono state registrate (il riferimento nel regolamento a “post”, quindi dopo che un evento è avvenuto)
  • Tutte le altre pratiche di identificazione biometrica—inclusa quella spesso considerata psuedo-scientifica e altamente discriminatoria della “categorizzazione” biometrica—non sono vietate dalla proposta.

La coalizione Reclaim Your Face, composta al momento da 60 associazioni e gruppi che si occupano di diritti umani digitali e di giustizia sociale in tutta Europa, è nata a ottobre 2020 proprio per opporsi alla sorveglianza biometrica di massa in Europa. La coalizione ha sottolineato che questa pratica è invasiva, discriminatoria e antidemocratica.

Dal riconoscimento facciale nei parchi e nelle scuole, alla biometria “intelligente” per sorvegliare i manifestanti, fino alla sorveglianza sistemica e oppressiva di gruppi emarginati della popolazione, per noi non c’è posto nelle nostre società per tecnologie biometriche che ci trasformano tutti in sospetti criminali. Le prove raccolte dalle nostre associazioni hanno rivelato che gli attuali abusi sono vasti e sistemici, e la nostra analisi ha dimostrato che l’unico modo per proteggere i diritti delle persone in Europa è quello di vietare queste pratiche. Non dovremmo essere costretti a guardarci le spalle ovunque andiamo.

Qui c’è l’analisi iniziale di EDRi sull’intera proposta di Regolamento— incluse le preoccupazioni per altri casi d’uso che sarebbero dovuti essere vietati ma così non è stato – e disposizioni che permettono a chi sviluppa sistemi di AI di farsi una auto-valutazione.

Per firmare la petizione: https://reclaimyourface.eu/it/