L’Unione Europea sembra pronta a regolamentare l’intelligenza artificiale e a vietarne gli usi più lesivi dei nostri diritti, come quelli legati alla sorveglianza di massa e al riconoscimento biometrico, invece il governo italiano annuncia di voler andare nella direzione opposta.
Qualche giorno fa è trapelata la notizia che il Dipartimento di pubblica sicurezza del ministero dell’Interno stia coordinando lo sviluppo di Giove, un software di polizia predittiva destinato alle questure per tentare di prevenire i cosiddetti reati predatori, furti e rapine.
Questo software, da quanto si è appreso, si basa su un algoritmo di intelligenza artificiale capace di analizzare, a partire dalle banche dati delle forze dell’ordine, un’enorme quantità di informazioni – dove e quando sono stati commessi i reati, i mezzi usati, ecc. – con l’obiettivo di rilevare comportamenti ripetuti che possano condurre agli autori. Questi sistemi sono però estremamente problematici e finora hanno prodotto risultati controversi e discutibili. Oltre a comportare potenzialmente una massiccia violazione della privacy dei cittadini, possono generare errori dovuti ad assunzioni errate nel processo di apprendimento automatico, i cosiddetti pregiudizi algoritmici, in particolare legati all’etnia e alla provenienza geografica. È infatti difficile riuscire a collegare con certezza un reato ad un altro e si sono già verificati scambi di persona nei Paesi dove sono stati utilizzati sistemi di polizia predittiva.
Su Giove è chiamato a pronunciarsi il Garante della Privacy, ma nel frattempo il senatore del PD Filippo Sensi ha presentato una interrogazione parlamentare, in cui si evidenzia che il ministero dell’Interno appare incurante del dibattito europeo in atto sull’intelligenza artificiale. L’ultima versione del Regolamento approvato in Commissione, che verrà votato il 14 giugno in seduta plenaria del Parlamento Europeo vieta infatti i sistemi di polizia predittiva, con un’unica eccezione: la sicurezza nazionale.
Si tratta di un risultato ottenuto anche grazie alla pressione delle organizzazioni della società civile, fra cui la coalizione internazionale Reclaim Your Face, che da anni si impegna per contrastare la sorveglianza di massa, di cui The Good Lobby fa parte assieme ad Hermes Center for Digital Rights e info.nodes. Il testo del regolamento contiene anche un divieto estensivo all’utilizzo di sistemi di riconoscimento biometrico come quello facciale, capace di risalire all’identità di una persona a partire da un video o da un’immagine catturata da una telecamera di sorveglianza, incrociati poi con altri dati disponibili, come i database delle forze dell’ordine, e usati per questioni di sicurezza. Anche in questo caso i rischi di queste tecnologie, temporaneamente vietate in Italia fino alla fine del 2023 per effetto di una moratoria, sono molteplici: invasione della privacy, profilazione di massa di specifiche categorie di persone, spesso di minoranze.
L’effetto collaterale è evidente: molte persone possono essere portate a evitare di partecipare alle manifestazioni per proteggersi o a non esprimere le loro opinioni per paura di essere sempre osservate. L’idea del Ministro dell’Interno di introdurre il riconoscimento facciale nelle stazioni, negli ospedali e nelle aree commerciali di Roma, Milano e Napoli è pericolosa: in nome della sicurezza si finirebbe per sottoporre chiunque ad una sorveglianza continua.
Raccogliere migliaia di dati di tutti coloro che si trovano a passare in un luogo sovverte la presunzione di innocenza, un principio cardine della democrazia. Per questo motivo è fondamentale ora fare in modo che la versione finale del Regolamento che verrà approvata in seguito al voto in Parlamento e al successivo confronto con il Consiglio e la Commissione europea non venga annacquata.