Argo o Polifemo? Il sistema di videosorveglianza della città di Torino “accecato” dalla privacy

Argo o Polifemo? Il sistema di videosorveglianza della città di Torino “accecato” dalla privacy

Il nuovo sistema di videosorveglianza, utilizzando l’AI, aiuterebbe gli organi di polizia con riferimento alla prevenzione di tutti quegli episodi non solo criminosi, ma anche di sola devianza sociale, che mettono in crisi la sicurezza urbana, alla generazione di alert in tempo reale capaci di focalizzare l’attenzione su determinati eventi e/o persone.

“Grande fratello” a Torino

È di questi giorni la notizia riportata dai mass media[1] relativamente a un innovativo sistema di videosorveglianza a servizio della città di Torino: “Torino schiera il «Grande fratello»: telecamere intelligenti per alert in tempo reale contro i crimini”.

A prima vista sembrerebbe l’attivazione di un sistema che, utilizzando intelligenza artificiale, aiuterebbe gli organi di polizia con riferimento alla prevenzione di tutti quegli episodi non solo criminosi, ma anche di sola devianza sociale, che mettono in crisi la sicurezza urbana, il tutto grazie alla generazione di alert in tempo reale capaci di focalizzare l’attenzione su determinati eventi e/o persone.

È veramente così?

Cosa è realmente accaduto

Se si va a ben guardare la storia è un po’ diversa da quanto sembra, e ci fornisce uno spunto per trattare il difficile rapporto fra privacy e videosorveglianza quando quest’ultima utilizza tecnologie all’avanguardia.

L’attivazione dell’impianto di videosorveglianza di cui si parla, denominato Argo, non è di oggi, ma risale all’anno 2021[2].

Il progetto avrebbe dovuto integrare, con ulteriori 273 punti di ripresa, le già esistenti 107 telecamere, implementando inoltre una serie di tecnologie di alert avanzate, risultando così in grado di individuare determinate persone in tempo reale in base a pattern comportamentali, ma anche al colore degli abiti o altre caratteristiche.

Nel gennaio 2021 però erano intervenuti una serie di soggetti privati[3], fra cui l’associazione Centro Hermes per la Trasparenza e i Diritti Umani digitali e l’associazione Privacy Network, formulando dubbi e critiche al sistema.

In particolare il Centro Hermes indirizzava al Garante privacy una segnalazione circa la possibilità del sistema ARGO di “identificare e pedinare le persone riprese in tempo reale”.

Lamentava così l’invasività della raccolta dei metadati per la privacy delle persone e il rischio di incorrere in errori nella distinzione tra uomo e donna nei casi di persone che non si identificano nel binarismo di genere, questione più ideologica che reale.

Da notare che il sistema non prevedeva in alcun modo la raccolta di dati biometrici né dati antropometrici riferibili a persone identificate in modo automatico.

La controversia sul sistema Argo arrivava fino in Parlamento, costringendo il governo a prendere posizione.

A seguito della discontinuità amministrativa (ottobre 2021 – elezione del nuovo sindaco) il Comune di Torino ricercava un’interlocuzione con le associazioni anzidette e si arrivava sostanzialmente al blocco delle funzionalità che sarebbero state invece la vera innovazione del sistema per la sicurezza[4].

Videosorveglianza intelligente, privacy e DPIA

Il titolo dell’articolo di questi giorni lascia intendere che ci sia stato uno sblocco delle nuove tecnologie.

Purtroppo non è così.

Il Comune di Torino ha dovuto prima rinunciare all’implementazione di alcune peculiarità (gli alert automatici, guidati dalle caratteristiche e dai pattern comportamentali delle persone riprese), vero passo avanti nella sicurezza cittadina, direzionando gli investimenti aumentando i punti di ripresa, adesso ha rimodulato il regolamento di uso del sistema auto imponendosi la presentazione di una DPIA al Garante privacy.

L’uso dell’intelligenza artificiale non sarà indiscriminato, secondo il regolamento proposto adesso dal neo assessore alle Politiche per la sicurezza Mario Porcedda, ma dovrà recepire le indicazioni dell’Autorità nazionale e prevedere una Valutazione di impatto sulla protezione dei dati, proprio com’era stato richiesto dal Garante, per evitare «un uso improprio dei dati, discriminazioni automatizzate, creazione di contenuti falsi, perdita di controllo sui dati, attacchi ai sistemi».”[5]

L’analisi di quanto accaduto aiuta nel formulare alcune considerazioni utili per chi voglia implementare funzionalità di AI su un sistema di videosorveglianza urbana.

Prima considerazione

Innanzitutto vanno sfatati alcuni falsi miti, come quello che la DPIA (Data Protection Impact Assessment – valutazione di impatto sulla protezione dei dati trattati) sia obbligatoria e debba pure addirittura essere necessariamente e preventivamente sottoposta al Garante privacy.

Le cose non stanno in questi termini.

Infatti, sul web-site dello stesso Garante privacy è scritto chiaramente che la DPIA è obbligatoria solo “Quando un trattamento può comportare un rischio elevato per i diritti e le libertà delle persone interessate”; inoltre l’obbligo di consultazione dell’autorità di controllo esiste solamente “in caso le misure tecniche e organizzative da loro stessi  individuate per mitigare l´impatto del trattamento non siano ritenute sufficienti”.

Dunque se non c’era “rischio elevato” non occorreva DPIA.

Se c’era rischio occorreva la DPIA, ma l’obbligo di consultare il Garante privacy ci sarebbe stato solo in caso di impossibilità di eliminazione del rischio residuale, che quasi sicuramente non esisteva tenuto conto che gli alert generati da un sistema di videosorveglianza non hanno alcun collegamento diretto con l’identità delle persone, perché le persone vengono identificate a posteriori dall’organo di polizia.

Pertanto basterebbe che chi adotta un sistema di videosorveglianza di questo tipo chiarisse da subito che qualunque forma di collegamento il sistema possa individuare le immagini, questa non può condurre a priori all’identificazione di chicchessia e dunque il problema di privacy non sussiste.

Seconda considerazione

La vicenda ripropone il tema della anomalia, nel nostro ordinamento costituzionale, delle autorità amministrative indipendenti. Illustrissima dottrina[6] ha stigmatizzato come si tratti di autorità sottratte, per loro stessa natura, a qualsivoglia controllo: a chi rispondono? Al potere amministrativo? Al potere giudiziario? Ai cittadini? Il sistema adottato pone queste autorità in posizione di totale supremazia rispetto agli altri apparati pubblici, così da generare storture come quella anzidetta: ci si impongono obblighi derivanti solo dalla paura di essere sanzionati.

Terza considerazione

L’atteggiamento del Garante privacy, in un momento storico nel quale le tecnologie AI forniscono ogni giorno nuove potenzialità ai sistemi di gestione della sicurezza urbana, appare più aderente al luddismo della rivoluzione industriale, che a garantire realmente un equilibrio, anche se difficile, fra la protezione dei dati personali e la necessità di proteggere la società da episodi criminosi grazie appunto alle nuove tecnologie.

Il web-site del Garante è infatti pieno di provvedimenti di irrogazione di pesanti sanzioni ai Comuni, spesso “rei” di aver sanzionato l’inquinatore senza averlo preventivamente avvertito della presenza di un impianto di videosorveglianza. Insomma nel campo della sicurezza appare evidente come la visione di quel che è consentito recuperare da un impianto di videosorveglianza è diversa se l’organo di polizia operante è locale oppure dello Stato, portandosi dietro l’accezione che quel che non è consentito fare per la sicurezza urbana lo è per l’ordine pubblico, dominio esclusivo degli organi di polizia statali.

Conclusioni

In conclusione, onde evitare casi come quello di Torino e, a livello italiano, il rallentamento o il blocco dell’uso delle nuove tecnologie che si basano sull’AI a bordo degli impianti di videosorveglianza urbana, tecnologie ormai indispensabili per la prevenzione in campo sicurezza, sarebbe bene che il Garante stabilisse a priori alcune specifiche tecniche che garantiscono sicuramente il rispetto della privacy, così che gli enti provvedano alla DPIA e all’eventuale presentazione al Garante solo quando realmente necessario.

[1] Cfr. Corriere della Sera, 15 luglio 2024.

[2] Cfr. Torinoclick [organo di informazione del Comune di Torino], 20 aprile 2021, “Progetto Argo: 273 occhi elettronici per garantire maggiore sicurezza. Al via a maggio l’installazione delle nuove telecamere intelligenti”.

[3] Cfr. Rivista Trimestrale di Scienza dell’Amministrazione – 4/2023.

[4] Cfr. La Stampa – 12 gennaio 2023 “Progetto Argo: 300 occhi senza cervello. Il Comune non presenta la valutazione del rischio privacy e sgancia l’algoritmo”.

[5] Cfr. ancora Corriere della Sera, 15 luglio 2024.

[6] Cfr. Sabino Cassese, Il posto dei poteri indipendenti nell’ordinamento (pubblicazione dell’AGCM – Autorità Garante della concorrenza e del mercato)