Video

P.A. e algoritmi nella Smart City

P.A. e algoritmi nella Smart City

Le pubbliche amministrazioni che operano all’interno di una Smart City devono necessariamente utilizzare algoritmi. In mancanza di una norma specifica, ci si chiede, però, “se” e “come” le organizzazioni pubbliche possano utilizzare i software per sviluppare i loro procedimenti amministrativi. Il problema è stato risolto dal Consiglio di Stato con una sentenza storica.

In una Smart City, le P.A. chiamate ad offrire, insieme alle imprese, servizi di qualità elevata, possono utilizzare gli algoritmi? Il Consiglio di Stato ha creato le condizioni per farlo.

L’uso degli strumenti ICT nell’azione amministrativa

In una smart city le imprese e le pubbliche amministrazioni operano spesso congiuntamente, Le prime implementano processi aziendali orientati a realizzare gli obiettivi di business. Le seconde sviluppano procedimenti amministrativi per perseguire i fini determinati dalla legge.

Questo in base al principio di legalità fissato dall’art. 1 della legge 241/1990.

Invero, l’art. 3 bis della stessa legge 241/1990 stabilisce che per conseguire maggiore efficienza nella loro attività, le amministrazioni pubbliche agiscono mediante strumenti informatici e telematici.

Il “Conceptual Framework” disegnato dal Consiglio di Stato

La legge però non dà alcuna indicazione su “come” vadano utilizzati i software nello sviluppo dell’azione amministrativa né “come” vadano gestiti i rischi correlati.

Tale lacuna è stata colmata dalla VI Sezione del Consiglio di Stato con la storica sentenza la n. 8472/2019. In questo particolare provvedimento, il Consiglio di Stato, facendo leva su particolari disposizioni del GDPR ha disegnato un “Conceptual Framework” . Si tratta di un quadro concettuale in cui sono state sistematizzate, sotto forma di principi procedurali, alcune disposizioni del GDPR. In pratica, i Giudici di Palazzo Spada hanno innanzitutto riconosciuto la piena ammissibilità degli strumenti informatici nei procedimenti amministrativi. Hanno poi estrapolato e “messo in sistema” alcune particolari disposizioni poste dal GDPR. Ne è derivato un vero e proprio modello operativo, funzionale a guidare le pubbliche amministrazioni verso un corretto uso degli algoritmi nell’azione amministrativa.

Le disposizioni del GDPR prese come riferimento

Le norme del GDPR prese come riferimento dalla sentenza sono gli articoli 13, 14  e 22.

Nel dettaglio, gli articoli 13 e 14 impongono all’organizzazione, pubblica o privata, che riveste il ruolo di titolare del trattamento, l’obbligo di fornire un’informativa agli interessati. A questi bisogna fornire, in modo comprensibile, con linguaggio semplice e chiaro tutte le informazioni relative al trattamento. Va quindi specificato, analiticamente, chi tratta i dati personali degli interessati, con quali mezzi, per quanto tempo, in che modo etc.. I citati articoli prescrivono che vanno fornite soprattutto informazioni circa l’esistenza di un processo decisionale automatizzato, compresa la profilazione di cui all’articolo 22, paragrafi 1 e 4, GDPR. Peraltro, almeno in tali casi, vanno comunicate informazioni significative sulla logica utilizzata, nonché l’importanza e le conseguenze previste di tale trattamento per l’interessato.

Lo stesso art. 22 GDPR pone un generale divieto di assumere decisioni che siano basate unicamente su un trattamento automatizzato. La norma prevede alcune deroghe ed eccezioni ma, in qualunque caso, devono essere sempre adottate misure appropriate a tutela dei diritti, delle libertà e dei legittimi interessi dell’interessato, riconoscendo sempre almeno il diritto di:

–      ottenere l’intervento umano da parte del titolare del trattamento;

–      esprimere la propria opinione;

–      contestare la decisione.

I principi guida fissati in sentenza

Sulla base degli artt. 13, e 14 e 22 del GDPR la sentenza n. 8472/2019 fissa i seguenti 3 principi guida:

Principio di conoscibilità

Ognuno ha diritto a conoscere l’esistenza di processi decisionali automatizzati che lo riguardino.  In questo caso ha anche diritto a ricevere informazioni significative sulla logica utilizzata. Sussiste quindi la necessità che la “formula tecnica”, che di fatto rappresenta l’algoritmo, sia corredata da spiegazioni che la traducano nella “regola giuridica” ad essa sottesa e che la rendano leggibile e comprensibile. In altre parole, la conoscibilità degli algoritmi utilizzati per adottare decisioni automatizzate deve essere garantita in tutti gli aspetti. Nello specifico, è necessario che siano sempre conoscibili:

  • gli autori degli algoritmi;
  • il procedimento usato per la loro elaborazione;
  • il meccanismo di decisione, comprensivo delle priorità assegnate nella procedura valutativa e decisionale e dei dati selezionati come rilevanti.

In sintesi l’utilizzo della soluzione tecnologica deve consentire di verificare che i criteri, i presupposti e gli esiti del processo decisionale automatizzato siano conformi alle prescrizioni e alle finalità stabilite dalla legge affinché siano chiare – e conseguentemente sindacabili – le modalità e le regole in base alle quali esso è stato impostato.

Principio di non esclusività della decisione algoritmica

Deve comunque esistere nel processo decisionale un contributo umano capace di controllare, validare ovvero smentire la decisione automatica. Nel caso in cui una decisione automatizzata “produca effetti giuridici che riguardano o che incidano significativamente su una persona”, questa ha diritto a che tale decisione non sia basata unicamente su tale processo automatizzato. In proposito, deve comunque esistere nel processo decisionale un contributo umano capace di controllare, validare ovvero smentire la decisione automatica. In ambito matematico ed informativo il modello viene definito come HITL (human in the loop), in cui, per produrre il suo risultato è necessario che la macchina interagisca con l’essere umano.”

Principio di non discriminazione algoritmica

Vanno poste in atto misure tecniche e organizzative adeguate al fine di garantire, in particolare, che siano rettificati i fattori che comportano inesattezze dei dati e sia minimizzato il rischio di errori. Ciò, al fine di garantire la sicurezza dei dati personali, secondo una modalità che;

  • tenga conto dei potenziali rischi esistenti per gli interessi e i diritti dell’interessato;
  • impedisca tra l’altro effetti discriminatori nei confronti di persone fisiche sulla base della razza o dell’origine etnica, delle opinioni politiche, della religione o delle convinzioni personali, dell’appartenenza sindacale, dello status genetico, dello stato di salute o dell’orientamento sessuale. Quindi, pur in pfresenza di un algoritmo conoscibile e comprensibile, non costituente l’unica motivazione della decisione, occorre che lo stesso non assuma carattere discriminatorio.

Conclusioni

La lungimiranza della nostra Giustizia Amministrativa ha così creato le condizioni giuridiche per consentire alle pubbliche amministrazioni di operare all’interno di una Smart City.

Per descrivere questo particolare scenario qualcuno ha anche usato l’espressione “P.A. robotizzata”.

Invero, l’uso degli algoritmi nello sviluppo dei procedimenti amministrativi consentirà certamente agli Enti Pubblici di procedere alla stessa velocità delle imprese private per una piena realizzazione dell’interesse pubblico  ed il mantenimento di un elevato livello della qualità della vita dei cittadini.

Giuseppe Alverone