Tech Legal Europa e AI, primo posto all'essere umano Angela Iacovetti 20 March 2025 AI UE Notizie correlate Esg Tech Smart Road Enforcement Legal AI Act e Polizia Predittiva, regolamentazione Tech Smart Road Barcellona, autobus urbani con sistema AI AI in Europa è l’highlight di recenti normative emanare dall’UE, dalla cui analisi si ricava un approccio “Human First”. AI strumento utile ma problematico Nel rilancio dell’economia europea dopo il Covid19, un ruolo centrale è svolto dall’AI, ormai fondamentale per la digitalizzazione della società. Le potenzialità di questa nuova tecnologia investono ampi settori della nostra vita: sanità, istruzione, mobilità, agricoltura, processi industriali, e via dicendo. Le infinite possibilità applicative dell’AI possono creare problemi di natura etica ed anche giuridica, con possibili violazioni dei diritti fondamentali negli ordinamenti occidentali, dalla privacy alla sicurezza e alle libertà. Tentativi di risolvere i problemi con la disciplina giuridica E’ per questo che l’Unione Europea, nell’emanare il Regolamento 2024/1689 (il cosiddetto AI Act, entrato in vigore il 1° agosto 2024) ha adottato un approccio che pone l’essere umano e i suoi diritti al primo posto nella nuova disciplina. “Human First“, appunto, al fine di garantire che l’impiego dell’Intelligenza Artificiale rispetti i valori fondamentali europei che, in sintesi, sono quelli contenuti nella Carta europea dei diritti fondamentali. LEGGI ANCHE Intelligenza artificiale e AI Act: quali novità in vista? Fonte normativa, regolamento Anche la scelta della fonte normativa sottolinea l’importanza dell’approccio antropocentrico. Infatti, il regolamento europeo consente una disciplina dettagliata e uniforme tra tutti gli Stati membri dell’Unione, che devono applicarla alla lettera. Circostanza che non sarebbe possibile con l’adozione di direttive, in quanto queste ultime richiedono provvedimenti normativi interni di attuazione che differenziano, in tal modo, la disciplina della materia. “Human First” Nel novero dei diritti fondamentali dobbiamo includere la protezione dei dati personali, che fin dal 2016 l’Unione Europea disciplina con un regolamento, il n. 2016/679, meglio conosciuto con l’acronimo GDPR (General Data Protection Regulation). Questo la pone in una posizione pionieristica, a livello globale, sulla disciplina della materia. L’UE arriva prima anche nel tentativo di garantire che le applicazioni di intelligenza artificiale rispettino la privacy degli individui, attraverso l’emanazione del Reg. 2024/1689 (AI Act). La normativa de qua, sebbene su base essenzialmente economica, mira a impedire, peraltro, che la nuova tecnologia venga utilizzata per prendere decisioni discriminatorie o per limitare le libertà individuali. L’U.E. ha adottato il principio “Human first” nella convinzione che l’intelligenza artificiale debba essere utilizzata per il bene delle persone e della società. Secondo tale visione la tecnologia non deve essere solo al servizio dell’efficienza e dei profitti, ma anche rispettare norme etiche e sociali. In quest’ottica, anche i controlli devono essere svolti da persone e non da algoritmi o altri mezzi di automazione. Solo così si può promuovere una funzionalità antropocentrica. Anche la trasparenza rientra nell’approccio “Human first“. L’AI Act obbliga a progettare sistemi che consentano agli utenti di comprendere come e perché una decisione sia stata presa dall’algoritmo. Ma pure a rispettare i principii etici e giuridici relativi ai diritti fondamentali fin dalla progettazione, con la promozione di algoritmi equi e privi di bias, che non discriminino le persone su base razziale, di genere o altra natura. Come difendere i diritti fondamentali? L’impiego dell’intelligenza artificiale presenta dei rischi (“meccanismi decisionali opachi, discriminazioni basate sul genere o di altro tipo, intrusioni nelle nostre vite private o utilizzi per scopi criminali” – Libro bianco sull’intelligenza artificiale-) che la normativa UE inquadra in quattro livelli: minimo, limitato, alto, inaccettabile. I sistemi che presentano rischi limitati e minimi richiedono che l’utente sia informato, ma che poi prenda liberamente la decisione di utilizzarli o meno. Il riferimento va ai software che manipolano audio e video per farli sembrare autentici, videogiochi, filtri anti-spam per le email. I sistemi ad alto rischio sono quelli usati in prodotti quali giocattoli, automobili, ascensori, dispositivi medici, per il riconoscimento facciale o per la decisione delle cause giudiziarie, correggono esami o selezionano i curriculum vitae. Proprio perché potrebbero influire sulla carriera e sul futuro di una persona, sono suscettibili di una valutazione d’impatto sui diritti fondamentali (art. 27 Reg.) prima di essere messi in circolazione, e dovranno essere registrati nella banca dati dell’U.E. In sintesi, non sono automaticamente vietati, ma devono presentare requisiti per cui il loro uso non costituisca una minaccia per salute, sicurezza, diritti fondamentali. Le attività a rischio inaccettabile, quindi proibite, sono (art. 5 Reg.): identificazione biometrica remota, manipolazione comportamentale, polizia predittiva basata su profilazione, ubicazione o comportamenti illeciti passati (estrazione di dati biometrici da web o telecamere a circuito chiuso per creare data base di riconoscimento facciale), riconoscimento delle emozioni sui luoghi di lavoro, a scuola e alle frontiere, categorizzazione biometrica basata su caratteristiche sensibili. LEGGI ANCHE AI Act e Polizia Predittiva, le frontiere della regolamentazione dell’AI nella UE Polizia predittiva e sicurezza urbana Tuttavia, i sistemi d’identificazione biometrica in tempo reale possono essere utilizzati dalle forze dell’ordine, in caso di urgenza o previa autorizzazione dell’autorità giudiziaria. E ciò quando strettamente necessari per la ricerca di persone rapite e scomparse, tratta di esseri umani, sfruttamento sessuale nonché prevenzione di attacco terroristico o di minaccia imminente per l’incolumità e la vita delle persone e per localizzare o identificare un reo sospetto di reato che preveda una pena detentiva della durata massima di almeno quattro anni (art. 5, lett. h Reg.) AI e innovazione consapevole L’approccio illustrato ha l’obiettivo di promuovere un’innovazione consapevole, che sostenga la ricerca e lo sviluppo di tecnologie all’avanguardia, affinché i Paesi europei possano essere competitivi, senza compromettere i principi etici e umani. L’intelligenza artificiale deve essere intesa quale strumento a favore del progresso sociale in ogni sua dimensione, ponendo l’accento sul rispetto della dignità, della libertà e della sicurezza delle persone, che rimangono valori irrinunciabili. Angela Iacovetti