Tech Verso una legge sull'intelligenza artificiale: l'Europa vuole un'AI affidabile Emiliano Ragoni 11 December 2023 AI Notizie correlate Tech Legal Intelligenza artificiale e AI Act: quali novità in vista? Smart Road Enforcement Investimenti sulla sicurezza pubblica: a NYC fanno diminuire la criminalità urbana Enforcement Dubai Future Foundation, i dieci megatrend globali Gli eurodeputati lo scorso venerdì hanno raggiunto un accordo sulla prima legge che dovrà garantire che l’AI in Europa sia sicura, rispettosa dei diritti fondamentali degli individui e della democrazia, senza tuttavia togliere alle imprese e alle forze dell’ordine la possibilità di utilizzarla per scopi produttivi. Non si potrà usare il riconoscimento biometrico. Multe fino a 35 milioni L’intelligenza artificiale, o AI, ormai è sulla bocca di tutti. Si tratta di un’innovazione concreta e con delle ottime potenzialità, sfruttabili in diversi campi di applicazione, dall’educazione, fino alla medicina. Ma questa “esplosione” ha prodotto anche degli effetti negativi, con errati e inappropriati utilizzi. L’Europa vuole “metterci una pezza” e quindi ha avviato tutta una serie di lavori che porteranno all’approvazione di una legge sull’AI. L’Europa vuole disciplinare l’AI Venerdì scorso, Parlamento e Consiglio europeo hanno raggiunto un accordo provvisorio sulla legge sull’intelligenza artificiale. Questo regolamento mira a garantire che i diritti fondamentali dei cittadini, la democrazia, lo stato di diritto e la sostenibilità ambientale siano protetti dall’AI, stimolando al contempo l’innovazione e rendendo l’Europa leader nel settore. Le nuove norme stabiliranno degli obblighi per chi utilizza l’AI in base ai rischi potenziali e all’effettivo impatto sui diritti fondamentali dei cittadini. Gli ambiti vietati Riconoscendo la potenziale minaccia ai diritti dei cittadini e alla democrazia rappresentata da alcune applicazioni dell’AI, i legislatori hanno convenuto di vietare: i sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili (convinzioni politiche, religiose, filosofiche, orientamento sessuale, razza); la raccolta non mirata di immagini del volto da internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale; riconoscimento delle emozioni sul posto di lavoro e nelle istituzioni scolastiche; la classificazione sociale basata sul comportamento sociale o sulle caratteristiche personali; sistemi di AI che manipolano il comportamento umano per eludere il libero arbitrio; AI utilizzata per sfruttare le vulnerabilità delle persone (a causa della loro età, disabilità, situazione sociale o economica). Esenzioni per le forze dell’ordine I legislatori hanno concordato una serie di eccezioni per l’uso di sistemi di identificazione biometrica (RBI) in spazi accessibili al pubblico a fini di applicazione della legge, previa autorizzazione giudiziaria e per elenchi di reati rigorosamente definiti. L’RBI “post-remoto” verrebbe utilizzato esclusivamente per la ricerca mirata di una persona condannata o sospettata di aver commesso un reato grave. L’RBI “in tempo reale” sarebbe conforme a condizioni rigorose e il suo uso sarebbe limitato nel tempo, ai fini di ricerche mirate di vittime (rapimento, traffico, sfruttamento sessuale), prevenzione di una minaccia terroristica specifica e attuale, o localizzazione o identificazione di una persona sospettata di aver commesso uno dei reati specifici menzionati nel regolamento (terrorismo, traffico di esseri umani, sfruttamento sessuale, omicidio, rapimento, stupro, rapina a mano armata, partecipazione a un’organizzazione criminale, reati ambientali). Gli obblighi Secondo i legislatori europei, le aziende che operano in ambiti sensibili, dovranno necessariamenete effettuare una valutazione obbligatoria dell’impatto sui diritti fondamentali, applicabile anche ai settori assicurativo e bancario. I sistemi di intelligenza artificiale utilizzati per influenzare l’esito delle elezioni e il comportamento degli elettori sono classificati come ad alto rischio. I cittadini avranno il diritto di presentare reclami e di ricevere spiegazioni sulle decisioni basate sull’AI che potrebbero avere un qualche impatto sui loro diritti fondamentali. I sistemi di AI per scopi generali (GPAI) e i modelli GPAI su cui si basano dovranno poi aderire ai requisiti di trasparenza proposti dal Parlamento che includono la stesura di una documentazione tecnica, il rispetto della legge sul copyright e la diffusione di una sintesi dettagliata sui contenuti utilizzati per la formazione. Le sanzioni Il mancato rispetto delle norme può portare a multe che vanno da 35 milioni di euro o il 7% del fatturato globale a 7,5 milioni o l’1,5% del fatturato, a seconda della violazione e delle dimensioni dell’azienda. Emiliano Ragoni
Smart Road Enforcement Investimenti sulla sicurezza pubblica: a NYC fanno diminuire la criminalità urbana