LA LEGGE EUROPEA SULL'INTELLIGENZA ARTIFICIALE E L'IDENTIFICAZIONE BIOMETRICA DA PARTE DELLE FORZE DI POLIZIA

La legge europea sull’intelligenza artificiale stabilisce norme per l’uso dell’intelligenza artificiale (#AI) nell’Unione europea (#UE) e mira a garantire che i sistemi di intelligenza artificiale non comportino rischi sistemici per l’Unione. Il testo (https://www.europarl.europa.eu/doceo/document/A-9-2023-0188-AM-808-808_IT.pdf) non verrà promulgato prima di maggio 2024 e le regole dell’AI Act entreranno in vigore a scaglioni.

Il Regolamento si basa sul livello di rischio, con obblighi graduati in base a esso, dalle pratiche inaccettabili, agli usi ad alto rischio, quelli che necessitano di trasparenza (come chatbot, AI generative e deepfakes) e quelli a basso rischio, regolati da principi generali.

Tra le pratiche vietate di AI rientrano la manipolazione o l'inganno a fini di distorsione del comportamento, i sistemi che sfruttano le vulnerabilità, la categorizzazione biometrica che viola i diritti personali, la classificazione di individui o gruppi sulla base di comportamenti o caratteristiche sociali, l'identificazione biometrica remota in tempo reale in pubblico per le forze dell'ordine, profilazione di individui per comportamenti criminali, database di riconoscimento facciale non autorizzati e deduzione di emozioni nelle istituzioni senza ragioni mediche o di sicurezza. In particolare, i sistemi di AI che non presentano rischi significativi per la salute, la sicurezza o i diritti fondamentali delle persone fisiche non saranno considerati ad alto rischio se soddisfano criteri specifici. I modelli di AI per scopi generali devono soddisfare obblighi quali la manutenzione della documentazione e la cooperazione con le autorità. I deep fake, definiti come contenuti ingannevoli generati dall'intelligenza artificiale, richiedono la divulgazione se non legalmente autorizzati o fanno parte di opere artistiche. Inoltre, il watermarking dei contenuti generati dall’intelligenza artificiale è obbligatorio per motivi di trasparenza, per cui i fornitori devono garantire una marcatura efficace e la compatibilità con gli standard tecnici.

Sebbene la legge copra vari aspetti della regolamentazione dell’AI, comprese disposizioni per diversi settori, non delinea specificamente cosa una forza di polizia può o non può fare con l’AI.

Gli aspetti maggiormente critici riguardano l'identificazione biometrica.

A tale riguardo l'art. 26, comma 10, così recita: “ nel quadro di un'indagine per la ricerca mirata di una persona sospettata o condannata per aver commesso un reato, il deployer di un sistema di IA ad alto rischio (elenco nell' Allegato III, ndr) per l'identificazione biometrica remota a posteriori chiede un'autorizzazione, ex ante o senza indebito ritardo ed entro 48 ore, da parte di un'autorità giudiziaria o amministrativa la cui decisione è vincolante e soggetta a controllo giurisdizionale, per l'uso di tale sistema, tranne quando è utilizzato per l'identificazione iniziale di un potenziale sospetto sulla base di fatti oggettivi e verificabili direttamente connessi al reato. Ogni uso è limitato a quanto strettamente necessario per le indagini su uno specifico reato. Se l'autorizzazione richiesta di cui al primo comma è respinta, l'uso del sistema di identificazione biometrica remota a posteriori collegato a tale autorizzazione richiesta è interrotto con effetto immediato e i dati personali connessi all'uso del sistema di IA ad alto rischio per il quale è stata richiesta l'autorizzazione sono cancellati.” (...) In nessun caso tale sistema di IA ad alto rischio per l'identificazione biometrica remota a posteriori è utilizzato a fini di contrasto in modo non mirato, senza alcun collegamento con un reato, un procedimento penale, una minaccia reale e attuale o reale e prevedibile di un reato o la ricerca di una determinata persona scomparsa. Occorre garantire che nessuna decisione che produca effetti giuridici negativi su una persona possa essere presa dalle autorità di contrasto unicamente sulla base dell'output di tali sistemi di identificazione biometrica remota a posteriori. (...). Indipendentemente dalla finalità o dal deployer, ciascun uso di tali sistemi di IA ad alto rischio è documentato nel pertinente fascicolo di polizia e messo a disposizione della pertinente autorità di vigilanza del mercato e dell'autorità nazionale per la protezione dei dati, su richiesta, escludendo la divulgazione di dati operativi sensibili relativi alle attività di contrasto

L’AI Act mira a stabilire un quadro per garantire l’uso etico e responsabile dell’AI, che include la gestione dei potenziali rischi e la garanzia del controllo umano sulle decisioni critiche.

Le limitazioni e le normative specifiche riguardanti l’uso dell’intelligenza artificiale da parte delle forze di polizia possono variare tra i diversi Stati membri dell’UE. La legge sull’intelligenza artificiale fornisce un quadro completo per la regolamentazione dell’IA, ma l’attuazione e l’applicazione di tali regolamenti saranno effettuate a livello nazionale.


Segui il blog e interagisci con i suoi post nel fediverso: @cooperazione-internazionale-di-polizia@noblogo.org Segui il blog nel tuo lettore RSS: https://noblogo.org/cooperazione-internazionale-di-polizia/feed/ Tutti i contenuti: CC BY-NC-SA (https://creativecommons.org/licenses/by-nc-nd/4.0/) Le immagini se non diversamente indicato sono di pubblico dominio. Siamo sul fediverso anche su: https://poliversity.it/@coop_internazionale_di_polizia (è anche feed RSS) ; https://poliverso.org/profile/cooperazione_internazionale_di_polizia (è anche feed RSS) https://feddit.it/u/cooperazione_internazionale_di_polizia@poliverso.org