Geocriminalità e Cooperazione Internazionale di Polizia

AI

La lotta al cybercrime di Interpol. Un approfondimento

La criminalità informatica è una crescente minaccia a livello globale. I criminali utilizzano tattiche in continua evoluzione come il #malware, il #phishing e i servizi di #cybercrime-as-a-service per massimizzare i profitti e colpire sia individui che infrastrutture critiche. Tale pervasività ha portato alla creazione tra gli studiosi del concetto di policriminalità, dove le attività criminali tradizionali si fondono con componenti digitali. #INTERPOL ha – nel tempo – implementto iniziative operative e le strategie, inclusi successi come l'Operazione Serengeti 2.0 (che ha portato a numerosi arresti e al recupero di fondi significativi e di cui abbiamo parlato qui https://noblogo.org/cooperazione-internazionale-di-polizia/se-il-cybercrime-arriva-dallafrica-interpol-e-operazione-serengeti), con una particolare attenzione all'impatto e alla creazione di reti robuste in regioni come l'Africa. In tale contesto, viene in rilievo il ruolo dell'intelligenza artificiale (#AI), che sebbene sia usata dai criminali per attacchi più sofisticati, viene anche impiegata dalle forze dell'ordine, come nel Progetto Rapid di Hong Kong, per identificare e smantellare i siti di phishing in modo proattivo.

Il tuo Smart TV è un complice? 5 rivelazioni sul Cybercrime moderno

La nostra vita quotidiana è ormai quasi interamente digitale. Lavoriamo, comunichiamo, facciamo acquisti e ci intratteniamo online, e con questa trasformazione cresce anche una paura costante, sebbene spesso astratta: quella della criminalità informatica. Pensiamo a hacker solitari in stanze buie, ma la realtà dipinta dalle più recenti analisi globali condotte da INTERPOL in collaborazione con i suoi partner del settore privato è molto più complessa, organizzata e sorprendente di quanto si possa immaginare.

La minaccia non riguarda più solo il furto di password o i virus informatici. È un ecosistema criminale in piena evoluzione, che sfrutta le stesse tecnologie che usiamo ogni giorno, trasformandole in armi. La distinzione tra crimine reale e virtuale si sta dissolvendo, creando sfide senza precedenti per le forze dell'ordine di tutto il mondo.

Viediamo cinque aspetti inaspettati e di grande impatto emersi dalle indagini di INTERPOL, che cambieranno radicalmente la percezione del cybercrime. La criminalità si è evoluta: quali strumenti utilizza e come la lotta per la sicurezza digitale stia definendo il nostro futuro?

Il crimine non è più quello di una volta: benvenuti nell'era del “Policrimine”

L'idea dell'hacker isolato è un ricordo del passato. Oggi ci troviamo di fronte al concetto di “policriminalità”, un fenomeno in cui i confini tra il crimine tradizionale e quello digitale sono quasi completamente svaniti. Quasi ogni tipo di reato, dalla frode al traffico di esseri umani, passando per il contrabbando, oggi ha una componente informatica fondamentale.

Questa non è una semplice evoluzione, ma una vera e propria fusione. Le reti criminali transnazionali non integrano più strumenti digitali solo per rendere le loro operazioni illegali più efficienti, ma anche per espandersi in nuove aree criminali. La tecnologia non è più un fine, ma un mezzo per diversificare e potenziare un intero portafoglio di attività illecite.

Si può “noleggiare” un attacco informatico con il cybercrime-as-a-Service

Proprio come le aziende legali utilizzano software “as-a-service” (SaaS) per le loro operazioni, anche il mondo criminale ha adottato un modello simile: il “Cybercrime-as-a-Service” (CaaS). Questo mercato illegale offre “pacchetti” pronti all'uso per lanciare attacchi informatici di vario tipo.

Questo modello ha abbassato drasticamente la barriera d'ingresso, diventando uno dei principali motori della policriminalità. Offre a reti criminali tradizionali, prive di competenze tecniche, l'accesso a strumenti digitali sofisticati. Oggi, chiunque può facilmente “noleggiare” kit per condurre attacchi ransomware, estorsioni online o frodi su larga scala, spesso economici e facili da reperire nel dark web. L'implicazione è terrificante: un numero sempre maggiore di criminali può entrare nel mondo del cybercrime, portando a un aumento esponenziale degli attacchi.

La smart TV potrebbe essere un complice inconsapevole

Una delle minacce più recenti e inquietanti riguarda i dispositivi che abbiamo in casa. I criminali stanno sfruttando un metodo chiamato “residential proxies” per mascherare le loro attività illecite. Il meccanismo è tanto semplice quanto geniale: infettano con malware i dispositivi connessi a Internet, come smart TV o elettrodomestici da cucina connessi.

A volte, questo malware viene installato addirittura durante il processo di produzione, prima ancora che il dispositivo arrivi a casa vostra. Una volta infettati, questi oggetti di uso quotidiano vengono utilizzati a insaputa del proprietario per commettere reati online. L'attività dannosa sembra provenire dall'indirizzo IP della vostra abitazione, garantendo un perfetto anonimato ai veri criminali e trasformando i vostri dispositivi in complici inconsapevoli. Questo fenomeno evidenzia una vulnerabilità critica nella sicurezza dell'intero ecosistema dell'Internet of Things (IoT).

La Polizia combatte l'Intelligenza Artificiale con l'Intelligenza Artificiale

È in corso una vera e propria “corsa agli armamenti” basata sull'intelligenza artificiale (IA). I criminali la usano per rendere i loro attacchi più efficaci: le email di phishing diventano indistinguibili da quelle legittime e tecniche come il “polymorphic phishing” permettono di aggirare i sistemi di sicurezza inviando rapidamente migliaia di varianti leggermente diverse dello stesso messaggio, finché non vanno a segno.

Tuttavia, le forze dell'ordine non stanno a guardare. Anch'esse stanno adottando l'IA per contrattaccare. Un esempio concreto è il “Project Rapid” della polizia di Hong Kong. Utilizzando l'IA, sono in grado di analizzare proattivamente il web per identificare siti sospetti. Quando ricevono un singolo link di phishing, l'IA scansiona Internet alla ricerca di migliaia di altri siti simili, smantellando intere campagne criminali.

L'impatto di questa iniziativa è destinato a diventare globale. Attraverso la nuova “Operation Rapid Strike”, la polizia di Hong Kong invierà i dati raccolti all'unità di intelligence informatica globale di INTERPOL. Lì verranno analizzati e distribuiti agli altri paesi membri per prevenire minacce simili, dimostrando la potenza di una risposta collaborativa e guidata dall'IA su scala mondiale.

Un'operazione di Polizia può accendere le luci di un villaggio

La lotta al cybercrime non si traduce solo in arresti e sequestri di server. A volte, può avere un impatto sociale diretto e profondamente positivo. Un esempio arriva dall'Angola, dove le autorità, con il supporto di INTERPOL, hanno smantellato 25 centri illegali di mining di criptovalute.

L'operazione ha portato alla confisca di attrezzature informatiche e per il mining per un valore di oltre 37 milioni di dollari, inclusi 45 generatori di corrente che operavano illecitamente. Ma il risultato più interessante è stato ciò che è accaduto dopo: il governo angolano utilizzerà questi beni recuperati per sostenere la distribuzione di energia elettrica in aree vulnerabili del paese. Combattere il crimine digitale significa anche proteggere e migliorare la vita delle persone nel mondo reale.

Uno sguardo al Futuro Digitale

L'analisi dell'INTERPOL ci svela un mondo dove il crimine non ha confini, dove un attacco può essere “noleggiato” con la stessa facilità di un software, dove la smart TV può diventare un complice involontario, e dove la lotta per la giustizia può, letteralmente, riaccendere la luce in un villaggio. La lotta al cybercrime è una sfida globale, complessa e in continua evoluzione, che va ben oltre gli stereotipi.

#criminalitàinformatica #cybercrime


Segui il blog con il tuo favorito RSS reader (https://noblogo.org/cooperazione-internazionale-di-polizia/feed/) e interagisci con i suoi post nel fediverso (@cooperazione-internazionale-di-polizia@noblogo.org). Scopri dove trovarci: https://l.devol.it/@CoopIntdiPolizia Tutti i contenuti sono CC BY-NC-SA (https://creativecommons.org/licenses/by-nc-nd/4.0/) Le immagini se non diversamente indicato sono di pubblico dominio.


Possono convivere privacy e moderni sistemi di videosorveglianza, basati sull'intelligenza artificiale?

Un recente articolo apparso su safetysecuritymagazine.com (https://www.safetysecuritymagazine.com/articoli/telecamere-intelligenti-privacy-preserving-privacy-e-sorveglianza-nellera-dellintelligenza-artificiale/) analizza le possibilità di convivenza tra garanzie per la privacy dei cittadini e operatività degli apparentemente sempre più pervasivi moderni sistemi di viedosorveglianza.

L'approfondito articolo illustra diverse tecnologie di tutela della privacy applicabili alla videosorveglianza, evidenziandone la maturità e il potenziale di implementazione nel mondo reale. La privacy differenziale aggiunge rumore calibrato ai dati video per proteggere le identità individuali preservandone al contempo l'utilità statistica. Il calcolo multipartitico sicuro consente a più organizzazioni di collaborare all'analisi video senza condividere dati privati. L'apprendimento federato consente l'addestramento dell'intelligenza artificiale su dati distribuiti senza centralizzarli. Il mascheramento dinamico è la tecnologia più matura, che utilizza la visione artificiale per oscurare volti e figure umane mantenendo visibili i dettagli di sicurezza rilevanti. Queste tecnologie supportano la privacy nei moderni sistemi di sorveglianza.

Prosegue poi nel portare esempi dell’implementazione delle tecnologie privacy-preserving nelle smart cities (Singapore, Barcellona, etc.)

Dopo una analisi economica delle tecnologie privacy-preserving per la videosorveglianza (che rivela dinamiche complesse che vanno ben oltre la semplice valutazione di costi e benefici per toccare questioni fondamentali di equità sociale e accesso democratico ai diritti) il saggio si occupa del General Data Protection Regulation, e di come dopo sette anni di implementazione, abbia profondamente trasformato il modo in cui le organizzazioni approcciano la videosorveglianza. L’Articolo 35 GDPR, che richiede obbligatoriamente Data Protection Impact Assessment per la “sorveglianza sistematica di aree pubbliche su larga scala”, ha costretto migliaia di organizzazioni europee a ripensare radicalmente i loro approcci alla sicurezza video.

Tutto ciò mentre l’EU AI Act (formalmente denominato Regulation EU 2024/1689) disattivare o modificare sistemi di videosorveglianza che utilizzano riconoscimento facciale automatico in aree pubbliche.

Si passa poi a parlare delle sfide tecniche e dell'implementazione pratica delle tecnologie di tutela della privacy nella videosorveglianza, evidenziando i seguenti punti chiave:

  • Sovraccarico computazionale e limitazioni prestazionali: le tecnologie di tutela della privacy come il mascheramento dinamico richiedono hardware di fascia alta (ad esempio, GPU specializzate) e comportano una latenza più elevata (160-200 ms), che può essere critica nelle applicazioni di sicurezza.

  • Precisione e vincoli ambientali: la precisione del riconoscimento di volti e figure varia in base a diverse condizioni di illuminazione, occlusione e altre condizioni ambientali, richiedendo sistemi e protocolli di backup.

  • Problemi di larghezza di banda e interoperabilità: i flussi video crittografati o elaborati richiedono una maggiore larghezza di banda (dal 30 al 50% in più rispetto allo standard) e presentano problemi di interoperabilità con sistemi legacy e protocolli proprietari, aumentando i costi e i rischi di dipendenza da un fornitore.

Uno sguardo alle Tecnologie emergenti: – Sensori neuromorfici: imitano il sistema visivo umano e offrono vantaggi intrinseci in termini di privacy, ma sono attualmente troppo costosi e privi di ecosistemi software maturi. – Federated Learning (FL): consente l'addestramento dell'IA senza dati centralizzati, ma introduce un sovraccarico di comunicazione e problemi di sincronizzazione. – Differential Privacy (DP): aggiunge rumore calibrato per proteggere la privacy individuale nell'analisi dei dati, ma richiede un attento bilanciamento tra privacy e utilità dei dati.

Strategie di implementazione e best practice

Le organizzazioni devono condurre una valutazione approfondita delle proprie esigenze, inclusi i requisiti di privacy, le prestazioni e il budget. Un quadro di conformità strutturato è essenziale, che integri considerazioni legali, tecniche e operative. Privacy by design, minimizzazione dei dati e crittografia sono principi raccomandati per sistemi sicuri.

Prospettive future – Sebbene siano improbabili innovazioni, si prevedono miglioramenti incrementali nelle tecnologie crittografiche e di IA. – Si prevede una crescita del mercato, trainata dalla conformità normativa e dalla consapevolezza dei consumatori. – Interoperabilità e standardizzazione sono fondamentali per ridurre la frammentazione e consentire un'adozione più ampia.

Contesto sociale e normativo: – Il GDPR europeo e l'AI Act stanno plasmando il panorama normativo, promuovendo tecnologie che tutelano la privacy. – Un'implementazione di successo richiede non solo soluzioni tecniche, ma anche accettazione sociale, governance e collaborazione interdisciplinare.

#ai #videosorveglianza #privacy #gdpr #safetysecuritymagazine.com #euaiact


Segui il blog con il tuo favorito RSS reader (https://noblogo.org/cooperazione-internazionale-di-polizia/feed/) e interagisci con i suoi post nel fediverso (@cooperazione-internazionale-di-polizia@noblogo.org). Scopri dove trovarci: https://l.devol.it/@CoopIntdiPolizia Tutti i contenuti sono CC BY-NC-SA (https://creativecommons.org/licenses/by-nc-nd/4.0/) Le immagini se non diversamente indicato sono di pubblico dominio.


UNA GUIDA DI EUROPOL SPIEGA ALLE FORZE DELL'ORDINE COME SUPERARE I PREGIUDIZI DELL'INTELLIGENZA ARTIFICIALE

“Pregiudizi dell'intelligenza artificiale nelle forze dell'ordine: una guida pratica”, recente pubblicazione di Europol (Innovation Lab), esplora i metodi per prevenire, identificare e mitigare i rischi nelle varie fasi dell'implementazione dell'intelligenza artificiale. Il rapporto mira a fornire alle forze dell’ordine linee guida chiare su come implementare le tecnologie di intelligenza artificiale salvaguardando i diritti fondamentali.

L’intelligenza artificiale può essere una risorsa importante per le forze dell’ordine, per rafforzare le proprie capacità di combattere le minacce emergenti (amplificate dalla digitalizzazione) attraverso l’integrazione di nuove soluzioni tecniche, quali come la polizia predittiva, l'identificazione automatica di pattern e l'analisi avanzata dei dati. L’intelligenza artificiale può aiutare le forze dell’ordine: a. ad analizzare set di dati ampi e complessi, b. automatizzare compiti ripetitivi e c. supportare un processo decisionale più informato. Impiegata in modo responsabile, può potenziare le capacità operative e migliorare la sicurezza pubblica.

Tuttavia, questi benefici devono essere attentamente valutati rispetto ai possibili rischi posti dai pregiudizi (intesi come una tendenza o inclinazione che si traduce in un giudizio ingiusto o in un pregiudizio a favore o contro una persona, un gruppo o un'idea) sull'utilizzo, che possono apparire in varie fasi di sviluppo e implementazione del sistema di intelligenza artificiale. Questi rischi derivano da pregiudizi insiti nella progettazione, nello sviluppo e nell'implementazione dei sistemi di intelligenza artificiale, che possono perpetuare la discriminazione, rafforzare le disuguaglianze sociali e compromettere l'integrità delle attività delle forze dell'ordine. Tali pregiudizi devono essere controllati per garantire risultati equi, mantenere la fiducia del pubblico e proteggere i diritti fondamentali. Il rapporto fornisce alle autorità di contrasto le intuizioni e le indicazioni necessarie per identificare, mitigare e prevenire pregiudizi nei sistemi di intelligenza artificiale. Questa conoscenza può svolgere un ruolo cruciale nel sostenere l’adozione sicura ed etica dell’intelligenza artificiale per garantire che la tecnologia venga utilizzata in modo efficace, equo e trasparente al servizio della sicurezza pubblica.

Le Raccomandazioni chiave per le forze dell'ordine che emergono dal Rapporto riguardano:

  • Documento: mantenere una documentazione dettagliata di tutte le fasi del ciclo di vita dell'IA. Ciò garantisce tracciabilità, responsabilità e aiuta a identificare dove possono verificarsi pregiudizi.
  • Valutare: sviluppare un quadro socio-tecnico completo, coinvolgendo un gruppo eterogeneo di parti interessate, per valutare l'accuratezza tecnica e considerare attentamente i contesti storici, sociali e demografici.
  • Formare tutto il personale delle forze dell’ordine coinvolto con gli strumenti di intelligenza artificiale per approfondire la propria comprensione delle tecnologie di intelligenza artificiale per enfatizzare il valore della valutazione umana nella revisione dei risultati generati dall’intelligenza artificiale per prevenire pregiudizi.
  • Testare le prestazioni, l'impatto e rivedere gli indicatori di potenziale distorsione prima dell'implementazione.
  • Eseguire analisi caso per caso e addestrarsi a comprendere i diversi pregiudizi dell’intelligenza artificiale, la loro relazione con i parametri di equità e implementare metodi di mitigazione dei pregiudizi.
  • Valutare continuamente attraverso l'implementazione di test regolari e la rivalutazione dei modelli di intelligenza artificiale durante tutto il loro ciclo di vita per rilevare e mitigare i pregiudizi.
  • Applicare tecniche di test di equità e di mitigazione dei pregiudizi post-elaborazione sia sugli output del sistema di intelligenza artificiale che sulle decisioni finali prese da esperti umani che si affidano a tali output.
  • Valutare il contesto e gli obiettivi di ciascuna applicazione di intelligenza artificiale, allineando le misure di equità con gli obiettivi operativi per garantire risultati sia etici che efficaci.
  • Garantire la coerenza contestuale e statistica durante l’implementazione dei modelli di intelligenza artificiale.
  • Standardizzare i parametri di equità e le strategie di mitigazione in tutta l’organizzazione per garantire pratiche coerenti nella valutazione dei pregiudizi.

Informazioni sull'Innovation Lab di Europol

Il Lab mira a identificare, promuovere e sviluppare soluzioni innovative concrete a sostegno del lavoro operativo degli Stati membri dell'UE’. Ciò aiuta investigatori e analisti a sfruttare al meglio le opportunità offerte dalle nuove tecnologie per evitare la duplicazione del lavoro, creare sinergie e mettere in comune le risorse.

Le attività del laboratorio sono direttamente collegate alle priorità strategiche stabilite nella strategia Europol Fornire sicurezza in partenariato, in cui si afferma che Europol sarà in prima linea nell'innovazione e nella ricerca delle forze dell'ordine.

Il lavoro del Laboratorio di innovazione Europol è organizzato attorno a quattro pilastri: gestione di progetti al servizio delle esigenze operative della comunità delle forze dell'ordine dell'UE; monitorare gli sviluppi tecnologici rilevanti per le forze dell'ordine; mantenimento di reti di esperti; in qualità di segretariato del polo di innovazione dell'UE per la sicurezza interna.

La pubblicazione [en] è scaricabile qui https://www.europol.europa.eu/publications-events/publications/ai-bias-in-law-enforcement#downloads

#AI #artificialintelligence #intelligenzaartificiale


Segui il blog con il tuo favorito RSS reader (https://noblogo.org/cooperazione-internazionale-di-polizia/feed/) e interagisci con i suoi post nel fediverso (@cooperazione-internazionale-di-polizia@noblogo.org). Scopri dove trovarci: https://l.devol.it/@CoopIntdiPolizia Tutti i contenuti sono CC BY-NC-SA (https://creativecommons.org/licenses/by-nc-nd/4.0/) Le immagini se non diversamente indicato sono di pubblico dominio.


Forze di polizia europee a statuto militare: nel vertice ospitato dai carabinieri si è parlato di formazione, tutela ambientale, cyber ed AI

L'Arma dei Carabinieri ha organizzato a Vicenza, presso la Caserma Chinotto, sede del Centro di Eccellenza per le Polizie di Stabilità (CoESPU), una conferenza quadripartita di Vertice (G4) tra le Gendarmerie e Forze di Polizia a statuto militare di Italia, Francia, Spagna e Portogallo.

Hanno partecipato il Comandante Generale dell'Arma dei Carabinieri, Gen. C.A. Salvatore Luongo, il Direttore Generale della Gendarmeria Nazionale francese, Gen. d'Armata Hubert Bonneau, il Comandante Generale della Guardia Nazionale Repubblicana portoghese, Gen. C.A. Rui Alberto Ribeiro Veloso e il Direttore Aggiunto Operativo della Guardia Civil, Gen. C.A. Manuel Llamas Fernàndez. L'incontro, ha rappresentato un'importante occasione per rafforzare ulteriormente i legami di cooperazione. Le quattro Istituzioni di polizia a competenza generale fanno parte della FIEP (International Association of Gendarmeries and Polices Forces with Military Status), istituita il 12 maggio del 1994 a Madrid, la cui presidenza è stata ceduta lo scorso anno dall'Arma dei Carabinieri alla Gendarmeria Nazionale Francese.

Nel corso del vertice è stato fornito risalto alle tematiche di maggiore rilevanza strategica, quali: la formazione congiunta, la tutela ambientale, il settore cyber e l'Intelligenza Artificiale. In riferimento alla formazione congiunta è stata sottolineata l'importanza di valorizzare i percorsi formativi del personale quale processo continuo di crescita umana, valoriale e professionale che caratterizza la vita di ogni militare, fornendogli gli strumenti necessari per svolgere efficacemente i propri compiti istituzionali anche nella dimensione della cooperazione interforze nel contesto europeo. In relazione alla tutela ambientale, settore in cui l'Arma è impegnata con i suoi oltre 7.000 Carabinieri forestali, si è posto l'accento sulla promozione di una comune visione strategica attraverso lo svolgimento di periodiche riunioni finalizzate a condividere e potenziare le conoscenze tecnico-informatiche di settore.

In occasione della trattazione della tematica cyber è stata confermata l'importanza dello scambio di progetti relativi alla prossimità digitale, ovvero delle pratiche di formazione mirate all'aumento di capacità d'intelligence e d'investigazione sulla criminalità informatica, focalizzando l'attenzione anche sul costante aggiornamento dei punti di contatto (PoC) delle 4 Forze di polizia a statuto militare, quale fattore essenziale per assicurare la piena funzionalità di scambi informativi.

Sull'intelligenza artificiale, invece, è stata manifestata la volontà di favorire la condivisione di piani strategici comuni di impiego dell'AI all'interno dei vari asset delle Gendarmerie, dalla logistica, alle procedure amministrative, alla formazione, fino agli aspetti operativi, sempre nel rispetto delle specificità e dei vincoli legali in ambito nazionale ed europeo.

Il Comandante Generale dell'Arma Luongo, dopo aver salutato e ringraziato le massime autorità delle Gendarmerie estere per la convinta partecipazione all'evento, ha illustrato l'elemento distintivo e condiviso tra le stesse: “è il complesso reticolo territoriale delle nostre Forze, indiscutibile valore aggiunto sia per i flussi informativi, sia per la protezione delle infrastrutture critiche sul territorio, caratteristiche che sono codificate nel nostro DNA e costituiscono i presupposti per il successo del nostro modello, quello della Gendarmeria, nel passato come nel presente”. Il Generale ha messo poi in evidenza la solidità dei valori che accomunano l'Arma dei Carabinieri, la Gendarmeria Nazionale francese, la Guardia Civil e la Guardia Nazionale Repubblicana portoghese: “valori radicati nella storia, nelle tradizioni e nel quotidiano sacrificio delle nostre donne e dei nostri uomini. È su queste fondamenta indiscutibili che poggia la nostra capacità di affrontare le sfide di oggi e di domani”. Nel concludere si è soffermato sull'importanza di saper affrontare le nuove sfide: “abbiamo il dovere di guardare agli scenari futuri non con timore, ma con l'ambizione e la responsabilità di esserne protagonisti non per subirne i cambiamenti, ma per saperli interpretare e guidare”.

Le Istituzioni che si sono riunite a Vicenza collaborano da anni per semplificare, nel rispetto degli accordi internazionali vigenti e delle normative nazionali, la reciproca fruizione di informazioni ed esperienze nei settori delle risorse umane, dell'organizzazione di servizi, della tecnologia, della logistica e degli affari internazionali. I vertici delle quattro Istituzioni hanno espresso la loro piena soddisfazione per i risultati raggiunti durante l'incontro di cooperazione internazionale, sottolineando la comune volontà di proseguire e intensificare la collaborazione in tutti i settori strategici di interesse comune. Al termine della conferenza, è stato ribadito l'impegno a dare seguito alle discussioni attraverso la definizione di piani d'azione concreti e la realizzazione di iniziative congiunte, al fine di garantire una maggiore efficienza delle Forze di Polizia nell'ambito della sicurezza per i cittadini dei rispettivi Paesi.

#cooperazioneinternazionaledipolizia #armadeicarabinieri #gendarmerienationale #guardia civil #guardiarepubblicanaportoghese #tutelaambientale #cybersecurity #AI

@attualita@diggita.com


Segui il blog con il tuo favorito RSS reader (https://noblogo.org/cooperazione-internazionale-di-polizia/feed/) e interagisci con i suoi post nel fediverso (@cooperazione-internazionale-di-polizia@noblogo.org). Scopri dove trovarci: https://l.devol.it/@CoopIntdiPolizia Tutti i contenuti sono CC BY-NC-SA (https://creativecommons.org/licenses/by-nc-nd/4.0/) Le immagini se non diversamente indicato sono di pubblico dominio.


I cambiamenti nel “DNA” della criminalità organizzata nel Rapporto sulla Criminalità Organizzata nell’ Unione Europea

EUROPOL ha pubblicato il Rapporto sulla Minaccia della Criminalità Organizzata e Grave dell'Unione Europea (EU-SOCTA) 2025, che analizza in modo approfondito e prospettico le dinamiche in evoluzione della criminalità organizzata che colpisce l'UE.

Il rapporto evidenzia come la criminalità stia diventando sempre più destabilizzante per la società, sfruttando il mondo online e venendo accelerata dall'intelligenza artificiale e da altre nuove tecnologie. Questi elementi interconnessi ridefiniscono le modalità operative dei network criminali. In questo contesto emerge infatti la “criminalità come servizio”(crime-as-a-service), che si riferisce a network delinquenziali specializzati che offrono competenze specifiche (come riciclaggio di denaro o attacchi informatici) ad altri attori criminali. Questo permette ai malviventi di delegare compiti e distanziarsi dalle attività illecite dirette.

Il testo esamina inoltre le tattiche utilizzate dai gruppi criminali, le aree chiave che rappresentano le maggiori minacce e la dimensione geografica di tali attività illecite.

La criminalità organizzata destabilizza la società minando l'economia attraverso proventi illeciti e riciclaggio di denaro, diffondendo la violenza e normalizzando la corruzione. Inoltre, agisce sempre più come proxy per minacce ibride esterne, contribuendo agli obiettivi politici di questi attori.

Secondo il Rapporto, le strutture legali d'impresa vengono sfruttate dalla criminalità organizzata in vari modi, dall'uso inconsapevole da parte dei malviventi all'infiltrazione ad alto livello o alla creazione di imprese completamente controllate. Questo permette di mascherare attività illecite, riciclare denaro e commettere frodi in diversi settori.

L' Intelligenza Artificiale (#IA #AI) e le nuove tecnologie vengono sfruttate per automatizzare ed espandere le operazioni criminali, rendendole più rapide, efficienti e difficili da rilevare. Ciò include attacchi informatici più sofisticati, frodi online su vasta scala e nuove forme di sfruttamento.

Diverse sono le minacce principali, tra cui gli attacchi informatici e il ransomware, le frodi online (inclusa la compromissione di email aziendali e le truffe “romantiche”), lo sfruttamento sessuale infantile online, il traffico di esseri umani, il contrabbando di migranti e il traffico di droga.

Nel contesto europeo, il traffico di migranti si adatta ai conflitti, alle difficoltà economiche e alle sfide ambientali, con flussi manipolati da attori ibridi. Le tecnologie digitali plasmano sempre più le rotte e i metodi operativi, nonostante la sua base nel mondo fisico.

Anche il traffico di droga ha un impatto significativo sulla società dell'UE a causa della violenza correlata, della corruzione e dell'infiltrazione nell'economia legale. L'alta disponibilità di droghe potenti aumenta i rischi per la salute, e la produzione danneggia l'ambiente.

Il traffico di armi da fuoco alimenta la violenza legata alla criminalità organizzata e altre attività illecite. L'instabilità geopolitica, come la guerra in Ucraina, può esacerbare questa minaccia aumentando la disponibilità di armi illecite.

L'EU-SOCTA 2025 fornisce un'analisi dettagliata e lungimirante delle minacce della criminalità organizzata, aiutando i decisori a stabilire le priorità e le forze dell'ordine ad anticipare le tendenze criminali, allocare le risorse in modo efficace e sviluppare strategie mirate.

GLOSSARIO

#EUSOCTA (European Union Serious and Organised Crime Threat Assessment): La Valutazione della Minaccia della Criminalità Organizzata e Grave dell'Unione Europea, uno studio dettagliato prodotto da #Europol che analizza le minacce della criminalità organizzata che colpiscono l'#UE.

Minaccia ibrida: Una combinazione di attività, sia convenzionali che non convenzionali, utilizzate in modo coordinato da attori statali o non statali per destabilizzare un paese o una regione. Nella relazione, spesso coinvolgono proxy criminali.

Strutture legali d'impresa: Imprese legittime che vengono sfruttate, infiltrate o create da network criminali per facilitare le loro attività illecite, come riciclaggio di denaro o frodi.

Criminalità come servizio (#CaaS – Crime-as-a-Service): Un modello in cui network criminali specializzati forniscono servizi specifici (ad esempio, attacchi informatici, riciclaggio di denaro, trasporto) ad altri attori criminali.

Il documento [en] è reperibile qui https://www.europol.europa.eu/cms/sites/default/files/documents/EU-SOCTA-2025.pdf


Segui il blog con il tuo favorito RSS reader (https://noblogo.org/cooperazione-internazionale-di-polizia/feed/) e interagisci con i suoi post nel fediverso (@cooperazione-internazionale-di-polizia@noblogo.org). Scopri dove trovarci: https://l.devol.it/@CoopIntdiPolizia Tutti i contenuti sono CC BY-NC-SA (https://creativecommons.org/licenses/by-nc-nd/4.0/) Le immagini se non diversamente indicato sono di pubblico dominio.


FORZE DI POLIZIA ED ARTIFICIAL INTELLIGENCE (II^ ED ULTIMA PARTE). L' AI TOOLKIT

(La I^ parte è qui: https://poliverso.org/display/0477a01e-7266-c990-a788-5b7678893514)

L’AI Toolkit offre una prospettiva equilibrata sull’innovazione responsabile dell’AI fondata sui diritti umani, sull’etica e su solidi principi di polizia consolidati, il tutto contestualizzato attraverso esempi pratici di casi d’uso specifici delle forze dell’ordine.

#AITOOLKIT #INTERPOL #UNICRI #artificialintelligence #AI

Leggi tutto qui: https://poliverso.org/display/0477a01e-1266-cb42-0137-a31822055942


Segui il blog con il tuo favorito RSS reader (https://noblogo.org/cooperazione-internazionale-di-polizia/feed/) e interagisci con i suoi post nel fediverso (@cooperazione-internazionale-di-polizia@noblogo.org). Scopri dove trovarci: https://l.devol.it/@CoopIntdiPolizia Tutti i contenuti sono CC BY-NC-SA (https://creativecommons.org/licenses/by-nc-nd/4.0/) Le immagini se non diversamente indicato sono di pubblico dominio.


FORZE DI POLIZIA ED ARTIFICIAL INTELLIGENCE (I^ PARTE). UNA SERIE DI MANUALI PER UTILIZZARLA NEL RISPETTO DEI DIRITTI UMANI

L'intelligenza artificiale (#AI) sta trasformando le forze dell'ordine in tutto il mondo. L'innovazione responsabile dell'AI aiuta le forze dell'ordine a sfruttare il potenziale dell'AI, salvaguardando al contempo la legge, l'etica e i principi di polizia in materia di diritti umani. Il Toolkit per l'innovazione responsabile dell'AI nelle forze dell'ordine, di cui parleremo nella II^ Parte, supporta la comunità globale delle forze dell'ordine nel suo percorso verso un'innovazione responsabile dell'AI. Sviluppato da INTERPOL e UNICRI (l'Istituto interregionale delle Nazioni Unite per la ricerca sul crimine e la giustizia) con il sostegno finanziario dell'Unione Europea, il kit di strumenti per l'AI include varie risorse che forniscono una guida completa per consentire alle agenzie di implementare l'innovazione responsabile dell'AI.

Laggi tutto qui: https://poliverso.org/display/0477a01e-7266-c990-a788-5b7678893514


Segui il blog con il tuo favorito RSS reader (https://noblogo.org/cooperazione-internazionale-di-polizia/feed/) e interagisci con i suoi post nel fediverso (@cooperazione-internazionale-di-polizia@noblogo.org). Scopri dove trovarci: https://l.devol.it/@CoopIntdiPolizia Tutti i contenuti sono CC BY-NC-SA (https://creativecommons.org/licenses/by-nc-nd/4.0/) Le immagini se non diversamente indicato sono di pubblico dominio.


L'Intelligenza artificiale (#AI) offre soluzioni innovative per la polizia dei crimini ambientali, riducendo costi e tempi

Un interessante studio apparso sul sito dell’ Institute for Securities Studies (ISS) approfondisce gli aspetti relativi all’ausilio che può fornire l’intelligenza artificiale alle forze di polizia impegnate nella lotta ai crimini ambientali, con particolare riguardo al continente africano.

#ENDENVCRIME #WILDLIFEtrafficking

Leggi tutto qui => https://poliverso.org/display/0477a01e-1366-bb84-c0b0-c82266811037


Segui il blog con il tuo favorito RSS reader (https://noblogo.org/cooperazione-internazionale-di-polizia/feed/) e interagisci con i suoi post nel fediverso (@cooperazione-internazionale-di-polizia@noblogo.org). Scopri dove trovarci: https://l.devol.it/@CoopIntdiPolizia Tutti i contenuti sono CC BY-NC-SA (https://creativecommons.org/licenses/by-nc-nd/4.0/) Le immagini se non diversamente indicato sono di pubblico dominio.


Il Gruppo G7 Roma-Lione è un gruppo di lavoro che fu creato sotto la Presidenza italiana del G8 nel 2001. Si concentra sulla formulazione di strategie contro il terrorismo e sulla lotta contro i crimini transnazionali. La partecipazione a questo gruppo include esperti e funzionari governativi provenienti da Canada, Francia, Germania, Giappone, Regno Unito, Stati Uniti e Italia. Il gruppo si riunisce per discutere e affrontare diverse tematiche, tra cui la tutela del patrimonio culturale, la lotta al terrorismo e all’estremismo violento, la prevenzione e il contrasto al commercio clandestino di beni culturali, e la cybersecurity. Le riunioni del G7 Gruppo Roma-Lione sono organizzate periodicamente per aggiornare il coordinamento tra i Paesi membri e sviluppare progetti condivisi in risposta alle minacce globali. Da ultimo i lavori del Gruppo si sono svolti nei giorni scorsi di aprile 2024 a Roma. Sono stati aperti dal vice segretario generale del ministero degli Affari Esteri e della Cooperazione Internazionale, Carlo Lo Cascio, dal direttore centrale sicurezza, Alessandro Azzoni e, per il ministero dell’Interno, dal vice capo della Polizia preposto all’attività di coordinamento e panificazione delle Forze di polizia, Stefano Gambacurta e dal direttore dell’Ufficio di coordinamento e pianificazione delle Forze di polizia, Annunziato Vardé.

Si tratta della prima riunione del Gruppo G7 Roma/Lione sotto Presidenza italiana, nella quale il dipartimento della Pubblica Sicurezza, insieme al ministero degli Affari Esteri e della Cooperazione Internazionale, ha il mandato di coordinare e rafforzare la risposta congiunta dei Paesi G7 in materia di lotta alla criminalità organizzata transnazionale ed al terrorismo.

Al congresso erano presenti anche i servizi diplomatici di Polizia dei Paesi membri e qualificati referenti di importanti organizzazioni internazionali come #Interpol, #Unodc (United Nations Office on Drugs and Crime), #Gcerf (Global Fund for Preventing Violent Extremism), #Unicri (United Nations Interregional Crime and Justice Research Institute). Sono stati affrontati temi relativi al contrasto del traffico di esseri umani e della tratta di migranti, dell’utilizzo per fini illeciti di criptovalute, del cybercrime, dello sfruttamento e abuso sessuale dei minori con uno sguardo rivolto alle best practices adottate dai Paesi G7 e della frode transnazionale, in particolare sul web.

Approfondimenti specifici sono stati dedicati al ruolo dell'intelligenza artificiale (#AI) nel settore della sicurezza per prevenire i possibili rischi di un uso illecito da parte delle reti criminali e alle droghe sintetiche soprattutto riguardo la crescente ed allarmante diffusione del #Fentanyl.

Riguardo al terrorismo e l’estremismo violento, è emersa l’importanza di garantire una visione globale e condivisa del fenomeno per intervenire immediatamente per l’individuazione di potenziali terroristi nei loro movimenti transfrontalieri. Sono state evidenziate inoltre le ripercussioni sulla sicurezza globale a seguito degli attacchi di #Hamas e del più recente attentato a Mosca e la minaccia legata al riemergere del gruppo #ISIS-K.

Dalla riunione i Paesi partner sono arrivati ad importanti conclusioni: in primo luogo è stato deciso di creare un network specifico attivo 24/7 per lo sviluppo e il rafforzamento della cooperazione strategica e tecnica in materia di uso illecito di #criptovalute. È stato infine deciso anche di affidare all’Italia la Presidenza del sottogruppo di lavoro #Lepsg (Law Enforcement Projects Sub-Group) che gestisce i numerosi progetti attuativi delle misure di cooperazione adottate dal Gruppo Roma/Lyon.

Particolarmente apprezzato dai partecipanti l’approccio italiano sulla prevenzione delle cause che originano i fenomeni criminali per adottare l’idonea strategia di sicurezza.

#GruppoRomaLione #RomaLyon #Poliziadistato


Segui il blog con il tuo favorito RSS reader (https://noblogo.org/cooperazione-internazionale-di-polizia/feed/) e interagisci con i suoi post nel fediverso (@cooperazione-internazionale-di-polizia@noblogo.org). Scopri dove trovarci: https://l.devol.it/@CoopIntdiPolizia Tutti i contenuti sono CC BY-NC-SA (https://creativecommons.org/licenses/by-nc-nd/4.0/) Le immagini se non diversamente indicato sono di pubblico dominio.


LA LEGGE EUROPEA SULL'INTELLIGENZA ARTIFICIALE E L'IDENTIFICAZIONE BIOMETRICA DA PARTE DELLE FORZE DI POLIZIA

La legge europea sull’intelligenza artificiale stabilisce norme per l’uso dell’intelligenza artificiale (#AI) nell’Unione europea (#UE) e mira a garantire che i sistemi di intelligenza artificiale non comportino rischi sistemici per l’Unione. Il testo (https://www.europarl.europa.eu/doceo/document/A-9-2023-0188-AM-808-808_IT.pdf) non verrà promulgato prima di maggio 2024 e le regole dell’AI Act entreranno in vigore a scaglioni.

Il Regolamento si basa sul livello di rischio, con obblighi graduati in base a esso, dalle pratiche inaccettabili, agli usi ad alto rischio, quelli che necessitano di trasparenza (come chatbot, AI generative e deepfakes) e quelli a basso rischio, regolati da principi generali.

Tra le pratiche vietate di AI rientrano la manipolazione o l'inganno a fini di distorsione del comportamento, i sistemi che sfruttano le vulnerabilità, la categorizzazione biometrica che viola i diritti personali, la classificazione di individui o gruppi sulla base di comportamenti o caratteristiche sociali, l'identificazione biometrica remota in tempo reale in pubblico per le forze dell'ordine, profilazione di individui per comportamenti criminali, database di riconoscimento facciale non autorizzati e deduzione di emozioni nelle istituzioni senza ragioni mediche o di sicurezza. In particolare, i sistemi di AI che non presentano rischi significativi per la salute, la sicurezza o i diritti fondamentali delle persone fisiche non saranno considerati ad alto rischio se soddisfano criteri specifici. I modelli di AI per scopi generali devono soddisfare obblighi quali la manutenzione della documentazione e la cooperazione con le autorità. I deep fake, definiti come contenuti ingannevoli generati dall'intelligenza artificiale, richiedono la divulgazione se non legalmente autorizzati o fanno parte di opere artistiche. Inoltre, il watermarking dei contenuti generati dall’intelligenza artificiale è obbligatorio per motivi di trasparenza, per cui i fornitori devono garantire una marcatura efficace e la compatibilità con gli standard tecnici.

Sebbene la legge copra vari aspetti della regolamentazione dell’AI, comprese disposizioni per diversi settori, non delinea specificamente cosa una forza di polizia può o non può fare con l’AI.

Gli aspetti maggiormente critici riguardano l'identificazione biometrica.

A tale riguardo l'art. 26, comma 10, così recita: “ nel quadro di un'indagine per la ricerca mirata di una persona sospettata o condannata per aver commesso un reato, il deployer di un sistema di IA ad alto rischio (elenco nell' Allegato III, ndr) per l'identificazione biometrica remota a posteriori chiede un'autorizzazione, ex ante o senza indebito ritardo ed entro 48 ore, da parte di un'autorità giudiziaria o amministrativa la cui decisione è vincolante e soggetta a controllo giurisdizionale, per l'uso di tale sistema, tranne quando è utilizzato per l'identificazione iniziale di un potenziale sospetto sulla base di fatti oggettivi e verificabili direttamente connessi al reato. Ogni uso è limitato a quanto strettamente necessario per le indagini su uno specifico reato. Se l'autorizzazione richiesta di cui al primo comma è respinta, l'uso del sistema di identificazione biometrica remota a posteriori collegato a tale autorizzazione richiesta è interrotto con effetto immediato e i dati personali connessi all'uso del sistema di IA ad alto rischio per il quale è stata richiesta l'autorizzazione sono cancellati.” (...) In nessun caso tale sistema di IA ad alto rischio per l'identificazione biometrica remota a posteriori è utilizzato a fini di contrasto in modo non mirato, senza alcun collegamento con un reato, un procedimento penale, una minaccia reale e attuale o reale e prevedibile di un reato o la ricerca di una determinata persona scomparsa. Occorre garantire che nessuna decisione che produca effetti giuridici negativi su una persona possa essere presa dalle autorità di contrasto unicamente sulla base dell'output di tali sistemi di identificazione biometrica remota a posteriori. (...). Indipendentemente dalla finalità o dal deployer, ciascun uso di tali sistemi di IA ad alto rischio è documentato nel pertinente fascicolo di polizia e messo a disposizione della pertinente autorità di vigilanza del mercato e dell'autorità nazionale per la protezione dei dati, su richiesta, escludendo la divulgazione di dati operativi sensibili relativi alle attività di contrasto

L’AI Act mira a stabilire un quadro per garantire l’uso etico e responsabile dell’AI, che include la gestione dei potenziali rischi e la garanzia del controllo umano sulle decisioni critiche.

Le limitazioni e le normative specifiche riguardanti l’uso dell’intelligenza artificiale da parte delle forze di polizia possono variare tra i diversi Stati membri dell’UE. La legge sull’intelligenza artificiale fornisce un quadro completo per la regolamentazione dell’IA, ma l’attuazione e l’applicazione di tali regolamenti saranno effettuate a livello nazionale.


Segui il blog con il tuo favorito RSS reader (https://noblogo.org/cooperazione-internazionale-di-polizia/feed/) e interagisci con i suoi post nel fediverso (@cooperazione-internazionale-di-polizia@noblogo.org). Scopri dove trovarci: https://l.devol.it/@CoopIntdiPolizia Tutti i contenuti sono CC BY-NC-SA (https://creativecommons.org/licenses/by-nc-nd/4.0/) Le immagini se non diversamente indicato sono di pubblico dominio.