top of page

Criminalità organizzata e intelligenza artificiale

Immagine del redattore: Andrea ViliottiAndrea Viliotti

L'intelligenza artificiale (AI) sta rapidamente trasformando molti aspetti della nostra società, ma il suo impatto non è sempre positivo. Uno degli ambiti in cui l'AI sta trovando utilizzi controversi è quello della criminalità organizzata. Un recente studio del programma EL PACCTO 2.0 ha evidenziato come l'adozione di tecnologie AI da parte di gruppi criminali sia già una realtà, soprattutto in America Latina, nei Caraibi e nell'Unione Europea. In questo articolo, esploreremo come l'AI viene sfruttata dalla criminalità organizzata, quali sono i principali crimini commessi con strumenti AI e come le istituzioni di giustizia e sicurezza stanno cercando di rispondere a queste sfide.

Criminalità organizzata e intelligenza artificiale
Criminalità organizzata e intelligenza artificiale

Criminalità organizzata e intelligenza artificiale: un connubio pericoloso

Criminalità organizzata e intelligenza artificiale hanno favorito un rafforzamento delle attività illecite come il traffico di esseri umani, il ransomware, le frodi bancarie e gli abusi sessuali. Un elemento particolarmente allarmante riguarda la semplicità con cui queste tecnologie possono essere utilizzate anche da individui con competenze tecniche limitate. Grazie all'automazione, è possibile ampliare il raggio d'azione delle operazioni criminali, riducendo al contempo le probabilità di essere individuati.


Un esempio emblematico è l'utilizzo dei bot controllati dall'AI per lanciare attacchi su larga scala, come i Distributed Denial of Service (DDoS), o per distribuire malware. Recenti rapporti evidenziano che questi bot sono sempre più sofisticati e in grado di identificare e sfruttare le vulnerabilità in tempo reale, aumentando l'efficacia e riducendo i tempi necessari per portare a termine un attacco. Secondo il programma EL PACCTO, tra il 2021 e il 2023, si è registrato un aumento del 284% nei casi di furto d'identità in Sud Africa, facilitato dall'utilizzo di AI per creare identità false e frodi finanziarie. Questi numeri testimoniano come l'AI non solo incrementi l'efficacia delle azioni criminali, ma renda anche estremamente difficile il contrasto da parte delle autorità.


In America Latina, i gruppi criminali hanno iniziato ad utilizzare droni controllati da AI per trasportare droga e per condurre attacchi fisici contro gruppi rivali o forze dell'ordine. Nel 2018, ad esempio, un attacco con droni è stato portato contro il Segretario della Sicurezza Pubblica dello Stato di Baja California in Messico. I droni, equipaggiati con dispositivi esplosivi, rappresentano una nuova minaccia che combina l'autonomia e la precisione delle tecnologie AI con l'efficacia di armi letali. Inoltre, questi dispositivi sono stati utilizzati per monitorare e sorvegliare le attività delle forze dell'ordine, complicando ulteriormente le operazioni delle autorità.


L'AI viene anche utilizzata per identificare le vittime potenziali del traffico di esseri umani attraverso piattaforme digitali, come social media e siti di incontri. Questo consente ai criminali di targettizzare con precisione persone vulnerabili in situazioni di difficoltà economica o sociale. Un recente rapporto del programma EL PACCTO ha rilevato che il reclutamento online e l'uso di AI per manipolare le vittime è una pratica ormai consolidata nelle reti di traffico di esseri umani in Europa e America Latina. Le tecniche di machine learning vengono impiegate per analizzare i profili delle vittime e ottimizzare le tattiche di persuasione, aumentando il successo delle operazioni di reclutamento.


Un altro aspetto preoccupante è l'uso delle tecnologie deepfake. Oltre a creare video e audio falsi per impersonare altre persone, queste tecnologie vengono sfruttate per truffe finanziarie sofisticate. Nel 2024, una truffa in Inghilterra ha visto l'utilizzo di deepfake per impersonare un direttore finanziario, convincendo un dipendente a trasferire oltre 25 milioni di dollari. In molti casi, i deepfake vengono utilizzati per falsificare identità e compiere truffe bancarie o altre attività fraudolente, rendendo sempre più difficile per le vittime distinguere tra realtà e finzione.

 

La risposta delle istituzioni di Giustizia e Sicurezza

Le istituzioni di giustizia e sicurezza stanno cercando di rispondere alle sfide poste dall'uso criminale dell'AI adottando a loro volta tecnologie AI per la prevenzione e il contrasto dei crimini. Tra le applicazioni più comuni ci sono:

  • Analisi predittiva e sorveglianza: L'AI viene utilizzata per analizzare grandi quantità di dati e prevedere dove potrebbero verificarsi crimini, consentendo alle forze dell'ordine di ottimizzare l'allocazione delle risorse. Un esempio significativo è l'utilizzo di algoritmi predittivi per identificare aree ad alto rischio e migliorare il pattugliamento. In Colombia, il progetto sviluppato in collaborazione con UNESCO ha permesso di migliorare la distribuzione delle risorse di polizia basandosi su dati di criminalità storici e in tempo reale. Tuttavia, l'utilizzo di tecnologie predittive solleva importanti questioni etiche e relative ai diritti umani, come la discriminazione e la sorveglianza eccessiva di comunità vulnerabili.

  • Gestione dei casi giudiziari: In Europa, vari paesi hanno adottato sistemi basati sull'AI per gestire i casi giudiziari in modo più efficiente, automatizzando compiti ripetitivi e facilitando l'accesso alle informazioni legali. In Germania, il sistema OLGA (On-line-Strafverfahrensregister für Organisierte Kriminalität und Geldwäsche) consente di centralizzare e gestire i dati dei casi di criminalità organizzata, migliorando la condivisione delle informazioni e ottimizzando i tempi di risposta. Anche in America Latina, alcune giurisdizioni stanno cercando di digitalizzare e modernizzare le loro infrastrutture giudiziarie attraverso l'integrazione dell'AI, anche se l'implementazione è ostacolata da risorse limitate e infrastrutture fragili.

  • Riconoscimento facciale: Le tecnologie di riconoscimento facciale basate sull'AI sono utilizzate per identificare sospetti o vittime, sebbene vi siano importanti questioni etiche legate alla privacy e alla possibilità di errori. In America Latina, i sistemi di riconoscimento facciale sono stati adottati in paesi come Brasile e Messico, dove vengono utilizzati per monitorare luoghi pubblici e garantire la sicurezza. Tuttavia, vi sono stati numerosi casi di uso improprio di queste tecnologie, come la sorveglianza non autorizzata di attivisti e giornalisti, sollevando preoccupazioni riguardo alla protezione dei diritti umani.

  • Cooperazione internazionale e blockchain: Un altro elemento importante nella risposta alla criminalità organizzata è la cooperazione internazionale. Progetti come INSPECTr, finanziato dall'Unione Europea, utilizzano la tecnologia blockchain per garantire l'integrità delle prove raccolte e la tracciabilità dei dati tra le diverse giurisdizioni. Questa tecnologia aiuta a ridurre il rischio di manipolazione delle prove e facilita la condivisione sicura delle informazioni tra le autorità.

  • Traduzione e interpretazione automatica: In un contesto di cooperazione internazionale, le barriere linguistiche rappresentano una sfida significativa. Progetti come MARCELL, all'interno del programma Connecting Europe Facility (CEF), mirano a migliorare la qualità delle traduzioni automatiche in contesti legali, permettendo una comunicazione più fluida durante i procedimenti transnazionali. Questo è particolarmente rilevante nei casi in cui la cooperazione tra diversi paesi è essenziale per combattere il crimine organizzato.


Nonostante questi sforzi, rimangono numerose sfide legate all'utilizzo dell'AI nelle attività di giustizia e sicurezza. Una delle principali riguarda la protezione dei diritti umani e la gestione dei bias algoritmici che potrebbero portare a discriminazioni. La necessità di regolamentazioni rigorose per garantire un uso etico e responsabile di queste tecnologie è più che mai evidente, soprattutto nel contesto dell'introduzione di strumenti come il riconoscimento facciale e l'analisi predittiva, che possono avere un impatto diretto sulla vita dei cittadini.


Raccomandazioni e linee guida di organizzazioni internazionali

Negli ultimi anni si è registrato un crescente interesse verso lo sviluppo etico, responsabile ed equo delle tecnologie di intelligenza artificiale. In questo ambito, molte istituzioni internazionali hanno operato con impegno, contribuendo alla definizione di linee guida, principi e raccomandazioni. Un riferimento significativo a livello europeo è rappresentato dalle "Linee Guida per l’AI Affidabile", pubblicate nel 2019 dall'High Level Expert Group on Artificial Intelligence (HLEG), un gruppo di esperti istituito dalla Commissione Europea con l'obiettivo di delineare una visione condivisa che assicuri il rispetto dei diritti umani, dei valori democratici e dei principi etici profondamente radicati.


Le linee guida hanno evidenziato l’importanza di una robustezza tecnica capace di minimizzare rischi e vulnerabilità, la centralità della sicurezza nello sviluppo tecnologico e la trasparenza, essenziale per consentire a utenti e regolatori di comprendere le logiche alla base dei processi decisionali automatizzati. Inoltre, è stata messa in luce la responsabilità di ogni soggetto coinvolto nel ciclo di vita dei sistemi di intelligenza artificiale e l’esigenza di prevenire qualsiasi forma di discriminazione, per evitare che la tecnologia diventi strumento di ingiustizia o disuguaglianza.


L’attenzione verso il tema si è estesa ben oltre l’Unione Europea, toccando le Nazioni Unite e i loro organi decisionali. Nel 2024, l’Assemblea Generale delle Nazioni Unite ha adottato una Risoluzione Generale (78/L.49) che, rimarcando la centralità dei diritti umani, invita gli Stati membri a non utilizzare l’AI in modo contrario al diritto internazionale, impegnandoli a prevenire scenari in cui queste tecnologie possano essere sfruttate per attività lesive delle libertà fondamentali o per colpire categorie di persone già vulnerabili. Il documento pone le basi per una cooperazione internazionale che miri alla protezione dei diritti in ogni fase della progettazione, sviluppo, distribuzione e utilizzo dei sistemi automatizzati, ispirando politiche nazionali che non trascurino, nemmeno per un istante, la dimensione etica della tecnologia.


Un ulteriore strumento messo a disposizione della comunità internazionale è rappresentato dal Toolkit per l’Intelligenza Artificiale Responsabile destinato alle forze dell’ordine, realizzato dall’Istituto Interregionale delle Nazioni Unite per la Ricerca sul Crimine e la Giustizia (UNICRI) e da INTERPOL, con il sostegno dell’Unione Europea. Questo Toolkit offre una guida pratica per orientare le agenzie di sicurezza nella comprensione e nell’impiego di sistemi di AI, fornendo indicazioni su come utilizzare la tecnologia in modo coerente con i diritti umani, i principi etici e i valori fondamentali su cui si basano le società contemporanee. Attraverso questa iniziativa, le forze di polizia e le istituzioni giudiziarie di diversi paesi possono acquisire conoscenze teoriche e operative, adottare procedure trasparenti, valutare l’impatto delle tecnologie sul terreno e rendere più efficaci le attività di prevenzione e contrasto del crimine, senza però venir meno ai principi di responsabilità e legittimità.


L’Organizzazione delle Nazioni Unite per l’Educazione, la Scienza e la Cultura (UNESCO) ha svolto un ruolo cruciale in questo sforzo globale attraverso la creazione di un Osservatorio Globale per la Governance e l’Etica dell’AI, concepito come uno strumento di monitoraggio permanente sulle pratiche etiche adottate in diversi contesti nazionali. Oltre a fornire linee guida per valutare l’impatto delle tecnologie AI, l’UNESCO ha promosso la diffusione di buone pratiche e dato vita a strutture come il Laboratorio per l’Etica e la Governance dell’AI, pensato per raccogliere conoscenze, esperienze, studi e ricerche, così da favorire una costante evoluzione delle normative e dei meccanismi di supervisione. Già nel 2021 l’UNESCO aveva pubblicato la “Raccomandazione sull’Etica dell’Intelligenza Artificiale”, un documento fondamentale che sintetizza valori e principi utili a orientare i governi e i decisori politici nella creazione di quadri normativi capaci di coniugare l’innovazione tecnologica con il rispetto della dignità umana, della diversità culturale e della tutela ambientale.


Un altro organismo di primo piano è l’Organizzazione per la Cooperazione e lo Sviluppo Economico (OCSE), che ha delineato una raccomandazione specifica sull’AI, promuovendo la visione di un uso della tecnologia in linea con i principi democratici, la protezione dei diritti umani e la necessità di mantenere il controllo umano laddove i sistemi automatizzati possano manifestare comportamenti non desiderati. L’OCSE ha aggiornato le proprie linee guida nel 2024, ampliando la definizione di “sistema di AI” e affrontando in modo più specifico le problematiche legate alla sicurezza, in modo che l’intervento umano continui a essere possibile e sicuro anche in scenari di emergenza, prevenendo potenziali abusi o malfunzionamenti.


Nel complesso, il quadro che emerge dal lavoro di organizzazioni internazionali, agenzie specializzate e progetti finanziati su scala globale è quello di un ecosistema in costante evoluzione, teso alla creazione di standard condivisi per la governance, la regolamentazione e l’etica dell’intelligenza artificiale. Un ecosistema che, pur riconoscendo le potenzialità innovative di queste tecnologie, cerca di mantenerne il controllo umano, di vincolarle a precisi principi etici e di collocarle all’interno di una prospettiva sostenibile, inclusiva e attenta alle dimensioni sociali, ambientali ed economiche. Si tratta di un processo in corso, un lavoro collettivo che coinvolge governi, istituzioni sovranazionali, esperti, comunità scientifiche, società civile e settore privato, e che mira ad assicurare che l’intelligenza artificiale diventi una risorsa a beneficio dell’umanità, costantemente orientata al rispetto dei diritti, delle libertà, della sicurezza e del bene comune.

 

Cooperazione giuridica internazionale

Negli ultimi anni, la cooperazione giuridica internazionale ha acquisito un ruolo di crescente rilevanza nel contrasto alla criminalità transnazionale, spingendo l’Unione Europea e i suoi partner a finanziare e promuovere progetti innovativi per sostenere agenzie di sicurezza, forze dell’ordine e istituzioni giudiziarie. Progetti come EXCAPE hanno inaugurato una nuova generazione di strumenti basati sull’intelligenza artificiale e sull’analisi avanzata dei dati, finalizzati a identificare e prevedere le dinamiche della criminalità organizzata su scala globale. Attraverso l’integrazione di fonti informative diversificate, che spaziano dai social network ai registri finanziari e criminali, EXCAPE mira a fornire una visione completa delle attività illecite, favorendo un coordinamento più efficace tra le varie giurisdizioni e accelerando gli interventi contro fenomeni particolarmente complessi e articolati.


In parallelo, il progetto ROXANNE ha illustrato come il riconoscimento vocale, unito a sofisticate tecniche di analisi delle reti sociali, possa potenziare la capacità delle forze dell’ordine di identificare e disarticolare gruppi criminali organizzati. Attraverso l’elaborazione di comunicazioni intercettate, ROXANNE ha mostrato come sia possibile collegare tra loro individui sospettati, svelando legami, gerarchie e dinamiche interne spesso molto difficili da far emergere con i metodi tradizionali. In tal modo, è stato possibile fornire prove più solide alle autorità competenti, migliorando la qualità e l’efficacia delle indagini.


Un ulteriore tassello di questo mosaico è rappresentato dal progetto TRACE, che punta specificamente a contrastare il traffico di esseri umani grazie all’impiego di algoritmi di apprendimento automatico in grado di rilevare pattern di reclutamento online e mappare le rotte utilizzate dai trafficanti. Questo approccio rende possibile analizzare comunicazioni e movimenti in modo sistematico, facendo emergere reti di complici e percorsi geografici della tratta che, una volta identificati, possono essere ostacolati e smantellati. La comprensione di queste dinamiche ha offerto un importante strumento pratico per aiutare gli inquirenti a intervenire in maniera tempestiva e mirata, proteggendo individui vulnerabili e scoraggiando la proliferazione di tali crimini.


Altrettanto rilevante è stata l’esperienza maturata con il progetto INSPECTr. Qui, l’attenzione si è concentrata sulla creazione di un’infrastruttura tecnologica comune, una sorta di piattaforma di intelligence condivisa che, sfruttando l’analisi di big data, il machine learning e la tecnologia blockchain, ha facilitato la circolazione di informazioni digitali e forensi fra diverse giurisdizioni. INSPECTr ha infatti consentito una gestione più rapida e intelligente delle indagini su crimini complessi, riducendo i costi e superando ostacoli legati alla frammentazione delle banche dati o all’eterogeneità delle procedure. Questa maggiore fluidità nello scambio di informazioni e nel coordinamento operativo ha rafforzato la collaborazione transfrontaliera, innalzando il livello di fiducia tra le parti coinvolte e migliorando sensibilmente l’efficacia della risposta internazionale a minacce criminali in rapida evoluzione.


Un approccio diverso ma altrettanto cruciale per la cooperazione giuridica è stato implementato dal progetto AVIDICUS, che ha indagato l’utilizzo dell’interpretazione video-mediata nei procedimenti penali internazionali. Suddiviso in tre fasi, questo percorso ha consentito di osservare l’impatto della videoconferenza e dell’interpretazione a distanza sulla qualità delle comunicazioni tra giudici, avvocati, imputati, testimoni e interpreti. Dal miglioramento della comprensione reciproca alla fornitura di formazione specifica per i professionisti coinvolti, AVIDICUS ha mostrato come le tecnologie di comunicazione possano contribuire a un sistema giudiziario più efficiente e inclusivo, riducendo le barriere linguistiche e culturali che in passato rallentavano o compromettevano l’equità dei processi. L’armonizzazione delle procedure e l’accesso più agevole ai servizi di interpretariato hanno inoltre agevolato la condivisione di informazioni, potenziando la cooperazione tra gli Stati e favorendo un’efficace amministrazione della giustizia.


Nel complesso, l’insieme di questi progetti mette in luce una visione integrata della cooperazione giuridica internazionale, in cui tecnologie all’avanguardia, analisi dei dati, interpretazione mediata, intelligenza artificiale e blockchain si combinano per rendere il contrasto al crimine più tempestivo, coordinato e incisivo. L’obiettivo comune è instaurare un ecosistema di collaborazione in cui le differenze normative, linguistiche o organizzative non costituiscano più un ostacolo insormontabile, bensì una sfida da superare attraverso la condivisione di conoscenze, l’innovazione tecnologica e la costruzione di fiducia reciproca. Queste iniziative testimoniano l’impegno profuso a livello internazionale per garantire un futuro in cui la cooperazione giuridica sia in grado di adeguarsi costantemente alla natura mutevole della criminalità, proteggendo i cittadini, i valori fondamentali e la stabilità delle società nel lungo periodo.

 

Iniziative regolamentari regionali e nazionali

Negli ultimi anni, a livello regionale e nazionale, si è osservata un’intensificazione degli sforzi volti a integrare le raccomandazioni e i principi etici internazionali all’interno delle strategie per l’adozione dell’intelligenza artificiale. In particolare, l’America Latina e i Caraibi stanno progressivamente incorporando questi orientamenti, con numerosi paesi impegnati nello sviluppo di proprie strategie nazionali volte a favorire l’uso responsabile di tecnologie AI in diversi settori economici e sociali. Argentina, Brasile, Cile, Colombia, Messico, Perù e Uruguay, ad esempio, hanno già definito o stanno definendo linee guida politiche che riflettono la consapevolezza della necessità di bilanciare opportunità d’innovazione con la salvaguardia dei diritti umani, la tutela della democrazia, la trasparenza dei processi e l’accesso equo ai benefici dell’AI. Il Costa Rica, attraverso il suo Ministero della Scienza, Innovazione, Tecnologia e Telecomunicazioni (MICITT), ha reso pubblica la Strategia Nazionale sull’Intelligenza Artificiale 2024-2027, indicando come, oltre al progresso tecnologico, sia essenziale mantenere saldo il rispetto di valori fondamentali come l’inclusione, la responsabilità e la sostenibilità.


Queste iniziative non si limitano a ricalcare meccanicamente le raccomandazioni provenienti da enti quali OCSE e UNESCO, ma tendono a radicarle nelle dinamiche e nelle priorità locali. La ricerca di un equilibrio tra esigenze economiche, disponibilità infrastrutturale, capitale umano formato e attenzione ai diritti digitali ha portato, ad esempio, alla creazione dell’Indice Latino-americano sull’Intelligenza Artificiale (ILAI), sviluppato dalla Commissione Economica per l’America Latina e i Caraibi (CEPAL) in collaborazione con il Centro Nazionale di Intelligenza Artificiale del Cile (CENAI) e con il sostegno della Banca Interamericana di Sviluppo (IDB). Questo strumento di valutazione non solo evidenzia la capacità dei singoli paesi di adottare e integrare tecnologie AI, ma offre anche un quadro comparativo sulla qualità delle politiche e delle risorse introdotte. I risultati dell’ILAI indicano che Cile, Brasile e Uruguay si distinguono in termini di investimenti in ricerca, formazione e innovazione, proponendosi come modelli regionali nella creazione di ecosistemi tecnologici più maturi e consapevoli.


Nonostante i progressi, emergono ancora aree in cui le normative e le strategie appaiono meno sviluppate, specialmente nel settore della giustizia. L’impiego di sistemi AI nel contesto giudiziario potrebbe infatti offrire notevoli vantaggi in termini di efficienza e gestione dei flussi di lavoro, ma solleva questioni critiche relative alla protezione dei diritti individuali, all’equità delle decisioni automatizzate, alla trasparenza degli algoritmi e alla responsabilità degli attori coinvolti. Finora, soltanto un numero limitato di paesi ha iniziato a elaborare strategie dedicate all’AI nel settore della giustizia, e le linee guida elaborate dalla CEPEJ e dall’UNESCO, così come le esperienze di altri paesi, rappresentano punti di riferimento essenziali per evitare che l’automazione introduca nuove forme di discriminazione o comprometta la fiducia nei sistemi legali.


La questione della regolamentazione dell’AI è diventata particolarmente viva nell’Unione Europea, dove il Regolamento sull’Intelligenza Artificiale (REAI) approvato nel 2024 stabilisce un quadro normativo che individua diversi livelli di rischio associati all’uso delle tecnologie AI, imponendo obblighi stringenti in settori critici e vietando talune applicazioni considerate incompatibili con i valori fondamentali dell’UE. Questo approccio si fonda sulla prevenzione di eventuali abusi, ad esempio vietando alcuni sistemi di identificazione biometrica remota in spazi pubblici, e sul rafforzamento della responsabilità dei fornitori, imponendo loro di rispettare determinati requisiti prima di immettere i propri sistemi sul mercato.


Parallelamente al REAI, la Convenzione Quadro del Consiglio d’Europa sull’AI, aperta alla firma sempre nel 2024, aggiunge un ulteriore tassello alla protezione dei diritti umani, della democrazia e dello stato di diritto nell’era digitale. Questo trattato internazionale vincolante sottolinea l’importanza di adottare misure legislative, politiche e di supervisione in grado di rendere l’uso dell’AI compatibile con gli standard più elevati di trasparenza, sicurezza e responsabilità, richiamando gli Stati a un costante sforzo di cooperazione nell’armonizzazione delle politiche nazionali.


Nel complesso, il panorama regionale e nazionale mostra una complessità in cui paesi con diversi livelli di sviluppo, diverse priorità politiche e differenti risorse finanziarie stanno cercando di costruire un framework normativo coerente con i principi internazionali e con le raccomandazioni etiche. Da un lato, si assiste alla maturazione di strategie integrate, che collegano settori economici chiave, percorsi di formazione, infrastrutture tecnologiche e scelte di governance; dall’altro, rimane viva la necessità di rinforzare la regolamentazione in ambiti specifici come la giustizia e la protezione di soggetti vulnerabili, nonché di consolidare la cooperazione tra Stati e organizzazioni internazionali. Il risultato di questi sforzi incrociati dovrebbe essere una maggiore fiducia nella capacità dell’umanità di governare e sfruttare l’intelligenza artificiale in modo che la tecnologia, anziché sovvertire diritti e valori, contribuisca in modo trasparente e responsabile alla crescita economica, al progresso sociale e allo sviluppo sostenibile.

 

Sfide etiche e di diritti umani

L'uso di strumenti basati sull'intelligenza artificiale nelle attività di giustizia e sicurezza pone numerosi interrogativi di natura etica. Tra i rischi principali si evidenziano i pregiudizi algoritmici, che possono determinare discriminazioni significative. Ad esempio, i sistemi di riconoscimento facciale tendono spesso a commettere errori nell'identificazione di individui appartenenti a minoranze etniche, mettendo a rischio l'imparzialità delle indagini. Uno studio condotto dall'AI Now Institute ha rilevato che le donne di colore presentano tassi di errore significativamente superiori rispetto agli uomini caucasici, aumentando così il pericolo di ingiustizie e discriminazioni. Per affrontare questi problemi, l'Unione Europea ha emanato la Raccomandazione CM/Rec(2020)1, che prescrive valutazioni periodiche sull'impatto che i sistemi di intelligenza artificiale utilizzati nelle indagini penali hanno sui diritti umani e sulla privacy.


Inoltre, l'utilizzo dell'AI per la sorveglianza predittiva solleva preoccupazioni riguardo la privacy dei cittadini e la possibile violazione dei diritti umani fondamentali. L'uso di strumenti di sorveglianza predittiva potrebbe portare a una "profilazione di massa" delle persone, in cui individui appartenenti a determinate categorie sociali o demografiche vengano identificati come potenziali minacce senza alcuna prova concreta. La Corte costituzionale della Colombia ha recentemente emesso un parere sull'uso di strumenti generativi di AI, come ChatGPT, nelle decisioni giudiziarie, avvertendo sui rischi per i diritti fondamentali dei cittadini e sull'importanza di garantire che la decisione finale rimanga nelle mani dei giudici umani.


Inoltre, l'adozione di AI nel campo della giustizia senza un'adeguata formazione del personale giudiziario potrebbe amplificare i rischi di bias e decisioni scorrette. Per questo motivo, varie organizzazioni internazionali, come UNESCO e OECD, stanno promuovendo programmi di formazione per garantire che il personale giudiziario abbia le competenze necessarie per comprendere e utilizzare in modo responsabile le tecnologie AI. Ad esempio, il programma fAIr LAC+ dell'Inter-American Development Bank offre linee guida etiche e strumenti per valutare l'uso delle AI nel settore pubblico, mirate specificamente ai contesti dell'America Latina e dei Caraibi.


Un altro problema è la scarsità di rappresentanza delle donne nello sviluppo di algoritmi AI. Secondo uno studio dell'UNESCO, solo il 22% dei professionisti dell'AI sono donne, il che può portare a una scarsa considerazione delle prospettive di genere nello sviluppo delle tecnologie. Questo squilibrio non solo contribuisce a perpetuare bias esistenti, ma limita anche la capacità di creare soluzioni inclusive che proteggano tutti i settori della società. L'UNESCO ha lanciato iniziative come il Global AI Ethics and Governance Observatory per monitorare l'adozione di linee guida etiche e promuovere la parità di genere nello sviluppo delle tecnologie AI.


In conclusione, affrontare le sfide etiche e di diritti umani poste dall'adozione dell'AI nel campo della giustizia e della sicurezza richiede un impegno multilaterale. Le tecnologie AI possono offrire strumenti potenti per la prevenzione e il contrasto della criminalità, ma la loro implementazione deve essere accompagnata da una regolamentazione rigorosa, formazione adeguata e meccanismi di controllo per garantire un uso equo e responsabile. Senza queste misure, il rischio è che le tecnologie AI finiscano per rafforzare disuguaglianze e perpetuare ingiustizie piuttosto che contribuire a una società più sicura ed equa.

 

Conclusioni

L'utilizzo dell’intelligenza artificiale da parte della criminalità organizzata rappresenta uno specchio oscuro delle nostre aspirazioni tecnologiche, svelando una delle più profonde dicotomie dell’innovazione: la capacità di amplificare sia il progresso umano sia le sue devianze. La vera questione non è tanto come limitare gli usi illeciti dell’AI, quanto piuttosto comprendere il perché le vulnerabilità sistemiche, culturali e istituzionali della nostra società continuino a creare terreno fertile per tali abusi. Questa analisi porta a una riflessione strategica sulla governance, sulle priorità politiche e sui modelli economici dominanti, spingendo le imprese e le istituzioni a ripensare il proprio ruolo in uno scenario globale complesso e interconnesso.


Il crescente utilizzo dell’AI per attività illecite come il traffico di droga, la tratta di esseri umani e le truffe finanziarie non può essere letto esclusivamente come un "problema tecnologico" da risolvere con maggiori strumenti di sicurezza. È piuttosto una conseguenza inevitabile di un modello di sviluppo che privilegia la velocità di innovazione rispetto alla sostenibilità etica e sociale. La democratizzazione dell’accesso alle tecnologie AI, pur positiva per molti versi, sta abbattendo le barriere tecniche che un tempo limitavano l’adozione di strumenti sofisticati da parte dei criminali. Ma la questione più profonda riguarda il divario strutturale tra il ritmo dell’innovazione tecnologica e la capacità normativa e istituzionale di regolarla in tempo reale.


La strategia di risposta deve andare oltre l'implementazione di tecnologie di contrasto, come il riconoscimento facciale o l'analisi predittiva, e affrontare una revisione sistemica delle cause alla radice. Ciò include la fragilità istituzionale in alcune regioni, la disparità nell'accesso a risorse educative e l'incapacità di costruire infrastrutture di governance resilienti. La criminalità organizzata sfrutta queste debolezze non solo per adottare l’AI, ma per inserirsi nei vuoti lasciati da istituzioni statali inefficienti o corrotte, rafforzando il proprio controllo sociale ed economico.


Un elemento spesso trascurato è il ruolo del settore privato come attore cruciale nella prevenzione degli abusi legati all’AI. Le imprese tecnologiche, tradizionalmente viste come fornitrici di soluzioni, sono anche le principali produttrici delle tecnologie che finiscono per essere utilizzate in modo illecito. L’urgenza di monetizzare le innovazioni spesso porta a un rilassamento degli standard di sicurezza, creando prodotti che, pur essendo accessibili sul mercato, mancano di meccanismi di protezione adeguati contro l’abuso. Questo solleva un dilemma etico per le aziende: fino a che punto sono disposte a sacrificare la crescita economica per garantire una maggiore sicurezza sociale? È qui che il concetto di "accountability condivisa" dovrebbe essere ridefinito, richiedendo alle imprese di assumersi una responsabilità diretta non solo per l’uso legittimo delle loro tecnologie, ma anche per gli effetti collaterali delle loro applicazioni.


L’emergere di tecnologie come i deepfake e i droni autonomi introduce un'altra dimensione di rischio: la capacità dell’AI di minare il tessuto stesso della fiducia sociale. Quando la linea tra realtà e finzione si dissolve, le basi che sostengono la cooperazione e il rispetto della legge iniziano a cedere. Questo effetto non si limita a colpire chi subisce direttamente frodi o attacchi, ma incide in modo più profondo sulla stabilità dei mercati finanziari, sulla fiducia nelle istituzioni pubbliche e sulla percezione collettiva di sicurezza. Di fronte a questo scenario, le imprese sono chiamate a riflettere sul proprio ruolo come garanti della fiducia pubblica, adottando principi etici più rigorosi nei processi di innovazione.


Un altro punto chiave è il paradosso della sorveglianza predittiva, che promette di prevenire il crimine, ma rischia di alimentare disuguaglianze e discriminazioni. L’adozione di strumenti predittivi basati su dati storici può perpetuare bias esistenti, aggravando la marginalizzazione di comunità già vulnerabili. Questo solleva una questione fondamentale: chi ha il diritto di definire cosa sia "normalità" o "devianza" nel contesto della sicurezza? Le imprese, in particolare quelle che operano nel settore tecnologico, devono considerare il loro contributo alla perpetuazione di questi bias e sviluppare algoritmi che riflettano una diversità autentica, piuttosto che perpetuare modelli di esclusione.


Infine, l’adozione di AI nel contrasto alla criminalità non deve trasformarsi in una corsa agli armamenti tecnologici tra criminali e istituzioni, ma piuttosto in un’opportunità per ripensare i fondamenti del sistema di sicurezza globale. In un mondo in cui le tecnologie digitali non conoscono confini, la sicurezza deve essere ridefinita come un bene pubblico globale, richiedendo una cooperazione internazionale più profonda e strutturata. In questo senso, le imprese hanno un ruolo essenziale nel facilitare un dialogo tra i governi, la società civile e le istituzioni accademiche, contribuendo alla costruzione di un framework etico e normativo che non sia semplicemente reattivo, ma proattivo e orientato al lungo termine.


L'intelligenza artificiale, dunque, non è solo uno strumento, ma uno specchio che riflette le priorità e le fragilità delle nostre società. Il modo in cui scegliamo di affrontare la sua adozione da parte della criminalità organizzata non determinerà solo il futuro della sicurezza, ma plasmerà anche il nostro rapporto con l’innovazione, la giustizia e l’etica.


Comments

Rated 0 out of 5 stars.
No ratings yet

Add a rating
bottom of page