Intelligenza artificiale generativa e governance migratoria
- Elena Candotto
- 29 mag
- Tempo di lettura: 7 min
Aggiornamento: 3 giu
L’impiego dell’intelligenza artificiale generativa nella gestione dei flussi migratori solleva interrogativi giuridici particolarmente rilevanti, connessi alla trasparenza delle decisioni, alla proporzionalità delle misure adottate e alla protezione effettiva dei diritti dei migranti. Tali tecnologie stanno assumendo un ruolo crescente in tre ambiti principali: informazione, decisione amministrativa e sorveglianza, soprattutto alla luce dell’interoperabilità crescente tra banche dati europee e delle strategie di digitalizzazione dei confini promosse dall’Unione Europea.
1. Assistenti virtuali e funzione informativa
Uno degli impieghi più diffusi dell’IA generativa nella gestione migratoria riguarda la funzione informativa, ovvero l’utilizzo di chatbot o assistenti virtuali per fornire risposte automatizzate, riguardanti principalmente procedure amministrative o diritti fondamentali.
A livello europeo, alcuni Stati membri hanno già implementato questa tipologia di soluzioni. La Finlandia è un caso emblematico: il chatbot Kamu, attivo su siti istituzionali, fornisce informazioni in diverse lingue sui diritti dei migranti, sulle norme sull’asilo e sulle possibilità di ricorso. La Polonia ha invece sperimentato MyMigrationBot, un chatbot potenziato con elementi di profilazione psicologica, in grado di fornire suggerimenti personalizzati in base al background culturale e alle competenze dichiarate dai migranti.
Sebbene l’Italia non abbia ancora adottato strumenti specifici in tema migrazioni, è stato sviluppato il progetto Minerva, il quale potrebbe essere adattato per fornire servizi informativi in settori come l’accoglienza e l’integrazione.
L’utilizzo dell’IA generativa comporta rischi giuridici non trascurabili. Il primo è legato alla qualità e accuratezza dell’informazione (art. 5, par. 1, lett. d GDPR), in quanto il sistema può commettere errori ed offrire risposte fuorvianti o non aggiornate, specialmente in un contesto normativo complesso e in continua evoluzione come quello dell’immigrazione. Questo diventa particolarmente problematico se i migranti, per difficoltà linguistiche o mancanza di supporto legale, fanno totale affidamento su tali strumenti.
È inoltre necessario interrogarsi su chi sia responsabile delle informazioni fornite dall’IA. L’assenza di un chiaro regime di responsabilità potrebbe rendere difficile per il migrante ottenere un risarcimento o un rimedio effettivo in caso di danno. Ma non solo, in termini di protezione dei dati personali, è fondamentale garantire che le interazioni con i chatbots rispettino il GDPR, soprattutto quando vengono trattate informazioni sensibili, come la situazione legale, la salute, l’orientamento sessuale o l’etnia del richiedente.
Infine, va ricordato che la fiducia indotta da un’interfaccia fluida e «umana» può generare un effetto paradossale, in quanto l’utente tende a sovrastimare le competenze del sistema fino a rinunciare all’interazione con operatori umani, per timore o sfiducia, con un potenziale effetto dissuasivo, il c.d. chilling effect, nei confronti dell’esercizio dei propri diritti.
2. Automazione procedurale e funzione attiva
Quando l’IA non si limita a fornire informazioni, ma interviene in modo determinante all’interno di un procedimento amministrativo, si parla di funzione attiva. In questo caso, i dati elaborati dall’IA diventano una condizione per l’avanzamento o il blocco di una procedura, come ad esempio la valutazione di una domanda di ingresso, di asilo o di protezione internazionale.
Un esempio concreto è il sistema ETIAS (European Travel Information and Authorisation System), pensato per i cittadini di Paesi terzi esenti da visto che intendano entrare nello spazio Schengen. In questo sistema, profili di rischio vengono generati automaticamente incrociando i dati inseriti dal richiedente con informazioni contenute in banche dati europee (come quelle di Europol o Interpol). Qualora emergessero «alert» o indicatori sospetti, la richiesta verrebbe bloccata e sottoposta a revisione manuale.
L’integrazione di modelli generativi in questi contesti pone interrogativi giuridici ancora più complessi. Un sistema generativo potrebbe, ad esempio, redigere automaticamente un report valutativo su un richiedente, basandosi su dati inseriti e su contenuti preesistenti, oppure proporre un output testuale persuasivo destinato a orientare la decisione finale dell’operatore umano.
Se non adeguatamente controllate, queste operazioni possono compromettere la ricostruibilità e verificabilità dell’iter decisionale, ostacolando il diritto del soggetto a comprendere o contestare la logica dell’azione amministrativa.
In questo contesto il diritto dell’UE pone alcuni limiti fondamentali. Secondo l’art. 41 della Carta dei Diritti Fondamentali dell’Unione Europea, ogni persona ha diritto a una buona amministrazione. Ciò include, tra gli altri, il diritto a essere ascoltato, il diritto ad accedere al proprio fascicolo, e soprattutto il diritto a ottenere una motivazione delle decisioni che la riguardano (par. 2, lett. c). L’uso di sistemi non spiegabili rischia quindi di entrare in tensione con questo principio.
A ciò si aggiunge quanto previsto dall’art. 22 del GDPR, il quale riconosce a ogni individuo il diritto a non essere sottoposto a decisioni basate unicamente su un trattamento automatizzato, compresa la profilazione, se tali decisioni producono effetti giuridici o incidono significativamente sulla persona. Il legislatore europeo prevede alcune eccezioni (come l’esplicito consenso o la necessità contrattuale), ma impone in ogni caso misure adeguate a garantire intervento umano significativo, il diritto di esprimere la propria opinione e la possibilità di impugnazione.
Uno dei problemi è che, nella pratica, questi requisiti di supervisione umana possono diventare puramente formali, in quanto spesso l’operatore umano si limita a convalidare l’esito dell’algoritmo, senza possedere le competenze tecniche. È quello che la dottrina definisce «automation bias», ovvero la tendenza a fidarsi ciecamente della macchina, anche quando vi sarebbero elementi per dubitare della correttezza del risultato.
Nel caso dell’IA generativa, questo rischio è ancora maggiore, in quanto i testi generati sono spesso credibili, ben argomentati, e persuasivi, ma ciò non significa che siano accurati o giuridicamente fondati. In mancanza di una formazione specifica e di strumenti di verifica, l’operatore umano potrebbe non accorgersi di errori sostanziali, distorsioni logiche o valutazioni discriminatorie. Questo solleva la necessità di una nuova alfabetizzazione giuridico-digitale per gli operatori della pubblica amministrazione, così da garantire un effettivo controllo umano e non una semplice approvazione passiva.
3. Sorveglianza e funzione costrittiva
Quando l’intelligenza artificiale non si limita a influenzare le decisioni amministrative, ma incide direttamente sul comportamento fisico delle persone attraverso meccanismi automatici, si parla di funzione costrittiva. In questo caso, la regolazione delle condotte avviene tramite un’architettura che vincola in modo automatico le possibilità d’azione del soggetto.
Un esempio concreto sono gli e-gates biometrici, presenti in numerosi aeroporti europei, che permettono o impediscono fisicamente l’accesso in base alla verifica automatizzata dei dati biometrici. In altri casi, l’IA è utilizzata per il riconoscimento vocale o comportamentale, come nel progetto Dialect Identification Assistance System (DIAS) sperimentato in Germania, che tenta di identificare l’origine dei migranti analizzando l’accento con cui parlano l’arabo. Oppure il sistema iBorderCtrl, testato in Ungheria e Lettonia, in cui un avatar digitale valuta l’attendibilità dei migranti analizzando le microespressioni facciali, per determinare se mentono.
Questi strumenti si avvicinano a ciò che la dottrina ha definito «regolazione senza regole»: un modello in cui il comportamento umano è indirizzato non da obblighi giuridici, ma da vincoli tecnici incorporati in dispositivi digitali.
Spesso, il sistema annulla completamente la discrezionalità, applicando in modo meccanico una regola automatica, senza considerare le specificità individuali, le eccezioni, o le circostanze di contesto. Ciò entra in tensione diretta con il principio di proporzionalità, che impone un bilanciamento tra la misura adottata e l’obiettivo perseguito (es. sicurezza, controllo dei confini), il principio di trasparenza, che richiede che le persone sappiano perché e in base a cosa sono soggette a un determinato trattamento ed il principio di giustiziabilità, che garantisce il diritto di contestare e impugnare decisioni che incidono sui diritti individuali.
Dal punto di vista normativo, l’Artificial Intelligence Act classifica i sistemi impiegati nel contesto migratorio e di controllo delle frontiere come «ad alto rischio». Tuttavia, l’art. 112 del regolamento prevede che alcuni sistemi informativi su larga scala già operativi (come ETIAS, Eurodac e VIS) siano esclusi dall’immediata applicazione delle nuove regole, salvo modifiche significative, con un termine massimo di adeguamento fissato al 2 agosto 2030. Questa lacuna temporale rischia di lasciare scoperti proprio i contesti più critici, in cui il potere di selezione, esclusione e controllo viene esercitato da strumenti automatizzati, senza adeguati meccanismi di accountability pubblica. Il rischio è quello di consolidare pratiche di sorveglianza opaca, difficilmente sindacabili a livello giurisdizionale.
4. Verso un equilibrio tra tecnologia e garanzie
L’impiego dell’IA generativa nella gestione dei flussi migratori rappresenta dunque una sfida complessa che richiede un bilanciamento tra innovazione tecnologica ed esigenze di tutela giuridica. Il livello informativo, quello attivo e quello costrittivo delineano uno spostamento graduale del potere decisionale dall’umano alla macchina, con il rischio che il controllo umano diventi formale o illusorio. In questa prospettiva, la funzione del diritto non può limitarsi a regolamentare l’uso della tecnologia, ma deve riaffermare la centralità della persona e l’effettività delle garanzie procedurali, specialmente nei contesti automatizzati.
Nel livello informativo è fondamentale garantire l’affidabilità delle informazioni, accompagnata da un monitoraggio costante e dalla disponibilità di un supporto umano, per evitare che soggetti vulnerabili possano subire conseguenze negative a causa di dati incompleti o inesatti.
In quello dell’automazione procedurale, è essenziale che i procedimenti che coinvolgono l’IA generativa siano trasparenti, documentati e contestabili, e che ogni decisione sia effettivamente attribuibile a un agente umano consapevole e responsabile.
Infine, nell’ambito della funzione costrittiva, in cui l’IA incide direttamente sulle possibilità d’azione dei migranti, è necessario un quadro normativo chiaro e rigoroso, che includa una valutazione preventiva dell’impatto sui diritti fondamentali e garanzie procedurali effettive.
In definitiva, la sfida principale è sviluppare e adottare tecnologie di IA generativa che non solo migliorino l’efficienza gestionale, ma siano pienamente compatibili con i principi dello Stato di diritto. Solo in questo modo si può evitare che, in un settore ad alta intensità di vulnerabilità come quello migratorio, la tecnologia diventi uno strumento di esclusione ingiustificata e non controllata, garantendo invece una tutela concreta e accesso alla giustizia per le persone coinvolte.
Bibliografia
De Rosa T., AI e reinsediamento: sfide e soluzioni per l’UE, Lo Spiegone, 2024.
Morra F., Le lacune dell’AI Act nella protezione dei migranti, L’Atlante, 2024.
Penasa S., Intelligenza artificiale e garanzie costituzionali: i diritti dei migranti in un contesto algoritmico, Universität Innsbruck, 2024.
Carta dei diritti fondamentali dell'Unione europea, proclamata a Nizza il 7 dicembre 2000 e adattata a Strasburgo il 12 dicembre 2007, in Gazzetta ufficiale dell'Unione europea, C 326, 26 ottobre 2012, pp. 391-403.
Regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio del 27 aprile 2016 (Regolamento generale sulla protezione dei dati), [2016] OJ L119/1.
Regolamento (UE) 2017/2226 del Parlamento europeo e del Consiglio del 30 novembre 2017 che istituisce il sistema europeo di informazione e autorizzazione sui viaggi (ETIAS), [2017] OJ L312/1.
Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio del 13 giugno 2024 che stabilisce regole armonizzate sull’intelligenza artificiale, [2024] OJ L1689/1.
Regolamento (UE) n. 603/2013 del Parlamento europeo e del Consiglio del 26 giugno 2013 relativo alla creazione, all’accesso e all’uso del sistema europeo di impronte digitali per l’asilo (Eurodac), [2013] OJ L180/1.
Comments