1. Il fenomeno dei deepfake
L'intelligenza artificiale generativa rappresenta una delle innovazioni tecnologiche più dirompenti degli ultimi anni. Tra le sue applicazioni più controverse, i deepfake occupano un posto di rilievo, suscitando preoccupazioni significative in termini di sicurezza, privacy e integrità delle informazioni.
I deepfake sono contenuti multimediali falsi, quali immagini, video e audio, che vengono generati o manipolati tramite algoritmi di deep learning. L’intento è quello di far percepire all’utente che il contenuto in questione è una rappresentazione fedele della realtà.
Prima dell’avvento degli algoritmi di deep learning, solo i professionisti erano in grado di creare deepfake sofisticati. Oggi, tuttavia, chiunque può accedere a siti web che, a partire da un input, generano automaticamente contenuti falsi senza richiedere competenze tecniche avanzate. Questo fenomeno comporta un aumento significativo del rischio, poiché la possibilità di creare e diffondere tali contenuti non è più limitata a pochi, ma è diventata accessibile a chiunque.
L'uso illecito di tali tecnologie può avere impatti devastanti: dalla creazione di fake news alla manipolazione di prove giudiziarie, fino alla produzione di materiale pornografico non consensuale, con gravi conseguenze per le vittime.
2. Implicazioni sociali, etiche e psicologiche
Le conseguenze non si limitano ai danni materiali o legali, ma si estendono anche a livello psicologico e sociale, generando un profondo senso di vulnerabilità e perdita di controllo sulla propria identità digitale. Le vittime possono sperimentare ansia, depressione, isolamento sociale e un generale deterioramento del benessere emotivo. Inoltre, l'impatto reputazionale può influenzare negativamente le relazioni personali e professionali, creando un circolo vizioso di stigmatizzazione e marginalizzazione.
Un aspetto etico cruciale è rappresentato dal fenomeno della “trust erosion”. L’incapacità di distinguere tra contenuti autentici e manipolati mina la fiducia nelle informazioni digitali, nelle istituzioni e nei media tradizionali. Questo effetto va oltre il danno diretto alle vittime dei deepfake, poiché contribuisce a creare un clima di sospetto generalizzato, in cui la veridicità di qualsiasi contenuto può essere messa in dubbio.
La Carta dei Diritti Fondamentali dell'Unione Europea (CFR) evidenzia diversi diritti fondamentali coinvolti in queste situazioni, tra cui il diritto alla dignità umana, all’integrità della persona, alla libertà e sicurezza, al rispetto della vita privata e familiare, alla protezione dei dati personali e il diritto alla non discriminazione.
3. Quadro normativo europeo: il ruolo dell’AI Act
L'Unione Europea ha risposto alle sfide poste dall'AI attraverso il Regolamento sull'Intelligenza Artificiale (AI Act), che mira a creare un quadro giuridico armonizzato per garantire un uso sicuro e conforme dei sistemi di IA. I sistemi di IA utilizzati per la creazione di deepfake sono generalmente classificati come a rischio limitato, ad eccezione di quelli destinati a influenzare il risultato di elezioni o il comportamento di voto delle persone fisiche, che sono considerati ad alto rischio (articolo 6(2) e Allegato III, punto 8(b)). Tali sistemi possono compromettere il processo democratico diffondendo disinformazione politica, o creando falsi video di candidati con l’obiettivo di influenzare l’opinione pubblica e ingannare gli elettori.
L'AI Act impone requisiti di trasparenza per i sistemi con rischio limitato. In particolare, l'articolo 50 stabilisce che i contenuti generati dall'AI, inclusi i deepfake, debbano includere marcatori espliciti, come watermark, metadati o disclaimer, per rendere inequivocabile la loro natura artificiale. In questo modo, gli utenti sono informati che il contenuto è sintetico, riducendo il rischio di essere ingannati.
Inoltre, l'articolo 50(7) sottolinea il ruolo dell’AI Office nel promuovere e facilitare la creazione di codici di condotta a livello dell'Unione per supportare l'efficace attuazione degli obblighi relativi al rilevamento e all'etichettatura dei contenuti manipolati.
4. La prospettiva italiana e il Codice penale
In Italia, la regolamentazione dei deepfake si intreccia con le norme del Codice penale. La diffusione non consensuale di materiale sessualmente esplicito può configurare reati come la diffamazione aggravata, la sostituzione di persona e la diffusione illecita di contenuti sessualmente espliciti senza consenso (artt. 595 comma 3, 494, 612-ter c.p.). Tuttavia, i deepfake possono essere utilizzati anche per finalità fraudolente, come le truffe, l'estorsione e la frode processuale (artt. 640, 629, 374 c.p.).
L’attuale quadro normativo evidenzia lacune significative nel disciplinare in modo specifico i deepfake poiché, in conformità al principio di tassatività delle fattispecie penali, è necessario un aggiornamento delle norme per garantire una risposta efficace a queste nuove forme di abuso. Una proposta di riforma potrebbe includere l'introduzione di una fattispecie specifica per la creazione e diffusione di deepfake dannosi, riconoscendo la particolare gravità di tali condotte e le loro conseguenze per le vittime.
5. La necessità di un approccio normativo integrato
I deepfake rappresentano una delle sfide giuridiche più complesse dell’era digitale, in quanto incidono su diritti fondamentali quali privacy, reputazione e dignità personale. Non sono più esclusivamente le figure pubbliche a essere vulnerabili, ma chiunque può diventare oggetto di manipolazioni digitali. Così si amplia il perimetro delle potenziali vittime, evidenziando la necessità di un intervento normativo che offra tutele efficaci a tutti i cittadini, indipendentemente dalla loro esposizione mediatica.
Risulta essenziale un approccio normativo integrato, che combini misure di regolamentazione preventiva con strumenti di tutela ex post, a livello nazionale ed europeo, al fine di garantire una protezione efficace e uniforme dei diritti fondamentali, ridurre le lacune giuridiche esistenti e assicurare una risposta tempestiva e proporzionata alle diverse forme di abuso legate all’uso dei deepfake.
Comments