top of page

La clausola di protezione dei dati personali nei contratti per i sistemi di IA

1. Premessa e inquadramento

L’adozione crescente di sistemi di IA nei processi aziendali impone una revisione delle clausole contrattuali tradizionali, in particolare di quelle relative alla gestione e alla protezione dei dati personali. Tali clausole non sono più meri adempimenti formali, ma strumenti sostanziali di accountability che traducono gli obblighi del GDPR in obbligazioni contrattuali esigibili tra le parti.

Con il Regolamento 2024/1689 (AI Act) si aggiungono ulteriori requisiti in materia di data governance, trasparenza, tracciabilità, documentazione tecnica e supervisione umana, secondo un approccio basato sul rischio, applicabile anche ai modelli con impatto sistemico. Tali esigenze si intensificano con i sistemi che fanno uso di IA generativa, in quanto accentua le interazioni tra dati, modelli e output, aumentando il rischio di riuso e perdita di controllo sui dati.

Per questo, è necessario predisporre clausole specifiche (c.d. enabling clauses) che definiscano in modo chiaro i ruoli, le istruzioni documentate, le misure tecnico-organizzative e le regole sul riuso dei dati e sui trasferimenti extra-UE, al fine di garantire l’accountability contrattuale.

 

 

2. Il quadro normativo di riferimento: dal GDPR all’AI Act

Il sistema normativo di riferimento per la protezione dei dati personali nei contratti che disciplinano l’uso dei sistemi di IA si fonda sul Regolamento (UE) 2016/679 (GDPR) e il Regolamento (UE) 2024/1689 (AI Act).

Il GDPR stabilisce, all'art. 5, i principi generali del trattamento (liceità, correttezza, trasparenza, limitazione della finalità, minimizzazione, esattezza, limitazione della conservazione, integrità e riservatezza) e impone al titolare obblighi di accountability (art. 24), anche mediante disposizioni contrattuali nei rapporti titolare‑responsabile (art. 28), nonché l’adozione di misure di privacy by design e by default (art. 25). La valutazione d’impatto sulla protezione dei dati (c.d. DPIA), prevista dall’art. 35, risulta obbligatoria nei trattamenti automatizzati che possono produrre effetti giuridici rilevanti per l’interessato e deve essere eseguita secondo i criteri metodologici delle linee guida WP29/EDPB.

L’AI Act introduce un sistema basato sul rischio, con obblighi variabili a seconda che il soggetto sia un provider (fornitore), deployer (utilizzatore/committente), importer o distributor. Per i sistemi IA ad alto rischio, il Regolamento impone requisiti dettagliati in materia di governance dei dati (art. 10), logging, e tracciabilità (artt. 12 e 14), trasparenza e documentazione tecnica (artt. 13 e 16) e supervisione umana (art. 14). Tra gli strumenti di compliance, si inserisce anche la valutazione d’impatto sui diritti fondamentali (c.d. FRIA), con l’obiettivo di anticipare e mitigare potenziali effetti negativi sui diritti individuali. Inoltre, sono previsti obblighi specifici per i GPAI, inclusi i modelli di IA generativa, e un sistema sanzionatorio improntato ai principi di effettività, proporzionalità e dissuasività. In chiave contrattuale, i requisiti di data governance e tracciabilità devono essere integrati con le valutazioni di impatto (DPIA/FRIA) e con strumenti come le clausole contrattuali standard.

Le clausole contrattuali standard, ex art. 28 GDPR (Decisione di esecuzione (UE) 2021/915 del 4 giugno 2021), costituiscono sicuramente una base per la disciplina dei rapporti titolare-responsabile, ma, nei contratti di IA, devono essere integrate con ulteriori obblighi in materia di tracciabilità dei dataset, registrazione automatica degli eventi (c.d. logging), audit e limiti al riuso dei dati, in conformità con le disposizioni dell’AI Act e con quanto previsto dal Parere 28/2024 dell’EDPB.

 

 

3. Funzioni e struttura della clausola di protezione dei dati personali

Nei contratti di cui in oggetto lo sviluppo, la fornitura o l’utilizzo di sistemi di IA, la clausola relativa alla protezione dei dati personali deve tradurre il quadro pubblicistico in obbligazioni contrattuali verificabili e proporzionali al livello di rischio. Le componenti essenziali includono:

  • qualificazione dei ruoli e istruzioni: definizione dei i ruoli di titolare, responsabile o contitolare, con incorporazione di istruzioni documentate per il responsabile, le limitazioni all’uso e riuso dei dati, la subfornitura e i trasferimenti verso Paesi terzi ai sensi dell’art. 28, par. 3 GDPR;

  • ambito del trattamento e basi giuridiche: indicazione delle categorie di dati (personali, non personali, speciali ex art. 9 GDPR), delle finalità, delle basi giuridiche, dei periodi di conservazione e delle restrizioni al riuso sui dati del committente, salvo consenso o altra base idonea. In particolare, nei casi in cui il consenso non sia praticabile, è possibile ricorrere ad alternative giuridiche previste dal GDPR, come l’interesse legittimo del titolare, l’esecuzione di un contratto, obblighi legali o finalità di interesse pubblico. L’EDPB ha chiarito che l’interesse legittimo può fungere da base «by default», imponendo una Legitimate Impact Assessment (LIA) rigorosa e conforme alle aspettative degli interessati. Tali indicazioni risultano rilevanti nei contratti che prevedono l’impiego di IA generativa, ove il riuso dei dati di addestramento comporta rischi elevati di leakage e violazione dei diritti;

  • misure tecniche e organizzative: previsione di misure di sicurezza adeguate, quali pseudonimizzazione, cifratura, controllo degli accessi, pipeline di minimizzazione dei dati e test di robustezza (c.d. red teaming). È opportuno documentare i processi con logging e versioning, integrando aspetti organizzativi e tecnici oltre l’explainability del modello.

  • DPIA e impatti algoritmici: ove richiesto dall’art. 35 GDPR, esecuzione di una DPIA completa, secondo i criteri WP248. Tale valutazione può essere coordinata con quella prevista dall’AI Act (gestione del rischio e post-market monitoring), al fine di garantire coerenza metodologica;

  • trasparenza e diritti degli interessati: previsione di informative rafforzate sulle logiche principali, sul significato e sugli effetti delle decisioni automatizzate (artt. 13 – 15 e 22 GDPR), sulle modalità di intervento umano, contestazione e rettifica;

  • audit e controlli: riconoscimento del diritto del committente a verifiche periodiche, test di sicurezza mirati e predisposizione di model cards (schede descrittive del modello IA, con informazioni sui dati, prestazioni, limiti e rischi) e system cards (documentazione tecnica del sistema IA nel suo complesso, con dettagli su architettura, interazioni e misure di sicurezza). Il fornitore è tenuto a cooperare nelle verifiche e a correggere tempestivamente eventuali non conformità, sino al retraining, alla disattivazione del modello o, nei casi più gravi alla distruzione dello stesso;

  • data export e subfornitori: in presenza di flussi verso Paesi extra-UE, devono essere rispettate le disposizioni del Capo V del GDPR, le quali prevedono valutazioni di trasferimento e impegni flow‑down nei confronti dei sub-responsabili, conformemente agli artt. 28, par. 4, 44 e ss. GDPR;

  • rimedi e responsabilità: previsione di indicatori di conformità (KPI), tempi di risposta in caso di incidenti (incident response SLA, tra le 24 e le 72 ore a seconda della gravità), clausole risolutive e sistemi di indennizzo o limitazione di responsabilità proporzionati al livello di rischio del sistema di IA.

La clausola deve inoltre tenere conto del Regolamento (UE) 2023/2854 (Data Act), per disciplinare l’accesso equo e il riuso dei dati non personali, del Regolamento (UE) 2022/868 (Data Governance Act), utile nei contratti che coinvolgono intermediari di dati o spazi di condivisione, e della Direttiva (UE) 2019/790 sul diritto d’autore nel mercato digitale, recepita in Italia con il D.lgs. 177/2021, introducendo specifiche eccezioni per il Text and Data Mining (TDM), la documentazione delle licenze e l’eventuale opt-out da parte dei titolari dei diritti, rilevanti nei contratti che prevedono l’uso di dataset per l’addestramento dei modelli IA.

 

 

4. Focus sull’IA generativa e gli specifici rischi

L’impiego di sistemi di IA generativa solleva aspetti critici in relazione al trattamento dei dati personali, con particolare riferimento al riuso e alla memorizzazione degli stessi, comportando il rischio che il modello conservi o riutilizzi informazioni sensibili.

Nel contesto GPAI, il riuso dei dati si articola in quattro fasi principali: il training, ovvero quando il modello apprende dai dati; il fine-tuning, che consente di adattare un modello pre-addestrato a contesti specifici; il testing, nel quale il modello viene testato su un set di dati separato; e l’evaluation, finalizzata a testare le prestazioni del modello, tramite metriche quantitative. Ai sensi dell’art. 53, par. 1, lett. a) dell’AI Act, tutte queste fasi sono soggette a misure documentali, ad eccezione del fine-tuning, che pur non esplicitamente menzionato, può rientrare tra le attività di adattamento rilevanti ai fini della conformità.

Ulteriori rischi derivano dagli attacchi di inversione ed estrazione del modello, i quali possono determinare, rispettivamente, la ricostruzione di dati personali a partire dai parametri del modello e la riproduzione non autorizzata della struttura o del comportamento dello stesso, con conseguente compromissione della riservatezza e della proprietà intellettuale. Inoltre, l’eventuale generazione di contenuti inesatti o allucinati da parte del sistema può produrre effetti lesivi sui diritti fondamentali degli interessati, quali la diffusione di informazioni false o l’adozione di decisioni automatizzate basate su dati erronei. A ciò si aggiunge la problematica della trasparenza dei dataset impiegati nella fase di addestramento, la cui opacità può incidere negativamente sia sul rispetto dei degli interessati, sia sul rispetto delle normative in materia di diritto d’autore e di eccezioni per il Text and Data Mining (TDM).

La letteratura accademica recente evidenzia l’attrito presente fra le esigenze di apprendimento su larga scala e le architetture normative del GDPR (basi giuridiche per il trattamento dei dati, esercizio diritti degli interessati, tra cui l’accesso, rettifica e cancellazione, e principi di esattezza e minimizzazione dei dati), oltre al ruolo, necessario ma non esaustivo, degli obblighi di trasparenza previsti dall’AI Act.

Sul piano GDPR, il Parere 28/2024 EDPB introduce un test composto da due fasi per la valutazione dell’anonimato del modello, considerando particolarmente rilevante sia l’estrazione diretta o probabilistica di dati personali dai parametri del modello, sia l’ottenimento di tali dati tramite query. Il Parere evidenzia, inoltre, le conseguenze giuridiche derivanti dall’uso illecito di dati nella fase di sviluppo del modello, che possono comportare l’obbligo di ri-addestramento o, in casi estremi, alla distruzione dello stesso. Tali rischi si riflettono sulla necessità di clausole contrattuali specifiche tra provider e deployer che prevedano misure di mitigazione, quali filtraggio e la de-duplicazione dei dati, nonché l’adozione di pratiche di governance dei dataset e di adeguata documentazione tecnica.

Nel provvedimento correttivo e sanzionatorio, adottato nei confronti di OpenAI nel dicembre 2024, il Garante ha accertato plurime violazioni del GDPR, tra cui: l’assenza di una base giuridica adeguata per  ai fini dell’addestramento del modello ChatGPT (art. 6); la violazione del principio di trasparenza (artt. 5 e 13) per l’inadeguatezza delle informazioni fornite agli interessati; nonché la mancata implementazione di meccanismi idonei alla verifica dell’età, con conseguente esposizione dei minori di 13 anni a contenuti potenzialmente inappropriati (art. 8).

Tali esiti rafforzano l’opportunità di introdurre, in sede contrattuale, divieti espliciti e tracciabili sul riuso dei dati del committente, salvo opt‑in espresso e documentato.

Le tecniche contrattuali consigliate, coerenti con il Parere EDPB 28/2024, includono:

  • divieto espresso di utilizzare input, log e metadati del committente per training e fine tuning del fornitore, salvo consenso scritto, con previsione di un kill switch contrattuale in caso di violazione;

  • obbligo di documentazione delle fonti dei dataset, delle licenze, degli eventuali opt‑out TDM e criteri di selezione, con aggiornamento periodico di dataset e model cards in conformità agli obblighi di trasparenza previsti dell’AI Act;

  • adozione di misure anti‑memorization e anti-leakage, quali tecniche di minimizzazione, regolarizzazione e red teaming, con eventuali programmi di bug bounty controllati;

  • gestione degli output, con definizione della titolarità e dei diritti d’uso, previsione di canali per la segnalazione e rettifica di dati inesatti (artt. 16 – 17 GDPR), e introduzione di restrizioni nei contesti ad alto rischio.

Queste misure rafforzano la clausola contrattuale, garantendo un presidio giuridico efficace che sia adattabile alle evoluzioni tecnologie e regolatorie dell’IA generativa.

 

 

5. Explainability, reviewability e social trasparency come standard di audit contrattuale

La sola explainability non è sufficiente a soddisfare le esigenze di accountability dei sistemi di IA. Pertanto, risulta necessario che la catena socio‑tecnica sottostante sia documentata, includendo processi, decisioni organizzative, versioning e politiche di accesso e diffusione.

Il concetto di reviewability (revisibilità), elaborato da Cobbe, Lee e Singh, propone un framework utile alla scomposizione del processo decisionale automatizzato in componenti tecniche e organizzative, con l’introduzione di meccanismi di registrazione proporzionati e verificabili. In chiave contrattuale, ciò si traduce nella previsione di strumenti quali registro eventi obbligatorio, retention congrua e accesso ai log da parte del committente o di un soggetto terzo indipendente, in conformità agli obblighi di logging previsti dall’AI Act per i sistemi ad alto rischio.

Parallelamente, linee di ricerca sulla social trasparency suggeriscono di includere informazioni relative al contesto organizzativo, quali l’identità dei soggetti che hanno progettato e validato il sistema, i vincoli applicati e le metriche adottate. All’interno delle clausole contrattuali, l’inserimento di system cards e AI factsheets possono dunque contribuire a calibrare il livello di fiducia e favorire un’integrazione del fattore umano più efficace nei processi decisionali automatizzati.

 

 

6. Conclusioni

La clausola di protezione dei dati personali nei contratti aventi oggetto sistemi di IA assume dunque una funzione costitutiva di governance sostanziale, che va oltre la mera compliance normativa e diventa uno strumento di affidabilità contrattuale, fondamento negoziale della fiducia tra le parti. Le regolamentazioni europee richiedono clausole chiare e verificabili, idonee a definire ruoli, basi giuridiche, regole sul riuso dei dati, misure tecnico-organizzative, audit e rimedi in caso di non conformità.

Nel contesto dell’IA generativa, in cui il riuso e la memorizzazione amplificano i rischi di esposizione e perdita di controllo, i divieti di training sui dati del deployer (salvo consenso esplicito), tracciabilità dei dataset, strumenti di reviewability e valutazioni d’impatto, risultano quindi essenziali.

Le clausole dovrebbero infine prevedere meccanismi di compliance dinamica, che consentano di recepire automaticamente aggiornamenti normativi o linee guida autorevoli.

 

 

 

 

Bibliografia


  • Bartels M., A Balancing Act: Data Protection Compliance of Artificial Intelligence, in GRUR International, 2024.

  • Buick A., Copyright and AI Training Data — Transparency to the Rescue?, in Journal of Intellectual Property Law & Practice, 2024.

  • Cobbe J. – Lee M.S.A. – Singh J., Reviewable Automated Decision-Making: A Framework for Accountable Algorithmic Systems, in FAccT 2021, arXiv.

  • Commissione Europea, Clausole contrattuali standard ex art. 28 GDPR (decisione di esecuzione del 4 giugno 2021).

  • Corte di giustizia dell’Unione europea, C-634/21 SCHUFA, 7 dicembre 2023, OJ C913/1, 2024.

  • Direttiva (UE) 2019/790 del Parlamento Europeo e del Consiglio del 17 aprile 2019 (Direttiva sul diritto d’autore nel mercato unico digitale), OJ L130/92, 2019.

  • Duffourc M.N. – Gerke S. – Kollnig K., Privacy of Personal Data in the Generative AI Data Lifecycle, in NYU Journal of Intellectual Property and Entertainment Law, 2024.

  • EDPB, Opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI models, 17 dicembre 2024.

  • Ehsan U. et al., Expanding Explainability: Towards Social Transparency in AI Systems, in CHI 2021, ACM/ArXiv.

  • Garante per la protezione dei dati personali, Provvedimento su ChatGPT, 20 dicembre 2024.

  • Regolamento (UE) 2016/679 del Parlamento Europeo e del Consiglio del 27 aprile 2016 (Regolamento generale sulla protezione dei dati), OJ L119/1, 2016.

  • Regolamento (UE) 2022/868 del Parlamento Europeo e del Consiglio del 30 maggio 2022 (Data Governance Act), OJ L152/1, 2022.

  • Regolamento (UE) 2023/2854 del Parlamento Europeo e del Consiglio del 13 dicembre 2023 (Data Act), OJ L2854/1, 2023.

  • Regolamento (UE) 2024/1689 del Parlamento Europeo e del Consiglio del 13 giugno 2024 (Regolamento sull’intelligenza artificiale), OJ L1689/1, 2024.

  • Ruschemeier H., Generative AI and Data Protection, in Cambridge Forum on AI: Law & Governance, 2025.

  • Schwartmann R. – Keber T. – Zenner K. – Kurth S., Data Protection Aspects of the Use of AI — Initial Overview of the Intersection Between GDPR and AI Act, in Computer Law Review International, 2024.

  • WP29/EDPB, Linee guida sulla valutazione d’impatto (WP248 rev.01).

Commenti


bottom of page