Sistemi di intelligenza artificiale e conseguenze processuali
- Enrico Borghetto

- 21 ott
- Tempo di lettura: 4 min
Aggiornamento: 22 ott
Quali scenari si aprirebbero se gli avvocati iniziassero ad utilizzare l’intelligenza artificiale (IA) per redigere i propri atti? Quali sarebbero le conseguenze in caso di errori da parte della macchina e chi ne risponderebbe? Nonostante non vi sia ancora una risposta univoca sull’argomento, alcuni tribunali si sono già trovati a dover affrontare tali ipotesi. In questa breve riflessione analizzeremo le decisioni da questi prese e perché tali soluzioni abbiano un significato rilevante per l’intera comunità forense. I casi presi in considerazione sono due.
Il primo, affrontato dal Tribunale di Firenze (sezione imprese, ord. 14 marzo 2025), ha visto la collaboratrice di un avvocato avvalersi dello strumento di IA «ChatGPT» allo scopo di trovare ed inserire nell’atto dei precedenti giurisprudenziali che potessero avvalorare la tesi difensiva da loro proposta. Ciò non ha portato agli esiti sperati in quanto tali precedenti, rivelatisi inesistenti e frutto di una c.d. «allucinazione» dell’IA, hanno portato la controparte a proporre un’azione ex art. 96 c.p.c. per responsabilità aggravata dovuta dall’aver resistito o agito in giudizio con colpa grave o mala fede. All’esito della vicenda, il giudice, pur riconoscendo il disvalore morale di tale condotta, non ha condannato la parte, ritenendo i precedenti non determinanti e meramente a supporto dell’impianto difensivo proposto.
Esito opposto ha avuto la fattispecie trattata dal Tribunale di Torino (sezione lavoro, sent. n. 2120 del 16 settembre 2025) dove un avvocato si è fatto assistere da un sistema di IA nella creazione, e redazione, di un ricorso atto a respingere alcuni avvisi di addebito. In questo caso la parte è stata condannata ex art. 96 c.p.c. commi 3 e 4, al pagamento di euro 500 a favore di ciascuna delle altre parti in causa per aver resistito in giudizio con colpa grave e mala fede. I motivi di tale condanna sono due: il primo, lo si ritrova nell’aver proposto ricorso oltre il termine espressamente consentito; il secondo, nell’aver utilizzato per la stesura del ricorso un sistema di IA che – stando alle parole della Corte – ha prodotto «un coacervo di citazioni normative e giurisprudenziali astratte, prive di ordine logico e in larga parte inconferenti, senza allegazioni concretamente riferibili alla situazione oggetto del giudizio».
Dall’analisi di queste pronunce si può notare che ciò che ha fatto la differenza in termini di conseguenze è il modo in cui i legali hanno utilizzato il sistema di IA. Se da un lato l’IA è stata utilizzata solo per arricchire la tesi dell’avvocato, dall’altro è stata impiegata al fine di creare l’impianto difensivo su cui poi si sarebbe basato il processo. Occorre infatti ricordare che l’IA, per quanto avanzata ed affidabile possa essere, rimane uno strumento nelle mani del suo utilizzatore, il quale risponde delle conseguenze dannose derivanti dagli atti compiuti tramite il suo impiego.
Un utilizzo improprio dell’IA comporta diversi rischi e conseguenze sia dal punto di vista processuale che sostanziale. Dal punto di vista processuale abbiamo visto il rischio di un’azione ex art. 96 c.p.c.. Tale articolo, rubricato «responsabilità aggravata», configura una fattispecie di responsabilità extracontrattuale – ciò vuol dire che colui che chiede la condanna dovrà provare sia l’an che il quantum del danno – e va a disciplinare tutte quelle ipotesi in cui una delle parti agisca o resista in giudizio con mala fede o colpa grave. Spetterà al giudice accertare se il comportamento della parte rientri o meno all’interno degli indici previsti. Qualora l’accertamento dovesse avere esito positivo egli potrà condannare la parte al pagamento di una somma di denaro compresa tra i 500 e i 5.000 euro.
Vi è di più, la condanna per responsabilità aggravata non è l’unica conseguenza che l’avvocato potrebbe trovarsi ad affrontare nell’ipotesi in cui, a causa di un errato utilizzo dell’IA, dovesse perdere la causa. Ricordiamo infatti che tra l’avvocato e il cliente esiste un rapporto contrattuale in forza del quale il professionista si obbliga a rappresentare al meglio, e con la massima diligenza esigibile, gli interessi e le ragioni del proprio assistito. Ciò comporterebbe, in caso di soccombenza dovuta all’uso improprio del sistema di IA da parte del legale, la possibilità per il cliente di esperire un’azione di risarcimento danni per inadempimento contrattuale.
Dal confronto tra le due decisioni emergono alcuni principi utili per l’operatore del diritto:
l’utilizzo dell’IA in ambito legale non è vietato ma vi deve essere un rigoroso controllo dei risultati e dei contenuti generati;
l’avvocato deve limitare l’utilizzo dei sistemi di IA ai soli compiti di supporto, evitando ogni utilizzo che possa compromettere l’impianto difensivo o che faccia trasparire un uso eccessivo e non supervisionato dell’IA;
nella valutazione sulla responsabilità ex art. 96 c.p.c. il giudice potrebbe ravvisare mala fede o colpa grave anche solamente per aver utilizzato un sistema di IA in ambito processuale;
qualora si voglia promuovere un’azione ex art. 96 c.p.c. vi è sempre la necessità di provare l’an e il quantum del danno subito, trattandosi di un’azione di responsabilità extracontrattuale.
In conclusione, è possibile affermare che l’IA sia divenuta una realtà concreta che chiunque, professionista e non, sta oramai sempre più utilizzando. In questo panorama rimane assolutamente necessario mantenere il controllo della situazione, non farsi sopraffare dalla necessità di performance imposta dalla società odierna e ricordare sempre che l’IA è un mero strumento nelle mani dell’utilizzatore che deve, e può, impiegarla unicamente a fini di supporto, sempre sotto il proprio costante controllo.




Commenti