top of page

L’impiego dell’IA negli appalti pubblici: note a margine della sentenza del Consiglio di Stato n. 8092/2025


1. Premessa

La sentenza del Consiglio di Stato n. 8092 del 20 ottobre 2025 si inserisce nel filone giurisprudenziale volto a delineare, con crescente attenzione, i limiti e le condizioni di legittimità dell’impiego dell’intelligenza artificiale nell’azione amministrativa, con specifico riferimento alle procedure di evidenza pubblica. Tale orientamento, ormai consolidato, testimonia come l’innovazione tecnologica sia divenuta una variabile strutturale dell’amministrazione contemporanea, e non più un fenomeno episodico.

In tale contesto in cui le stazioni appaltanti e gli operatori economici guardano con crescente interesse ai sistemi di IA come strumenti di efficientamento e razionalizzazione, il giudice amministrativo ribadisce un principio tutt’altro che scontato: l’innovazione tecnologica non può operare come una deroga implicita ai principi di legalità e imparzialità dell’azione amministrativa. Anzi, proprio l’introduzione di strumenti ad elevata complessità tecnica impone un rafforzamento delle garanzie tradizionali.

Per garantire la legittimità dell’azione amministrativa, l’introduzione dei sistemi di IA nei procedimenti di gara, lungi dal costituire un ambito extra ordinem, richiede una verifica e autorizzazione preventiva da parte della stazione appaltante. Quest’ultima è chiamata non solo ad autorizzarne l’uso, ma anche ad accertarne la logica di funzionamento, l’affidabilità operativa e la concreta compatibilità con gli obiettivi del servizio pubblico perseguito.

 

 

2. L’IA come strumento di supporto e la discrezionalità tecnica della commissione di gara

Nel caso sottoposto all’esame del Consiglio di Stato (8092/2025), la stazione appaltante aveva valorizzato, nell’ambito dell’offerta tecnica, l’impiego di strumenti automatizzati basati su sistemi di IA finalizzati al miglioramento della gestione operativa dei servizi di pulizia e sanificazione oggetto dell’appalto. Si trattava, dunque, di soluzioni proposte dall’operatore economico come fattore organizzativo e gestionale, e non di sistemi decisionali adottati direttamente dall’amministrazione.

La pronuncia chiarisce che l’adozione di soluzioni fondate su IA non integra, di per sé, né un elemento premiale automatico né un fattore di criticità. La relativa valutazione deve essere ricondotta nell’alveo della discrezionalità tecnica della commissione giudicatrice, la quale è tenuta a verificare in concreto se e in quale misura tali strumenti apportino un valore aggiunto rispetto all’oggetto dell’appalto.

In tale prospettiva, i sistemi di IA vengono qualificati come strumenti meramente ausiliari, il cui apporto deve essere apprezzato sulla base di parametri sostanziali: la coerenza con le prestazioni richieste, l’affidabilità delle soluzioni proposte, la loro integrazione nei processi organizzativi e la capacità effettiva di migliorare l’esecuzione del servizio. Non può, tuttavia, sottacersi come nella prassi il richiamo all’IA rischi talvolta di assumere una funzione puramente descrittiva o retorica, non sempre accompagnata da una reale capacità di governo tecnologico da parte degli operatori economici.

Resta fermo, in ogni caso, l’obbligo di una motivazione puntuale e congrua, non stereotipata, idonea a rendere intellegibile l’iter valutativo seguito dall’amministrazione e a consentire il sindacato giurisdizionale nei limiti tradizionalmente ammessi in materia di discrezionalità tecnica.

 

 

3. Quadro normativo di riferimento

La decisione si inserisce coerentemente nel quadro delineato dal d.lgs. 31 marzo 2023, n. 36 (Codice dei contratti pubblici), il quale ammette il ricorso a strumenti digitali e a procedure automatizzate, purché nel rispetto dei principi fondamentali dell’ordinamento. Il Codice, infatti, non persegue un modello di amministrazione integralmente automatizzata, ma piuttosto un’amministrazione tecnologicamente assistita e giuridicamente responsabile. In tale contesto emergono due direttrici di fondo.

Da un lato, il principio di trasparenza algoritmica, che impone alla stazione appaltante di essere posta nelle condizioni di comprendere, verificare e, se del caso, sindacare le logiche di funzionamento dei sistemi di IA impiegati. Ciò comporta l’accessibilità alle informazioni tecniche rilevanti, nei limiti della tutela del segreto industriale e della proprietà intellettuale, senza che tali esigenze possano tradursi in una sostanziale opacità del processo decisionale. Diversamente, l’algoritmo rischierebbe di trasformarsi da strumento di supporto in fattore di deresponsabilizzazione.

Dall’altro lato, il principio della necessaria supervisione umana, in forza del quale l’IA non può sostituire l’esercizio del potere amministrativo, ma esclusivamente supportarlo. La responsabilità dell’azione amministrativa permane integralmente in capo al soggetto umano titolare della funzione, senza possibilità di delega sostanziale al sistema algoritmico, nemmeno in presenza di soluzioni tecnologicamente avanzate.

L’equilibrio perseguito dal legislatore e ribadito dal giudice è dunque quello di un’innovazione c.d. governata, che eviti tanto l’approccio meramente difensivo quanto l’adesione acritica alla tecnologia.

 

 

4. Controllo e monitoraggio nella fase esecutiva

Un ulteriore profilo di rilievo concerne la fase successiva all’aggiudicazione. Il Consiglio di Stato sottolinea come la responsabilità della stazione appaltante non possa esaurirsi nell’autorizzazione iniziale all’impiego dell’IA, ma debba estendersi all’intera durata del rapporto contrattuale. Questo passaggio appare particolarmente significativo, poiché sposta l’attenzione dal momento valutativo a quello, spesso trascurato, dell’esecuzione.

In particolare, l’amministrazione è tenuta a monitorare in modo continuativo l’operatività dei sistemi di IA utilizzati dall’appaltatore, intervenire tempestivamente in presenza di anomalie o potenziali effetti discriminatori. Ciò assume un rilievo ancora maggiore quando l’uso dell’IA incide su diritti degli utenti finali o comporta il trattamento di dati personali, anche sensibili.

In quest’ottica, la stazione appaltante deve anche assicurare che il trattamento dei dati personali sia compatibile con le finalità del servizio e conforme alle garanzie legislative (cfr. l. 132/2025), rafforzando ulteriormente il principio per cui il governo della tecnologia non può essere integralmente esternalizzato all’operatore economico.

 

 

5. Verso una cultura digitale responsabile negli appalti

La sentenza in esame, inoltre, non si presta a essere letta come un arresto nei confronti dell’innovazione tecnologica. Al contrario, essa può essere interpretata come un invito esplicito alla maturazione di una cultura amministrativa dell’IA responsabile e consapevole, capace di coniugare efficienza, controllo e tutela dei diritti.

In tale prospettiva, risultano centrali:

  • il rafforzamento delle competenze tecniche e giuridiche interne alle stazioni appaltanti, senza le quali la supervisione umana rischia di rimanere meramente formale;

  • la definizione di criteri di valutazione chiari, verificabili e coerenti con la lex specialis e con i criteri oggettivi previsti dal Codice dei contratti pubblici per le soluzioni basate su IA;

  • l’adeguamento dei modelli organizzativi al governo di processi decisionali ibridi, nei quali interagiscono componente umana e strumenti algoritmici.

 

 

6. Focus sui sistemi di IA generativa

Un’attenzione specifica merita l’impiego dei sistemi di Generative AI, sempre più evocati nelle offerte tecniche per il supporto alla pianificazione, all’analisi dei dati o all’ottimizzazione dei processi. A differenza dei sistemi di automazione tradizionali, tali modelli producono output sulla base di elaborazioni probabilistiche, con un grado intrinseco di opacità strutturale che pone interrogativi giuridici non marginali. Nel contesto degli appalti pubblici, ciò determina almeno tre ordini di criticità.

In primo luogo, la verificabilità ex ante delle soluzioni proposte: la non deterministica riproducibilità degli output impone alla stazione appaltante di interrogarsi sull’affidabilità, sulla stabilità e sulla controllabilità dei risultati generati, specie quando incidono su profili organizzativi sensibili.

In secondo luogo, il tema della responsabilità giuridica: l’utilizzo di strumenti generativi non attenua né trasferisce la responsabilità dell’operatore economico, né quella dell’amministrazione. L’opacità algoritmica non può tradursi in una deresponsabilizzazione dell’azione amministrativa, pena la compromissione dei principi fondamentali del procedimento.

Infine, la compatibilità con i principi di trasparenza e controllo umano, riaffermati tanto dal Codice dei contratti pubblici quanto dal quadro europeo in materia di intelligenza artificiale.

In assenza di adeguate garanzie di audit, tracciabilità e supervisione umana, l’IA generativa può al più assumere un ruolo ancillare, difficilmente compatibile con una funzione autonoma nel processo decisionale pubblico.

 

 

7. Conclusione

La pronuncia del Consiglio di Stato conferma un approccio consolidato: l’algoritmo non sostituisce la valutazione amministrativa, ma ne rappresenta, al più, un possibile presupposto istruttorio. La sua utilizzabilità resta condizionata alla comprensibilità delle logiche di funzionamento e alla coerenza con il fine pubblico perseguito.

Ne consegue che l’opacità tecnologica non può mai tradursi in opacità giuridica. Il procedimento amministrativo resta integralmente assoggettato ai principi di trasparenza e motivazione, anche quando si avvale di strumenti tecnologicamente sofisticati. In questa prospettiva, l’intelligenza artificiale non riduce, ma accresce la responsabilità dell’amministrazione.

Si tratta di un principio destinato a rafforzarsi ulteriormente con la progressiva diffusione dei sistemi di IA generativa e con l’evoluzione del diritto europeo in materia, imponendo alle amministrazioni pubbliche non solo di adottare nuove tecnologie, ma soprattutto di saperle governare.

 

 

 

 

Bibliografia

  • ANAC, Appalto pubblico tutto digitale (dal 1° gennaio 2024), https://www.anticorruzione.it/-/dal-1°-gennaio-appalto-pubblico-tutto-in-digitale-cosa-cambia-e-come-ci-si-deve-preparare.

  • Donati F. – Finocchiaro G. – Paolucci F. – Pollicino O. (a cura di), La disciplina dell’intelligenza artificiale, Giuffrè, Milano, 2025.

  • EU Public Buyers Community, Adopt AI Study, 2024.

  • Frontiers in Sustainability, AI & Sustainable Public Procurement, 2025.

  • IRPA, Focus su decisioni algoritmiche e Consiglio di Stato n. 2270/2019.

  • OECD, AI in Public Procurement: Ensuring Transparency and Accountability, 2024.

  • Simaku D., AI negli appalti pubblici: prime pronunce e criticità, Diritto al Digitale, 10 dicembre 2025.

Commenti


bottom of page