top of page

Dall’IA generativa all’IA agentica: evoluzione e implicazioni giuridiche

Negli ultimi tre anni abbiamo assistito all’esplosione dell’intelligenza artificiale generativa, ovvero di sistemi capaci di produrre testi, immagini, codice e analisi con una fluidità che fino a poco tempo fa sembrava impensabile. L’ingresso di attori come OpenAI, Google DeepMind e Anthropic ha progressivamente reso accessibili strumenti prima confinati ai laboratori di ricerca.

In una prima fase, il dibattito si è concentrato sulla qualità dell’output: accuratezza, bias, proprietà intellettuale, affidabilità delle fonti. L’attenzione giuridica si è dunque focalizzata sul prodotto dell’elaborazione algoritmica e sulla sua imputazione all’utilizzatore umano.

Il quadro normativo europeo, già tracciato con l’ormai rinomato IA Act (Regolamento UE 2024/1689), tenta di governare questa evoluzione, ma è proprio nell’emergere di modelli c.d. agentici che si misurerà la tenuta delle categorie tradizionali.

Oggi, tuttavia, il centro del dibattito non è più la qualità del contenuto generato, ma la capacità del sistema di incidere operativamente sui processi. Non più sistemi che si limitano a rispondere, bensì architetture che pianificano, eseguono, interagiscono con altri sistemi per perseguire obiettivi. È qui che si apre una questione propriamente giuridica: quando l’algoritmo non si limita a suggerire, ma incide su un processo, come si ridefiniscono deleghe e responsabilità?

 

 

1.     IA generativa: lo strumento reattivo

L’IA generativa, per quanto sofisticata, resta, nella sua configurazione tipica, un sistema reattivo: riceve un input, lo elabora, e restituisce un output. Il suo perimetro operativo è formalmente delimitato dal prompt e dal controllo dell’utilizzatore.

Formalmente, appunto. Perché nella prassi, specie nei processi regolamentati, il controllo umano rischia di tradursi in una mera validazione. L’output viene assunto come tecnicamente affidabile, salvo errori evidenti. Il professionista non sempre ricostruisce il percorso argomentativo sottostante, ma tende a recepirlo.

Ciò non implica che la responsabilità venga meno. Significa, piuttosto, che il controllo può risultare sostanzialmente attenuato pur restando formalmente presente. Si afferma che l’ultima parola resta umana, ed è sulla carta corretto: la decisione finale è adottata da un soggetto identificabile. Sarebbe però ingenuo ritenere che questo esaurisca il problema.

L’elaborazione algoritmica contribuisce comunque alla formazione del convincimento del decisore: seleziona informazioni, struttura argomentazioni, orienta priorità. L’intervento umano, anche quando effettivo, si colloca a valle di un processo già mediato.

Le questioni che emergono, quali attendibilità, rischio di bias, tutela dei dati e della proprietà intellettuale, si inseriscono ancora nel perimetro tradizionale della responsabilità per l’uso di uno strumento tecnologico. L’algoritmo assiste, non decide formalmente, tuttavia un primo spostamento è già visibile: la decisione resta umana, ma la sua formazione non è più integralmente tale. Le categorie giuridiche tengono, ma iniziano ad essere sollecitate.

Se già nella fase generativa l’algoritmo orienta la decisione, con gli AI agents esso inizia a strutturare direttamente l’azione.

 

 

2.     AI agents: dall’elaborazione all’esecuzione

Il salto diventa evidente con gli AI agents. Non siamo più di fronte a un sistema che genera un testo su richiesta. L’agente riceve un obiettivo e organizza autonomamente le attività necessarie per raggiungerlo. Integra un modello linguistico, memoria, capacità di pianificazione, accesso a banche dati e software aziendali; scompone il mandato, seleziona strumenti, esegue operazioni, verifica risultati e ricalibra il percorso.

Non produce soltanto un contenuto. Incide su un processo. Qui la questione non è più la qualità dell’output, ma la distribuzione del potere decisionale. Quando un sistema interagisce con database interni o attiva flussi informativi, la responsabilità non si esaurisce nella validazione finale.

Chi controlla realmente la sequenza delle scelte intermedie? Chi risponde di un errore che nasce da una concatenazione automatizzata di azioni coerenti tra loro? Formalmente, la responsabilità resta in capo a soggetti umani, quali sviluppatori, integratori, utilizzatori, ma sostanzialmente la catena decisionale si fa più complessa e meno lineare ed è proprio su questa complessità che il diritto è chiamato a misurarsi.

 

 

3. IA agentica: l’autonomia come paradigma organizzativo

L’IA agentica non è semplicemente una tecnologia più avanzata. È una diversa concezione dell’organizzazione. Se l’IA generativa è uno strumento e gli AI agents rappresentano un’architettura tecnica, l’IA agentica è un paradigma: processi pensati sin dall’origine per essere gestiti, entro determinati limiti, da sistemi autonomi orientati a obiettivi.

La distinzione è chiara: IA generativa fornisce supporto alla decisione, gli AI agents eseguono attività complesse e l’IA agentica riprogetta i flussi decisionali attorno a sistemi autonomi.

La domanda non è più che cosa il modello possa fare, ma fino a che punto intendiamo delegare. Delegare significa fissare soglie, definire quando l’intervento umano è necessario e quando è eventuale, costruire audit trail robusti, garantire accountability effettiva. Il passaggio dall’human-in-the-loop a quello human-on-the-loop non è una sfumatura terminologica, ma un mutamento di postura: l’essere umano non presidia ogni passaggio, bensì sorveglia un sistema che opera in autonomia controllata.

Per studi legali, banche, assicurazioni e pubbliche amministrazioni questo comporta scelte organizzative non neutre: policy di delega formalizzate, tracciabilità tecnica adeguata, presidi di controllo interno, competenze ibride tra diritto e tecnologia.

Il legislatore europeo, con l’adozione dell’AI Act, ha scelto un approccio basato sul rischio, imponendo obblighi differenziati secondo l’impatto sui diritti fondamentali. La logica è chiara: governare l’uso dell’intelligenza artificiale attraverso requisiti di trasparenza, tracciabilità, supervisione umana e gestione del rischio.

Il quadro normativo, sebbene presenti profili di indubbia innovazione, continua a fondarsi prevalentemente sulla nozione di «sistema» e sulla relativa classificazione, piuttosto che sulla considerazione delle dinamiche operative proprie delle architetture agentiche. In tale prospettiva, la centralità attribuita alla supervisione umana riflette un’impostazione ancora ancorata a modelli tradizionali, nei quali l’intervento umano è chiaramente identificabile e stabilmente integrato all’interno del processo decisionale.

È nell’evoluzione verso sistemi agentici che tale presupposto mostra tutta la sua fragilità. È in questo snodo, a mio avviso, che si concentra il vero terreno di confronto: non tanto nell’entusiasmo per le prestazioni dei modelli, quanto nella capacità di elaborare un assetto della responsabilità coerente con il grado di autonomia funzionale raggiunto dagli algoritmi.

L’IA agentica non crea nuovi soggetti di diritto, ma se muta la struttura della decisione, non possono restare immutate le categorie e i criteri con cui ne attribuiamo la responsabilità.

Commenti


bottom of page