Il problema del responsibility gap nella disciplina del fatto illecito dell’IA
- Simone Campisi
- 2 lug
- Tempo di lettura: 10 min
1. Le nuove sfide poste dall’IA
Le caratteristiche di autonomia decisionale e di self-learningness delle tecnologie AI-powered si stagliano come uno dei temi portanti delle odierne riflessioni in punto di responsabilità extracontrattuale della macchina intelligente. Infatti, parte della dottrina — proprio facendo leva su tali connotati — ha segnalato l’inadeguatezza delle presenti regole di responsabilità civile ad accomodare le esigenze poste dalla crescente diffusione di tali tecnologie nei più svariati settori della società, ritenendo invece necessario un nuovo intervento normativo al fine di colmare le predette carenze (da qui, non a caso, l’anglicismo responsibility gap). Segnatamente, si sottolinea che la macchina intelligente è ora in grado di imparare dall’ambiente esterno e di assumere una decisione autonoma sulla base di tale conoscenza, potendo così generare un risultato imprevedibile agli occhi dell’essere umano che la aveva programmata e complicando profondamente il processo di individuazione del soggetto responsabile per il fatto dannoso. Osservando il problema nel dettaglio, poi, si scopre che le criticità principali si annidano in concreto nella ricostruzione del percorso causale che congiunge la condotta del responsabile e il danno realizzatosi. In questo quadro, l’interagire delle due circostanze predette — l’imperscrutabilità dei processi interni al sistema, da un lato, e l’imprevedibilità del suo output, dall’altro — parrebbero segnare una cesura netta tra l’essere umano e la macchina, dal momento che il primo subirebbe quasi passivamente la libertà decisionale della seconda, al punto da non riuscire più a governarne attività e risultati. Ecco che, se si ha riguardo al modello aquiliano di imputazione della responsabilità (originariamente imperniato sull’attribuzione ad un soggetto/persona fisica della colpa «morale» per la produzione di un fatto dannoso), affermare la responsabilità del creatore della macchina per il fatto dannoso dalla stessa in un contesto simile sembrerebbe ripugnare alla stessa logica del sistema e al comune senso di giustizia. Infatti, se occorre saldare tale attribuzione di responsabilità alla sussistenza di una situazione di controllo da parte della persona fisica sulla macchina, come obbligare la prima al ristoro delle conseguenze dannose causate dalla seconda, se è la macchina medesima a «sfuggire» da un completo addomesticamento teleologico e funzionale da parte dell’umano? Quesito, quest’ultimo, dalla risposta non certo agevole, specie se si tiene in debita considerazione la possibilità che le eventuali conseguenze dannose siano parimenti inevitabili dal creatore al momento della programmazione del sistema. D’altro canto, pare altrettanto inaccettabile arrestarsi al riconoscimento dell’impossibilità, di ricondurre l’illecito alla persona fisica creatrice del sistema intelligente, finendo così per far gravare il relativo pregiudizio sulla vittima. Se così è, dunque, occorre valutare analiticamente i profili di responsabilità nel caso in cui la macchina produca un danno ai terzi, nonché comprendere se essi possano trovare accoglimento nell’attuale quadro della responsabilità aquiliana e della responsabilità da prodotto o se invece si ponga l’esigenza di ricorrere all’evoluzione dello stesso, adottando nuove categorie e regole giuridiche.
2. Per una circoscrizione quantitativa del problema
Va anzitutto fatta una precisazione allo scopo di meglio comprendere i confini del supposto problema di «vuoto di responsabilità». La straordinaria eterogeneità ontologica e applicativa delle tecnologie, infatti, impone di considerare come esso non debba essere automaticamente esteso a qualsivoglia ritrovato dei recenti sviluppi tecnologici. Infatti, le caratteristiche di autonomia e self-learning si manifestano con intensità variabile, a seconda del tipo di tecnologia considerata e dell’impiego concreto cui essa è destinata. A titolo meramente riepilogativo, infatti, un problema di vuoto di tutela sembrerebbe porsi tipicamente in relazione ai soli sistemi dotati di capacità adattive forti rispetto all’ambiente circostante, dal quale essi risultano in grado di estrarre informazioni, di processarle e—infine—di strutturare, sulla scorta di tale patrimonio conoscitivo, un autonomo processo decisionale e di scelta indipendente dall’uomo. La cifra dell’autonomia, dunque, si lascia descrivere in queste ipotesi alla stregua di un’autonomia «aperta» e «forte», dal momento che la capacità evolutiva del sistema si regge sulla presenza di algoritmi self-learning. Proprio questi, infatti, operano secondo tecniche computazionali che rendono imprevedibile l’output da essi generato, finendo per far conseguentemente sfumare i confini del controllo umano sullo stesso e per far sorgere eventuali tematiche di vuoto di tutela. Privi di rilevanza, invece, sono tutti quei sistemi il cui governo è affidato esternamente ad un essere umano: con riferimento a questi ultimi, infatti, non si può certo parlare dell’esistenza di una autonoma potestà deliberativa, sicché gli stessi non risultano introdurre un vulnus inedito al sistema della responsabilità aquiliana. Discorso analogo va condotto con riguardo a quei sistemi che, pur esibendo parziale autonomia, risultano comunque indefettibilmente vincolati, nella generazione dell’output, alle istruzioni precedentemente impartite dall’essere umano. Quest’ultimo, infatti, seppure non in controllo del processo interno all’algoritmo—e cioè della maniera in cui il sistema in concreto genera la risposta—, avrà però maggiori possibilità di governare l’attività della macchina. La prima conseguenza, e forse più rilevante, di tale perimetrazione è che i dispositivi riconducibili alle ultime categorie predette—in quanto scevri, come si diceva, di forme di autonomia in senso forte e riconducibili invece alla categoria dell’automazione—non finiscono da ultimo per introdurre nella realtà sociale nuove occasioni di rischio. In altre parole, le caratteristiche proprie di questi sistemi fanno sì che la loro disciplina possa continuare a rinvenirsi nella legislazione vigente, senza necessità di ripensare radicalmente l’apparato di tutela attuale. Per regolare il danno causato da tali robot, pertanto, si può ancora fare riferimento alla legislazione esistente, in particolare la normativa europea in materia di sicurezza dei prodotti e tutela dei consumatori (nella quale si stagliano la—peraltro recentemente rivista—Direttiva sulla responsabilità da prodotto difettoso e la Direttiva Macchine).
3. Obiezioni alla teoria del responsibility gap
Anche a voler focalizzare l’analisi sui soli sistemi che paiono approssimarsi ad un’autonomia in senso forte, emergono immediatamente alcune perplessità rispetto alla posizione che pretenda un intervento normativo volto a colmare le lacune. Una prima considerazione in tal senso fa perno proprio sull’elemento dell’autonomia come profilo fondante il responsibility gap generato dalle intelligenze artificiali di autoapprendimento. In particolare, l’Autore rileva acutamente che è invero possibile riportare anche quest’ultimo carattere ad una forma di decisione umana a monte, in quanto è stato il programmatore, in sede di progettazione del sistema, a risolversi sul se e come attribuire una siffatta capacità alla macchina e in che misura, eventualmente, graduarla. Pertanto, in caso di pregiudizio cagionato da un contributo autonomo della stessa, sarebbe comunque possibile risalire la catena causale fino ad individuare un’azione od omissione umana e, per l’effetto, fino alla designazione di un essere umano come soggetto responsabile. Inoltre, è possibile dir lo stesso in relazione al fatto che è stato il programmatore a scegliere di avvalersi della macchina in un dato frangente, nel quale poi si è innestata l’occasione dannosa.
Un secondo punto che vale poi la pena di scandagliare per ridimensionare i timori di taluni sorge ancora una volta da considerazioni di natura sistematica, e precisamente dal raffronto con l’istituto della rappresentanza. Come il diritto, infatti, non teme di imputare le conseguenze dell’attività del rappresentante in testa al rappresentato, a maggior ragione tale imputazione in capo all’umano deve ritenersi pacifica con riguardo agli effetti dannosi della cosa seagente che esso ha autonomamente deciso di impiegare in una certa occasione e avendo di mira un determinato fine dallo stesso previamente fissato. In merito alla seconda ipotesi, infatti, il controllo comunque esercitato dal programmatore o dall’utilizzatore sulla macchina seagente sarà comunque più intenso rispetto a quello che il rappresentato ha modo di imprimere sull’azione del rappresentante, e che nondimeno importa la produzione in capo al primo delle conseguenze giuridiche dell’attività del secondo. Peraltro, in un caso siffatto, la responsabilità potrebbe venire in rilievo quale regola di accountability violata, precisamente nel caso in cui il programmatore abbia consentito l’utilizzo di un sistema sprovvisto di cautele by-design la cui presenza nel codice della macchina era imposta da regole di sicurezza al fine di prevenire futuri danni.
Ulteriore problema—rilevato da acuta dottrina—risiede nel fatto che si dimentica sovente che le macchine dotate di autonomia decisionale saranno destinate a convivere, per un lasso di tempo relativamente lungo, con un numero significativamente superiore di dispositivi che invece di tale capacità risultavano sprovvisti. Conseguentemente, intervenire con la normazione avrebbe generato condizioni di difformità quadro regolatorio di riferimento. Peraltro, il dare vita, per questa via, ad un framework normativo assolutamente disorganico, si profila come un formidabile ostacolo alla tanto ricercata circolazione di capitale tecnologico nell’Unione. Obiettivo, questo, perseguito dall’Unione non tanto per un qualche suo intrinseco valore positivo, quanto piuttosto perché funzionale al conseguimento della finalità ultima dell’attuale approccio regolatorio europeo. Si tratta, in altre parole, di far sì che il modello regolatorio UE «divenga un riferimento globale e possa essere adottato nelle altre regioni (il c.d. effetto Bruxelles)» (G. Finocchiaro, 2022) e funga da volano per l’incremento dei livelli di competitività dell’economia europea. Un simile afflusso di capitali—è evidente—non può certo aversi in misura accettabile all’interno di uno scenario caratterizzato da elevati margini di incertezza normativa. Infatti, le aree caratterizzate da una asistematica e disorganica giustapposizione di fonti (nella materia di cui trattasi, peraltro parecchio incisive) vedrebbero arenarsi l’innovazione tecnica dei propri sistemi, in ragione anzitutto della penuria di risorse idonee a sostenerne il peso degli investimenti in ricerca e sviluppo (che si rivelano sovente assai significativi nel settore dell’IA).
4. Il ruolo della mediazione giuridica
Una diversa lettura si fonda piuttosto sull’assunto che vede il prontuario di regole giuridiche fissate dalle norme di cui agli artt. 2049-2054 c.c. e da quelle europee in materia consumeristica, come un corpus già adatto ad accomodare la disciplina delle innovazioni poste dall’avvento delle macchine intelligenti. Tale posizione tende in particolare a valorizzare il ruolo dell’opera interpretativa delle corti, capace di incidere significativamente sulla portata delle norme al fine di consentire un’espansione della disciplina che possa così applicarsi a mutati scenari economico-sociali. Negli ordinamenti continentali, infatti, profonda è l’attitudine adattiva delle norme giuridiche, specie di quelle in materia di responsabilità, che—come autorevolmente rilevato—finiscono per essere il primo istituto giuridico che entra in gioco di fronte al mutamento sociale, al fine di inquadrare giuridicamente e accompagnare l’incessante proliferare di innovazioni della tecnica. Questo, infatti, è possibile in ragione della formulazione intenzionalmente aperta del citato corpus di disposizioni, che conferisce loro una naturale attitudine elastica utile per la regolazione dei nuovi fenomeni.
Trattasi, poi, di disciplina già ampiamente codificata e applicata con buon grado di uniformità sul territorio dell’Unione: se da un lato è vero che la responsabilità da prodotto trova a livello europeo sistematizzazione in epoca relativamente recente con la Direttiva UE 374/1985, lo stesso certo non può dirsi con riferimento al regime di fonte codicistica della responsabilità aquiliana. Proprio quest’ultimo affonda le proprie radici nella comune origine romanistica dei sistemi giuridici europei, matrice poi sviluppatasi e fiorita in età moderna attorno al paradigma del Code Napoléon, a sua volta in larga parte trasfuso in svariati degli attuali codici continentali (in Italia, dapprima in quello del 1865 e successivamente in quello del 1942, essendo esso in gran parte ricalcato sul modello del primo). Una simile costruzione ha infatti storicamente dato buona prova di sé e della sua tenuta, assolvendo l’arduo compito di governare altre fasi caratterizzate da enormi progressi tecnologici, altrettanto (se non maggiormente) dirompenti di quella attuale, gli effetti delle quali parevano radicalmente inconcepibili al momento dell’entrata in vigore dei codici stessi, cioè al momento in cui quelle stesse norme erano state elaborate. In tal senso, la maturazione nel secolo ventesimo degli sviluppi della seconda rivoluzione industriale—che peraltro pare vicina a quella attualmente in corso in talune sue conseguenze—offrì un formidabile banco di prova per l’operatività della responsabilità da fatto illecito e per il (parimenti significativo) ricamo ermeneutico che ne guidava l’applicazione. Segnatamente, questi due formanti si rivelarono di importanza cruciale in un’epoca segnata dall’ingresso nella società di nuove occasioni di rischio e dalla moltiplicazione delle ipotesi di «anonimizzazione» dei danni. Sotto il primo profilo, si pensi all’avvento su larga scala delle prime automobili, fenomeno che impose la necessità di regolare le conseguenze giuridiche dei sinistri stradali e le correlate ipotesi di responsabilità. In parallelo, come evidenziato da Trimarchi, l’incremento della complessità dei processi produttivi delle imprese—che arricchivano i propri armamentari produttivi con la presenza di macchinari e strumenti sempre più automatizzati—si tradusse in fenomeni di «spersonalizzazione del danno», tali per cui la vittima risultava in concreto impossibilitata ad individuare l'autore materiale dell'illecito, essendo questi sovente inserito in un’organizzazione imprenditoriale articolata e strutturata gerarchicamente, e dunque logicamente lontano dalla consumazione dell’evento dannoso. In questo scenario, a fronte dell’identità del dettato normativo, centrale fu il ruolo delle corti e della dottrina nell’adattare al mutato quadro socioeconomico la tutela giuridica dei diritti soggettivi. Per evitare, infatti, che i soggetti lesi—in spregio all’art. 24 Cost.—rimanessero sprovvisti di tutela dinnanzi ad una lesione, si andò affermando una sensibilità condivisa verso l’urgenza di superare il granitico dogma «nessuna responsabilità senza colpa», che invece ben si prestava ad allocare le responsabilità nel quadro di strutture sociali dall’assetto tutto sommato semplice. Si andò così verso il riconoscimento civilistico di forme di responsabilità oggettiva, in radice indipendente da qualsiasi elemento soggettivo, financo colposo, del danneggiante. Di qui, parimenti, l’incrementale rilievo della funzione compensativa della responsabilità civile a scapito della funzione sanzionatoria e preventiva, che pure per lungo tempo aveva fatto connubio con il riconoscimento del primato della colpa. Tale rinnovata funzione dell’illecito aquiliano, peraltro, fu ben cristallizzata nel brocardo cuius commoda eius et incommoda, ad indicare come il soggetto chiamato a sopportare il costo sociale di un’attività dannosa è colui che quella stessa attività ha introdotto nella società, assumendosene il rischio, e dallo svolgimento della quale ritrae infine un beneficio. Fu questo il percorso ermeneutico che portò norme come gli artt. 2049-2052 c.c. ad affrancarsi dalla dominante lettura in chiave colpevole (dove l’elemento soggettivo della colpa veniva addirittura presunto, talora in senso relativo e talaltra in senso assoluto) per essere infine concepite alla stregua di altrettante casistiche di responsabilità oggettiva. In sintesi, dunque, l’evoluzione sin qui tratteggiata pare illustrare bene come l’opera di mediazione ermeneutica sia riuscita, facendo leva su formulazioni testuali e clausole volutamente ampie e dalla portata generale, ad adattare il campo applicativo delle norme sì da intercettare alcuni sviluppi della società che risultavano inconcepibili al momento della loro ideazione. Di qui, sembra che ancora oggi una simile opera ermeneutica possa essere rilevante per la disciplina di tecnologie “AI-fueled”, che in prima battuta paiono configurare irrisolvibili problemi di tutela.
Bibliografia
Agostino R.M., Intelligenza artificiale e processi decisionali, in Mercato Concorrenza Regole, 2020, p. 373
Bertolini A., Intelligenza artificiale e responsabilità, in Itin. dir. priv., Il Mulino, 2025, p. 120.
Bryson J. J., The artificial intelligence of the ethics of artificial intelligence, in Dubber M.D. - Pasquale F. – Das S. (a cura di), The Oxford Handbook of Ethics of AI, Oxford University Press, Oxford, 2020, p. 4.
Castronovo C., La nuova responsabilità civile. Regola e metafora, Milano, 1991, p. 4.
Comandé G., Intelligenza artificiale e responsabilità tra liability e accountability, il carattere trasformativo dell’IA e il problema della responsabilità, in Analisi Giuridica dell’Economia, 2019, p. 170.
Dal Verme T.D.M.C., Intelligenza artificiale e responsabilità civile: uno studio sui criteri di imputazione, Editoriale Scientifica, 2024, p. 97.
Di Ciommo F., Valori e funzioni della responsabilità civile nell’epoca del post- turbocapitalismo, in Danno resp., 2021, 2, p. 141-142.
Finocchiaro G., La proposta di Regolamento sull'Intelligenza Artificiale: il modello Europeo basato sulla gestione del rischio, in Diritto dell'informazione e dell'informatica, 2022, 2, p. 303-305.
Ruffolo U., Per i fondamenti di un diritto alla robotica self-learning; dalla machinery produttiva all’auto driverless: verso una “responsabilità da algoritmo?”, in Int. artif. e resp., a cura di Ruffolo, Milano, 2017, p. 17.
Santosuosso A., et al., Robot e diritto: una prima ricognizione, in Nuova giur.civ.comm., 2021, pp. 494 ss.
Trimarchi P., Rischio e responsabilità, Milano, 1961, p. 36.