top of page

Dietro gli algoritmi di intelligenza artificiale: funzionamento e discriminazioni

1. Introduzione

 L’Intelligenza Artificiale (AI) è diventata una parte integrante della nostra vita quotidiana. Parliamo di algoritmi, dati personali e sistemi intelligenti come ChatGPT o Sora, applicazione che promette di realizzare video realistici e animazioni a partire da descrizioni testuali. Ma l’elenco non si esaurisce qui: nel settore dell’automotive l’AI viene utilizzata per lo sviluppo dei veicoli a guida autonoma; nel marketing per profilare gli utenti e proporre pubblicità mirate ai loro interessi; nel settore finanziario per automatizzare operazioni di trading online e investimenti. Si tratta, evidentemente, di un elenco esemplificativo e non esaustivo, perché questi sistemi fanno ormai parte stabile della nostra realtà.

  Oggi l’AI non solo trasforma il modo in cui viviamo, lavoriamo e interagiamo, ma solleva anche interrogativi legali, etici e sociali di grande rilievo. È, tuttavia, necessario ricordare che, per quanto moderni e innovativi possano sembrare gli strumenti che sfruttano questa tecnologia, le loro radici affondano in riflessioni ben più risalenti: basti citare Alan Turing. Matematico britannico, considerato uno dei padri dell’informatica e dell’intelligenza artificiale, Turing dedicò la propria vita allo studio dell’apprendimento delle macchine. Il celebre Test di Turing, che porta il suo nome, non mirava soltanto a verificare la capacità di una macchina di esibire un comportamento intelligente e indistinguibile da quello umano, ma intendeva soprattutto porre le basi teoriche per una futura concezione della tecnologia computazionale.

L’obiettivo di Turing era dunque più profondo e orientato al progresso rispetto al semplice interrogativo sulla capacità della macchina di apparire intelligente. È evidente che l’eredità lasciataci dal padre dell’informatica abbia posto le fondamenta teoriche delle «macchine pensanti».

 A questo punto, diventa necessario comprendere come i sistemi di Intelligenza Artificiale siano in grado di prendere decisioni, risolvere problemi o svolgere compiti apparentemente complessi.

 


2. Il funzionamento della macchina

 I sistemi di Intelligenza Artificiale utilizzano algoritmi, tra cui quelli di machine learning (ML). Quest'ultimo è un sottoinsieme dell’Intelligenza Artificiale che si occupa di sviluppare sistemi capaci di apprendere e migliorare automaticamente sulla base dei dati. Un algoritmo è una sequenza finita di istruzioni precise e non ambigue utilizzata per risolvere un problema a partire da determinati input. Un algoritmo di machine learning è, quindi, un insieme di procedure matematiche progettate per identificare pattern nei dati e consentire a un sistema informatico di formulare previsioni o prendere decisioni senza una programmazione esplicita per ogni singolo caso.

Comprendere il funzionamento di questi sistemi non è immediato; tuttavia, si proverà a evidenziarne alcuni elementi essenziali. La conoscenza è fondamentale: gli algoritmi necessitano di una grande quantità di dati per poter svolgere un compito in completa autonomia. Questa quantità deriva dal data training e, al contempo, dalla capacità stessa dell’algoritmo di auto-apprendere.

  Con il data training, l’algoritmo che riceve una serie di input, dati e istruzioni impara a formulare previsioni o classificazioni basate sui contenuti ricevuti. La qualità delle informazioni inserite è cruciale: devono essere veritiere, attendibili e il più possibile complete, così da produrre un output pertinente. Se l’addestramento si basa su dati errati o parziali, il rischio è quello di generare bias (pregiudizi), sia cognitivi sia predittivi, con conseguenti comportamenti devianti o discriminatori.

 Il tema non si esaurisce qui: gli algoritmi dispongono anche della capacità di auto-apprendimento dall’esperienza. Ciò significa che non si limitano a elaborare gli input forniti dal programmatore durante l’addestramento, ma attingono anche dalle informazioni ricavate dalle loro interazioni con l’ambiente circostante, come il web.

 L’apprendimento dell’algoritmo, sia mediante data training sia tramite auto-apprendimento, evidenzia che non sempre è possibile comprendere il percorso interno che porta un sistema di AI a una determinata risposta. Per questo motivo tali tecnologie vengono spesso paragonate a black box, poiché non si è in grado di controllare pienamente né le informazioni apprese né il processo con cui vengono aggregate.

Per completezza occorre precisare che, accanto agli approcci di ML tradizionali, le tecnologie attuali impiegano sempre più spesso metodi di deep learning, una particolare categoria di tecniche basate su reti neurali artificiali a più livelli, ispirate — in modo astratto — all’organizzazione del cervello umano.

Le reti neurali si ispirano al funzionamento multilivello dei neuroni della neocorteccia: grazie al loro impiego, i computer sono in grado di comprendere e generare un linguaggio quanto più vicino a quello umano. Questi modelli sono utilizzati in tecnologie molto diffuse, come gli assistenti vocali (ad es. Alexa e Siri), il riconoscimento di immagini e video, o i chatbot.

  Alla luce di ciò, si può affermare che lo sviluppo dell’Intelligenza Artificiale dipenda essenzialmente dal deep learning. La complessità stessa dei concetti fin qui illustrati testimonia quanto articolati siano i sistemi di AI.

 


3. Alcuni aspetti critici

Dopo aver affrontato il tema del funzionamento di queste tecnologie che popolano la nostra vita, vogliamo ora considerare più da vicino cosa comporta l’utilizzo di questi sistemi.

Anzitutto, l’uso del termine intelligenza artificiale porta spesso a immaginare l’AI come un’intelligenza paragonabile in tutto e per tutto a quella umana: questa concezione è errata. Occorre considerare l’algoritmo non come un sostituto del cervello umano, ma come uno strumento che affianca gli esseri umani nelle attività della loro esistenza. L’utilizzo di sistemi dotati di AI ha indubbiamente introdotto uno scenario nuovo e innovativo, che in molti casi ha migliorato ed efficientato anche le attività più semplici.

Alla luce di quanto seguirà, non possiamo dimenticare che il sapere giuridico si è trovato a dover fronteggiare fattispecie concrete del tutto nuove e imprevedibili, spesso ricorrendo a strumenti di autoregolazione o a forme di soft law non sempre sufficienti.

 


3.1. I dati digitali

Come sopra accennato, gli algoritmi apprendono da set di dati iniziali e mediante l’attività di autoapprendimento, che dipende essenzialmente dalla tecnica del data scraping. Questa tecnica, il cui nome deriva dall’inglese to scrape («raschiare»), consiste nell’estrazione automatica di dati o informazioni presenti sul web, trasformando ciò che viene “raschiato” in informazioni utili per analisi e decisioni. Ciò che accomuna entrambe le modalità di apprendimento sono i dati. I dati digitali sono informazioni grezze — numeri, testi, immagini, dati personali — e costituiscono la linfa di queste tecnologie. Senza di essi non vi è possibilità di miglioramento né di sviluppo per i sistemi di Intelligenza Artificiale.

La tecnica del data scraping porta con sé la criticità della legittimità delle informazioni ricavate dalla rete, soprattutto se ottenute senza alcuna licenza.

Un caso significativo riguarda lo strumento di registrazione vocale Whisper, utilizzato da OpenAI per trascrivere le parti audio dei video pubblicati su YouTube al fine di ottenere i dati necessari ad alimentare i propri algoritmi. Tale operazione violava chiaramente le norme della piattaforma. Questo episodio, come altre controversie celebri, dimostra come lo sfruttamento di opere protette dal diritto d’autore metta in tensione le disposizioni normative predisposte per la loro tutela.

Alla luce di quanto esposto, è evidente che i dati digitali rivestano oggi un ruolo essenziale: essi rappresentano il nutrimento degli algoritmi di apprendimento e consentono ai sistemi di “imparare” e migliorarsi, con l’ambizione di compiere operazioni sempre più complesse.

I dati vengono spesso paragonati al petrolio: così come questo viene estratto dal sottosuolo e trasformato fino a diventare una risorsa utilizzabile, allo stesso modo i dati digitali vengono estratti in forma grezza da internet per essere sottoposti a un processo volto a generare conoscenza e valore per chi li analizza. Da qui l’espressione ricorrente «dati come oro nero», che sottolinea la loro crescente importanza economica e strategica.

Il loro sfruttamento economico è ormai consolidato: ad esempio, i dati vengono spesso utilizzati per monitorare le preferenze degli utenti e proporre loro lo stesso servizio a prezzi più elevati. Si tratta del sistema dei prezzi personalizzati, reso possibile dall’AI, che consente a chi vende prodotti o servizi di massimizzare i profitti. La compagnia aerea Delta Air Lines ha reso noto che introdurrà presto una strategia di acquisto dei biglietti basata proprio su questo meccanismo. Lo sfruttamento dei dati personali reperiti online, dunque, non solo solleva forti dubbi di legittimità, ma apre anche a preoccupazioni collegate al tema della discriminazione.

 


3.2. Discriminazione e bias

Come già esposto, il sistema dei prezzi personalizzati permette alle aziende di indagare le preferenze degli utenti, i loro interessi e persino informazioni come codice postale, sesso o etnia. La conoscenza massiva di questi elementi, nelle mani di soggetti il cui obiettivo è massimizzare i profitti, comporta inevitabilmente un rischio concreto di discriminazione. Un utente potrebbe quindi ricevere un prezzo diverso rispetto a un altro sulla base del sesso o della residenza. Tuttavia, esistono episodi di discriminazione legati all’Intelligenza Artificiale ben più gravi di un semplice mutamento di prezzo, arrivando a incidere su sfere personali sensibilmente più delicate.

Consultando il database degli incidenti AI, incidentdatabase.ai, è possibile esaminare una raccolta di episodi in cui l’uso dell’AI ha prodotto conseguenze eticamente gravi o discutibili. Il database distingue tra AI incidents (incidenti) e issues (problemi). Un AI incident corrisponde a un evento presunto o quasi presunto dannoso per persone, beni o ambiente, implicante un sistema di AI.

Un caso molto noto, registrato come n. 16, riguarda un sistema di riconoscimento delle immagini che nel 2015 classificò erroneamente una donna nera come un gorilla. Le critiche rivolte al modello non si esaurirono con l’episodio iniziale: due anni dopo, un’inchiesta di Wired riesaminò il sistema, scoprendo che l’algoritmo non riusciva più a riconoscere gorilla, scimpanzé o scimmie, perché i relativi tag erano stati rimossi per evitare il ripetersi dell'errore.

È evidente che il pregiudizio umano sia presente anche nei set di dati, riflettendo aspetti dell’umanità che preferiremmo non trasmettere alle macchine; tuttavia, rimuovere del tutto il rischio di tali pregiudizi senza insegnare ai sistemi come gestirli non è una soluzione adeguata.

Un altro episodio significativo si è verificato nel Regno Unito nell’ottobre 2020: una donna dalla pelle scura si è vista rifiutare per oltre cinque volte la fotografia necessaria alla richiesta del passaporto britannico, con la motivazione che la sua bocca sembrava “aperta”. Il sito utilizzava un controllo automatico per individuare immagini non conformi ai requisiti, ma l’algoritmo non era in grado di identificare correttamente la bocca, probabilmente perché troppo scura rispetto al dataset su cui era stato addestrato. In questo caso è stato proprio il dataset iniziale a generare discriminazione nei confronti delle donne e delle persone di colore.

Poiché l’AI apprende dai dati a cui è esposta, se l’ambiente informativo incorpora pregiudizi, anche gli output tenderanno a rifletterli — e talvolta ad amplificarli — salvo adeguate misure di mitigazione.

Testare i sistemi di AI per garantire prestazioni eque tra comunità ed etnie diverse è necessario, ma non sufficiente. Il rischio di discriminazione può infatti annidarsi anche a monte: nella costruzione del dataset, nelle etichette utilizzate per classificare i dati e nelle metriche con cui si valutano le prestazioni. Schemi di classificazione ed etichette modellati su prospettive culturali specifiche — spesso occidentali — possono trasferire tali presupposti nei sistemi automatizzati, con l’effetto di incorporare o addirittura amplificare pregiudizi e disparità.

Si parla appunto di bias: pregiudizi che vengono veicolati all’interno dei sistemi e che non sono pienamente governabili. Per questo motivo potrebbe essere preferibile concentrarsi sulla qualità dei dati forniti come input, più che sulla loro quantità, anche se pensare a un algoritmo totalmente privo di bias è pressoché impossibile. Da qui l’espressione acceptable bias.

 


4. Conclusione

  Alla luce di quanto fin qui esposto, è evidente che l’uomo si trovi in una condizione nuova, assistita e stimolata dagli algoritmi e dalla stessa Intelligenza Artificiale. I sistemi di AI riempiono le nostre giornate: dai sistemi di AI conversazionale, che utilizzano modelli di linguaggio per modificare, tradurre o interpretare testi, fino alle applicazioni nel settore dell’assistenza medica, come gli strumenti sviluppati per rilevare biomarker vocali, elementi normalmente non percepibili dall’udito umano ma utili per identificare o monitorare condizioni di salute. Si aggiunge, poi, l’AI generativa, che potrebbe rivoluzionare processi come il product design.

Dopo aver compreso il funzionamento degli algoritmi — che non solo conferiscono “l’anima” all’AI, ma incidono sulle caratteristiche e sul comportamento della tecnologia, anche grazie alle loro capacità autocorrettive ed evolutive — comprendiamo che questi strumenti non possono essere considerati dei sostituti degli esseri umani.

L’errore consiste nel considerare l’algoritmo come un sostituto del cervello umano, e non come un mezzo che, per quanto complesso e potente, deve rimanere tale. Dobbiamo quindi considerare il mondo come popolato da due intelligenze parallele: l’intelligenza umana, che non potrà essere sostituita, e quella artificiale, destinata ad affiancarla. Nonostante gli algoritmi di machine learning e i modelli di deep learning abbiano compiuto progressi straordinari, resta essenziale valorizzare un approccio human-in-the-loop (HITL) rispetto ai sistemi che non prevedono alcun intervento umano, più efficienti ma esposti a un rischio di errore maggiore e caratterizzati da un grado di trasparenza inferiore.

L’approccio HITL prevede la presenza dell’essere umano al centro del flusso decisionale dell’AI. In questo modo il controllo umano sulle decisioni della macchina contribuisce a ridurre il margine di rischio associato ai sistemi automatizzati. Da un lato ciò assicura maggiore trasparenza e un processo decisionale più etico e responsabile; dall’altro, è vero che l’intervento umano richiede tempi più lunghi e costi più elevati. Tuttavia, la sorveglianza e il contributo dell’uomo restano indispensabili per indirizzare il potere dei sistemi di intelligenza artificiale verso un uso effettivamente valoriale e orientato al progetto.

 




Bibliografia

  • Avitabile L., Il diritto davanti all’algoritmo, in Rivista italiana per le scienze giuridiche, 8/2017, pp. 313-325.

  • Internazionale, Intelligenza artificiale. 10 ambiti della nostra vita che stanno cambiando per sempre, Rizzoli, Milano, 2024.

  • Sterpa A. et al.L’ordine giuridico dell’algoritmo: la funzione regolatrice del diritto e la funzione ordinatrice dell’algoritmo, in Nuovi Autoritarismi e Democrazie: Diritto, Istituzioni, Società, 2/2023, pp. 120-155.

Commenti


bottom of page