1. Introduzione
Con l’avvento della rivoluzione digitale e la crescente consapevolezza sociale in merito all’erosione di diritti fondamentali che apparivano inviolabili nel secolo scorso, come la tutela della sfera privata, diventa sempre più necessario rompere i confini della «democrazia delle bolle» e del livellamento della comunicazione, ripensando l’utilizzo della tecnologia secondo un approccio umano-centrico. In tale contesto, questo articolo presenta una panoramica del fenomeno delle bolle di filtraggio con un’attenzione particolare al loro impatto effettivo sui cittadini.
Viene evidenziata l’importanza di trovare un equilibrio tra due considerazioni cruciali: la necessità di filtrare la vasta mole di dati accessibili online e l’esigenza di attuare un sistema normativo su misura che tuteli la libertà di espressione degli individui nell’era digitale, impedendo la manipolazione mirata e i pregiudizi che alimentano la propagazione della disinformazione.
2. Il fenomeno delle bolle di filtraggio
Nel 2011 Eli Pariser ha introdotto il concetto di «bolla di filtraggio» esprimendo, nel suo libro dall’omonimo titolo, preoccupazioni riguardo al meccanismo di personalizzazione Page Rank di Google, che dal 2009 ha consentito la differenziazione dei contenuti per ciascun utente in base alle sue preferenze, orientamenti, gusti e ricerche precedenti.
Ad un primo esame, il fenomeno potrebbe apparire positivo. Tuttavia, un'analisi più approfondita rivela diverse questioni che richiedono ulteriori indagini: innanzitutto, è invisibile, derivante da data mining e filtraggio collaborativo. Infatti, questi metodi integrano dati insufficienti su alcune categorie di consumatori attingendo direttamente dalla loro rete di utenti, dalle ricerche effettuate o dalle reazioni sui social media. Questo porta inevitabilmente alla trappola dell’autoreferenzialità, causata dalla continua reiterazione della stessa opinione espressa dall'utente, con rari episodi di vero dialogo costruttivo con punti di vista opposti. Inoltre, la conseguenza delle bolle di filtraggio è la formazione delle cosiddette «camere dell’eco» note anche come «bolle a serendipity zero». Questo fenomeno si caratterizza per la tendenza a difendere le proprie credenze e a conformarsi alle proprie strutture mentali intrinseche, escludendo visioni opposte, anche quando tali credenze risultano chiaramente infondate e contraddette da dati oggettivi (D. Palano, 2020). Questo porta all'emergere di un’era della post-verità, in cui i fatti oggettivi vengono sempre più spesso respinti in favore di considerazioni soggettivistiche (M. Ferraris, 2017).
3. La morte della verità nella democrazia delle bolle
Il fenomeno della camera dell’eco si basa sull’effetto di omogeneizzazione delle idee, definibile come la reiterazione su larga scala di pensieri, comportamenti, opinioni e scelte da parte di una rete di utenti connessi ma isolati nelle loro bolle. Questa situazione problematica si aggrava ulteriormente quando l’utente si trova a ricoprire il ruolo di cittadino: infatti, Sunstein sostiene che il principio di sovranità del consumatore, alla base del funzionamento dei social network dove i contenuti offerti sono allineati agli interessi personali, mina le democrazie deliberative (C.R. Sunstein, 2018).
Un esempio concreto è il feed delle notizie di Facebook, che include pubblicità mirate basate sulle preferenze degli utenti, espresse tramite i like su vari post condivisi da persone a cui sono, anche indirettamente, collegati o sulle pagine che seguono. In questo contesto, nel 1995 Nicholas Negroponte, cofondatore del Media Lab del Massachusetts Institute of Technology (MIT), ha proposto un sistema simile, che ha definito «Daily Me» (N. Negroponte, 1996). Questo sistema era concepito come un giornale virtuale personalizzato, attraverso il quale l'utente vedeva solo i contenuti di suo gradimento: una visione del mondo sfocata e adattata a ciascun individuo. È per questo motivo che la stampa tradizionale continua a svolgere un ruolo cruciale nel facilitare anche il più casuale degli incontri tra linee di pensiero divergenti, senza il potenziale effetto distorsivo ambiguo della bolla.
Anche il commercio online non è immune al meccanismo delle bolle: siti di e-commerce come Amazon, Aliexpress, Wish, Alibaba, Shein e Temu sono soggetti a questo fenomeno. L’effetto più insidioso della bolla è noto come «cyber cascate» o «polarizzazione di gruppo», fenomeno che si verifica quando il comportamento di uno o più individui innesca un effetto a cascata su molti altri che condividono le stesse idee iniziali. Ne consegue che le opinioni individuali vengono accettate come vere da interi gruppi di persone anche se non sono effettivamente basate su fonti scientifiche o dati oggettivi affidabili (F. Sammito, 2021). Ad esempio, questo fenomeno si manifesta sui social network come Facebook o Telegram, in gruppi virtuali costituiti da molte persone che discutono anche di argomenti sensibili riguardanti la politica (l’elezione presidenziale negli Stati Uniti) o la salute pubblica (come i vaccini, con numerosi gruppi «no-vax»).
Secondo M. Kakutani, nel suo articolo «La morte della verità. La bugia nell’era di Trump», la celebrazione dell’opinione rispetto alla conoscenza e dei sentimenti rispetto ai fatti ha contribuito all’ascesa di Trump. Questo fenomeno, noto come «assimilazione distorta», non è nuovo ed è diventato più significativo nel mondo digitale: si riferisce alla tendenza degli individui a raccogliere informazioni in modo da allinearsi e rafforzare le proprie convinzioni esistenti, mentre ignorano simultaneamente fonti che mettono in discussione i loro preconcetti (M. Kakutani, 2018).
Con l’avvento del World Wide Web, si sono formati nuovi sciami digitali: in Italia, Diamanti sostiene che questa trasformazione ha dato origine a una «democrazia pubblica» caratterizzata da un pubblico frammentato composto da individui isolati e incapaci di organizzarsi per esercitare un’influenza maggiore (I. Diamanti, 2014).
Palano descrive invece questo fenomeno come «bubble democracy», caratterizzato dalla frammentazione del pubblico e dalla creazione di numerose nicchie a cui indirizzare messaggi specifici, che portano a una maggiore radicalizzazione delle posizioni. Questi «sciami» si disintegrano con la stessa rapidità con cui si formano, manipolati da abili demagoghi e incapaci di distinguere la verità dalla falsità, riecheggiando la fragilità dei sistemi democratici (E. Butler, 2017).
4. Algoritmi: un nuovo linguaggio
In questo contesto, i pregiudizi, definiti da Kahneman, celebre psicologo e premio Nobel, come «errori sistematici, veri preconcetti che agiscono in modo imprevedibile in particolari circostanze», sono stati oggetto di analisi nel programma di ricerca Heuristics and Bias Program che mirava a comprendere il modo in cui gli esseri umani assumono decisioni «in contesti caratterizzati da ambiguità, incertezza o scarsità di risorse disponibili» (D. Kahneman, 1974).
Questi pregiudizi o bias, dal francese antico e il provenzale «biais» che significa «obliquo», rappresentano la propensione degli individui a interpretare erroneamente le informazioni, affidandosi all’intuizione e alle nozioni già possedute, basate su scorciatoie mentali che il cervello utilizza per risparmiare energia durante i processi cognitivi portando a risposte rapide. Questo meccanismo dà vita a pregiudizi cognitivi, dei quali ne sono stati mappati oltre un centinaio (L. Cannito, 2017).
È preoccupante che le tecniche di targeting possano perpetuare pratiche discriminatorie nei risultati di ricerca online, basate sull’origine etnica, orientamento sessuale, genere e altre caratteristiche intrinseche dell'individuo. Questa manipolazione compromette la libertà di scelta individuale, sfruttando le debolezze degli utenti e influenzando le preferenze attraverso la creazione di messaggi mirati in momenti specifici, ad esempio quando l’utente è più vulnerabile emotivamente o si trova in uno stato di salute particolare.
Nel 2016, la giornalista Julia Angwin di ProPublica ha evidenziato i pregiudizi contro gli afroamericani nel sistema algoritmico COMPAS. Questo algoritmo classificava gli afroamericani come soggetti a rischio considerevole due volte più spesso rispetto ai bianchi, nonostante non avessero precedenti criminali, mentre gli individui di etnia bianca risultavano frequentemente sottovalutati.
Nel 2018, uno studio dell'American Civil Liberties Union (ACLU), un’organizzazione non governativa dedicata alla tutela dei diritti civili e delle libertà individuali, ha dimostrato che l’utilizzo di Amazon Rekognition, una piattaforma di riconoscimento facciale sviluppata nel 2016, ha portato a errori di riconoscimento di membri del Congresso degli Stati Uniti come individui con precedenti penali, con un margine di errore più alto, che ammonta al 39%, tra quelli di colore (J. Snow, 2018).
Nello stesso anno, una ricerca condotta da Buolamwini e Gebru, studiosi del MIT e dell’Università di Stanford, ha rivelato che i programmi di riconoscimento facciale sul mercato includono già pregiudizi di genere e razza. Inoltre, le ricerche di immagini di Google per varie professioni hanno mostrato rappresentazioni che rafforzano stereotipi, come l’immagine di un’operaia rappresentata in modo provocante (J. Buolamwini, 2018). Inoltre Datta ha mostrato come alcune professioni di alto profilo appaiono con più frequenza se i destinatari dell’indicizzazione sono di sesso maschile piuttosto che femminile (A. Datta, 2015).
5. Misinformazione: i rimedi dell’UE al micro-targeting
Ginevra Cerrina Feroni, Vicepresidente del Garante Privacy, ha osservato che «esistono rischi significativi associati all’uso improprio dei dati personali per attività di profilazione su larga scala e campagne di comunicazione di massa o campagne personalizzate dirette, note come micro-targeting. Queste campagne possono cercare di influenzare l’orientamento politico degli individui e/o le loro scelte di voto, in base ai loro interessi personali, valori, abitudini e stile di vita» dando origine al fenomeno della misinformazione (G.C. Feroni, 2022).
Si tratta sostanzialmente di tecniche di data mining, il processo di estrazione di dati per identificare un modello predittivo basato su informazioni strategicamente raccolte a scopi di marketing diretto, le quali causano una distorsione continua delle informazioni in rete in base all’individuo coinvolto. A causa della condivisione indifferenziata dei dati accumulati da parte delle piattaforme di social media, ormai parte integrante anche di clausole unilaterali dei termini di servizio (per esempio, la condivisione delle rubriche di indirizzi), non è possibile esercitare un controllo effettivo sui propri dati personali. Per questo è necessario garantire il rispetto del principio della limitazione dello scopo, come espresso in precedenza nel 2020 nelle linee guida sul targeting degli utenti dei social media del Comitato Europeo per la Protezione dei Dati.
Nel libro «Big Data: A Revolution That Will Transform How We Live, Work, and Think», Mayer-Schönberger e Cukier discutono il valore dei flussi di dati e come creino nuove forme di valore economico (V. Mayer-Schönberger, 2013). Per questo motivo, la scrittrice e attivista Laurel Ptak sostiene una campagna per rivedere i termini di servizio delle piattaforme, in modo particolare Facebook affinché compensi gli utenti per il flusso di informazioni che forniscono dato che esprimere una preferenza tramite un like o un post non è solo una manifestazione di amicizia o puro intrattenimento ma lavoro non retribuito, poiché la soggettività diventa redditizia per le grandi aziende tecnologiche (A. Jung, 2014).
In termini di regolamentazione, la misura del Garante della Privacy riguardante la propaganda elettorale e la comunicazione politica del 2019 ha stabilito un divieto generale sull’uso dei dati raccolti online, in assenza di un consenso specifico e informato, per finalità di propaganda politica. Questo è conforme ai principi di correttezza e limitazione delle finalità sanciti dall’articolo 5 del GDPR, paragrafo 1.
6. Il Regolamento (UE) 2024/900 e altre norme
Il Regolamento (UE) 2024/900 sulla trasparenza e sul targeting della pubblicità politica, inizia con le disposizioni generali stabilite nell’Articolo 1, delineando gli obiettivi della proposta, che includono il funzionamento del mercato interno e la protezione dei dati personali degli individui. Inoltre, il Regolamento stabilisce obblighi di trasparenza per i fornitori di servizi attraverso l’implementazione di regole armonizzate sulla divulgazione, conservazione e pubblicazione delle informazioni, nonché sull'uso delle tecniche di targeting nella promozione della pubblicità politica, che comporta il trattamento dei dati personali.
Altre normative sul targeting, entrate in vigore nel 2023 insieme al Digital Markets Act, includono il Digital Services Act. Questa normativa ha avuto un profondo impatto sul panorama digitale, ottimizzando il processo di rimozione di contenuti illegali al fine di proteggere i diritti dei consumatori, combattere la disinformazione online, promuovere un controllo democratico delle piattaforme e facilitare l’accesso al mercato conformità con il GDPR, l’articolo 28, paragrafo 1, stabilisce un divieto assoluto sull’uso delle tecniche di targeting per il trattamento dei dati relativi a minori per scopi commerciali. Rispetto alla Direttiva sui Servizi di Media Audiovisivi 1808/2018, i danni potenziali causati al diritto alla privacy, alla libertà di informazione, espressione e non discriminazione sono affrontati direttamente tramite l’obbligo di valutare il rischio sistemico.
7. Conclusione
Né la tecnologia né gli ingegneri possono determinare completamente il funzionamento di un sistema: le macchine inevitabilmente rivelano pregiudizi umani, trasmessi inconsciamente attraverso pregiudizi culturali. Il problema fondamentale è che, sebbene gli algoritmi siano progettati da esseri umani per essere utilizzati da altri umani, una volta implementati, acquisiscono una propria autonomia sfuggendo al controllo dei loro creatori e, soprattutto, dei destinatari. Così, gli utenti, inconsapevoli, vengono intrappolati in bolle e interagiscono con un pubblico altrettanto ignaro.
Naturalmente, la quantità di informazioni nel cloud è eccessiva, e questo filtraggio è necessario per il modo in cui è progettata la rete; tuttavia, mina certamente il diritto a cambiare opinione, o meglio ad avere un’opinione informata, condizione fondamentale per l’esistenza di una società di fatto democratica, basata sul dialogo e la libertà di espressione. A questo punto, è lecito chiedersi se tale diritto esista e in che misura possa essere tutelato dagli strumenti attuali e futuri per una società più equa, lungimirante e aperta.
La risposta può essere solo una regolamentazione sistematica del fenomeno che modella la nostra società e rafforza le disuguaglianze informative che rappresentano il motore dei fenomeni economici, sociali e politici. Chi possiede tutte le informazioni detiene una sorta di vaso di Pandora, mentre chi ha accesso solo a una parte di esse vede una verità distorta che si inclina sempre più, creando una condizione di privilegio non solo informativo ma di accesso alle opportunità e a canali professionali, sociali o ideologici.
La disinformazione divide le persone e le disorienta creando, a lungo termine, un senso di frustrazione che a sua volta genera instabilità e odio in rete. Di conseguenza, ciascuna persona rimane sola rispetto ad una moltitudine di altri individui immersi in bolle informative fisicamente e tecnologicamente irraggiungibili.
Bibliografia
Adam D. et al., Experimental evidence of massive-scale emotional contagion through social networks, in Proceedings of the National Academy of Sciences, vol. 24/2014, pp. 8788–8790.
Angwin J. et al., Machine bias, ProPublica, 2016, https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing.
Bartlett J. et al., The new face of digital populism, Demos, London, p. 143.
Buolamwini J. – Gebru T., Gender shades: intersectional accuracy disparities in commercial gender classification, in Proceedings of Machine Learning Research, vol. 81/2018, pp. 77–91.
Butler E. – Han B.C, In the swarm, MIT Press, Cambridge, 2017, p. 82.
Cannito L., What Are Cognitive Biases?, in Behavioral Economics, 2017, https://www.economiacomportamentale.it/2017/07/27/cosa-sono-i-bias-cognitivi/.
Cardon D., What algorithms dream of our lives in the time of big data, Mondadori, Milano, 2016, p. 90.
Chenou M., Temu, le nouveau site d’e-commerce chinois qui cartonne et inquiète, Le parisien, 2023, https://www.leparisien.fr/economie/temu-le-nouveau-site-de-commerce-chinois-qui-cartonne-et-inquiete-05-06-2023-UTFD66GI6JCZJCV2KCTNW7Z2U4.php.
Corbett-Davies S., A computer program used for bail and sentencing decisions was labeled biased against blacks. It’s actually not that clear, The Washington Post, 2016, https://www.washingtonpost.com/news/monkey-cage/wp/2016/10/17/can-an-algorithm-be-racist-our-analysis-is-more-cautious-than-propublicas/.
Dal Lago A., Populismo digitale. La crisi, la rete e la nuova destra, Raffaello Cortina Editore, Milano, 2017, pp. 52-53.
Datta A. – Tschantz M.C., Automated experiments on ad privacy settings, in Proceedings on Privacy Enhancing Technologies, vol. 1/2015, pp. 92–112.
Di Gregorio L., Demopatìa. Sintomi, diagnosi e terapie del malessere democratico, Rubbettino Editore, Soveria Mannelli, 2019, p. 256.
Diamanti I., Democrazia ibrida, Repubblica-Laterza, Rome-Bari, 2014, p. 9.
Dressel J. et al., The accuracy, fairness, and limits of predicting recidivism, in Science Advances, 1/2018, pp. 1-5.
Ferraris M., Post verità e altri enigmi, Il Mulino, Milano, 2017, p. 181
Feroni G.C., Cerrina Feroni (Italian Data Protection Authority): lights and shadows of the European Data Strategy, Agenda Digitale, 2022, https://www.agendadigitale.eu/sicurezza/privacy/cerrina-feroni-garante-privacy-luci-e-ombre-della-data-strategy-europea/.
Garrett K., Echo chambers online?: politically motivated selective exposure among Internet news users, in Journal of Computer-Mediated Communication, vol. 2/2009, pp. 265–285.
Geschke D. et al., The triple-filter bubble: using agent-based modelling to test a meta-theoretical framework for the emergence of filter Bubbles and echo chambers, in British Journal of Social Psychology, 1/2018, pp. 129-149.
Jong E., What role do algorithms play in US Courts?, Internazionale, 2018, https://www.internazionale.it/notizie/ed-yong/2018/02/16/algoritmo-valutazione-rischio-tribunale#:~:text=Compas%20%C3%A8%20uno%20dei%20tanti,potrebbero%20essere%20utili%20in%20tribunale.
Jung A., Wages for Facebook, Dissent Magazine, 2014, https://www.dissentmagazine.org/article/wages-for-facebook/.
Kahneman D., Thinking, fast and slow, Straus and Giroux, New York, 2011.
Kahneman D. – Tversky A., Judgment under uncertainty: heuristics and biases, Cambridge University Press, Cambridge, 1974, p. 544.
Kakutani M., The Death of Truth: Notes on Falsehood in the Age of Trump, Crown/Archetype, New York, 2018, pp. 50 e 208.
Keyes R., The post-truth era. Dishonesty and deception in contemporary life, St. Martin Press, New York, 2004.
Komando K., TECH Get Temu, the popular shopping app, off your phone now, Fox News, 2023, https://www.foxnews.com/tech/get-temu-popular-shopping-app-phone-now.
Longo E., Dai big data alle “bolle filtro: nuovi rischi per i sistemi democratici, in Percorsi Costituzionali, vol. 12/2019, p. 39.
Mayer-Schönberger V. – Cukier K., Big Data: A Revolution That Will Transform How We Live, Work, and Think, Houghton Mifflin Harcourt, Boston, 2013, p. 242.
Meschini F., Fake News e post verità: disordini informativi e narrativi tra Gutenberg e Google, in AIB Studi, vol. 3/2019, pp. 393-412.
Negroponte N., Being digital, Vintage Books, New York, 1996, p. 272.
Palano D., Bubble democracy. La fine del pubblico e la nuova polarizzazione, Morcelliana, Brescia, 2020, pp. 46, 43-44, 142-143, 153, 174.
Parisier E., The filter bubble: what the Internet is hiding from you, New York, Penguin Press, 2011, p. 294.
Sammito F. - Sichera G., L’informazione (e la disinformazione) nell’era di Internet: un problema di libertà problem of freedom, in Costituzionalismo.it, 1/2021, pp. 77-131.
Snow J., Amazon’s face recognition falsely matched 28 Members of congress with mugshots, American Civil Liberties Union, 2018, https://www.aclu.org/news/privacy-technology/amazons-face-recognition-falsely-matched-28.
Sunstein C.R., #Republic: divided democracy in the age of social media, Princeton University Press, New Jersey, 2018, pp. 11-16 e 60-67.
The Washington Post, What to know about shopping apps Temu and Shein, The Washington Post, 2023, https://www.washingtonpost.com/technology/2023/02/14/what-is-temu-super-bowl-commercial/.
Vocabolario Treccani, Bias, https://www.treccani.it/vocabolario/bias/.
Comentários