Il problema dell’autodittatura digitale

In psicologia cognitiva, la tendenza a credere in ciò che conferma il nostro sistema di credenze ha un nome: ‘confirmation bias‘. E’ un meccanismo del nostro modo di pensare che, in altre parole, ci ‘costringe’ a vedere solo ciò che vogliamo vedere – e ignorare il resto. Di norma è una tendenza bilanciata da quella, altrettanto potente, ad adattare ciò che sappiamo alle novità imposte dall’ambiente che ci circonda. Ma, segnala Eli Pariser in The Filter Bubblequesto delicato equilibrio è reso sempre più difficile dalla crescente personalizzazione dei contenuti di cui fruiamo su Internet, dalla pubblicità ai risultati dei motori di ricerca e del news feed di Facebook, per dirne alcuni. E’ un effetto collaterale perfino più pericoloso della disintegrazione (solo in parte volontaria) della privacy dei cittadini digitali, perché – proprio a causa del confirmation bias - siamo predisposti a non renderci conto della partigianeria dei contenuti che esprimono concetti con cui siamo d’accordo. E per questo tendiamo a ritenere i motori di ricerca oggettivi e imparziali – anche se non lo sono, dato che sono tarati sulle precedenti ricerche di ogni singolo utente, e danno maggiore rilevanza alle risposte adeguate ai suoi gusti. Il problema è che la personalizzazione dei contenuti è incrementale, e i filtri diventano sempre più precisi e selettivi. E così finiamo per ritrovarci – inconsapevolmente – all’interno di quella che Pariser chiama una «filter bubble», una «bolla» i cui confini sono stabiliti dai filtri che determinano con quali contenuti è più probabile veniamo in contatto. E che, sempre più, ci assomigliano, riducendo l’esperienza online a una specie perversa di solipsismo – allontanandoci al contempo dagli altri. In altre parole, la «filter bubble» tende a rinforzare «in modo drammatico» il ‘confirmation bias’. «In un certo senso, è fatta per quello», scrive Pariser. Il concetto che i filtri che offrono contenuti personalizzati (Alexis Madrigal ne offre una panoramica su The Atlantic: sono centinaia per una qualunque navigazione) si traduce secondo l’autore nel pensiero spaventoso di una «autopropaganda invisibile che ci indottrina con le nostre stesse idee.» Insomma, un’autodittatura digitale le cui conseguenze non sono solo individuali, ma anche – e soprattutto – sociali. Perché «la democrazia richiede che i cittadini vedano le cose l’uno con la prospettiva dell’altro.» E ancora, che «ci si affidi a fatti condivisi; invece ci vengono offerti universi paralleli, ma separati.» C’è chi sostiene che, tutto sommato, sia il prezzo da pagare per poter condividere su Facebook un articolo che ci piace tramite un semplice ‘like’ da una qualunque pagina web, o usufruire dei consigli per gli acquisti di Amazon, o per non dover semplicemente ridigitare l’url o la password di un sito che visitiamo frequentemente. Ma è un problema serio, la cui consapevolezza potrebbe non bastare. Prima di tutto, perché rivolgersi agli ‘esperti’ non aiuterà: sono proprio loro, scrive Pariser, le prime e più probabili vittime. E poi perché, nonostante il moltiplicarsi di richieste – la più recente da parte del governo USA – per strumenti che rendano visibile la «bolla» (a partire dalle opzioni ‘Do Not Track‘), c’è un’intera popolazione a cui ricordare che potrebbe essere preda di perversi meccanismi psicologici. Gli economisti tentano da decenni – e Daniel Kahneman ci ha perfino vinto un premio Nobel – di insegnare ai consumatori strategie per evitare che le loro scorciatoie cognitive li consegnino nelle mani dei dipartimenti di marketing delle multinazionali. Finora, tuttavia, non hanno avuto successo. Difficile credere che, se non vale per decidere cosa mettere nel carrello della spesa, valga per qualcosa di così terribilmente astratto come la democrazia.