Internet e i social media stanno rimodellando il modo in cui ci avviciniamo all’informazione e costruiamo la nostra opinione su ciò che ci circonda. E questo non solo a causa della “bolla” creata dagli algoritmi, che registrano il nostro comportamento online e tendono a proporci contenuti conformi ai nostri gusti, ma anche e soprattutto perché siamo noi utenti a leggere e condividere soltanto le notizie che confermano i nostri pregiudizi, ignorando quelle che li contraddicono. Questo il risultato di una serie di studi scientifici, tra cui l’ultimo, pubblicato oggi su Proceeding of the National Academy of Sciences, prende in esame 376 milioni di utenti attivi su 920 pagine Facebook di quotidiani e agenzie stampa.
Gli effetti di questa tendenza alla chiusura e all’autoreferenzialità sono senza dubbio preoccupanti, nell’ottica di un sano sviluppo del dibattito pubblico. Si osservano la creazione e il rafforzarsi delle cosiddette casse di risonanza (echo-chambers), all’interno delle quali le informazioni trasmesse sono veicolate esclusivamente dal meccanismo del pregiudizio di conferma (confirmation bias), impedendo qualunque tipo di scambio di opinioni. Walter Quattrociocchi, che coordina il laboratorio di Computational Social Science dell’Imt di Lucca e ha guidato gli studi su questo tema, è intervenuto anche sul Global Risk Report 2017 del World Economic Forum, segnalando il rischio politico e sociale introdotto dalla misinformation, ovvero la distorsione dell’informazione online. Per comprendere meglio queste delicate dinamiche, lo abbiamo intervistato.
Cominciamo dalle basi: cosa si intende quando si parla di misinformation?
«Con misinformation si intendono tutte quelle argomentazioni e informazioni che non sono verificate, verificabili, o addirittura non sostanziate. Il fenomeno comporta l’integrazione, nel mondo dell’informazione, di questo tipo di notizie distorte. Che sia un errore giornalistico o che si tratti di una notizia appositamente rilasciata come falsa, c’è una tendenza alla diffusione di informazioni false o prive di verifica all’interno del circuito informativo».
Le fake news, o bufale, non nascono di certo online, ma trovano nei social media un terreno fertile per essere diffuse e diventare “virali”. Come mai?
«Questo fenomeno emerge molto chiaramente proprio dal nostro studio, e nasce dal fatto che si è rotta la struttura del sistema informativo. L’ambiente fortemente disintermediato dei social network ha devastato il sistema informativo così come lo conoscevamo. Le testate giornalistiche inseguono i social e l’informazione è mediata dai processi di massa. Gli stessi meccanismi che riguardano i flussi di like per gattini e selfie, i bias (ovvero i pregiudizi con cui filtriamo ciò che ci piace) si ripetono identici nelle dinamiche dell’informazione».
Questi effetti polarizzanti si innescano anche nell’ambito della comunicazione scientifica?
«Sì, decisamente sì. Sembra che non ci sia nessun campo immune a questo tipo di meccanismi. Un nostro studio precedente faceva vedere in modo chiaro che c’è questa forte polarizzazione tra informazione scientifica e informazione complottista. Ora con questa ricerca sulle testate giornalistiche abbiamo generalizzato ulteriormente, ed è possibile vedere come la ricerca di una specifica narrativa e il conseguente isolamento su di essa siano una tendenza propria dell’essere umano».
C’è chi propone di risolvere il problema delle bufale intensificando l’attività di fact-checking, ovvero della verifica dei fatti, ma nei vostri studi emerge che questo accorgimento non è sufficiente. Puoi spiegarci perché?
«Il fatto è che l’utente tende a cercare l’informazione a supporto della narrazione che più lo aggrada. Quindi, l’esistenza di un apparato che cerca di distinguere se l’informazione sia vera o falsa porterà come unico risultato quello di rafforzare la polarizzazione. Il lettore che aveva pregiudizi consoliderà la propria posizione, continuando a rifiutare il personaggio istituzionale o giornalistico che diffonde una narrazione individuata come antagonista».
Alla luce di tutto questo, ritieni che sia possibile fare qualcosa per uscire da questi meccanismi?
«Sì, a lungo termine stiamo già sviluppando parecchie idee, mano a mano che si diffonde la consapevolezza del problema. Un’altra cosa che andrebbe fatta è limitare il numero di supercazzole che si stanno generando su questo argomento, perché a loro volta innescano altra misinformation, fake news sulle fake news. Quello che emerge è che c’è bisogno di sviluppare maggiormente l’abitudine al pensiero critico, in particolare questo deve essere fatto all’interno delle scuole. Inoltre, va ricreato un nuovo sistema informativo, perché l’indicazione chiara è che questo non funziona, non contribuisce alla diffusione dell’informazione, ma è solo polarizzante».
Per saperne di più:
- Leggi su Proceeding of the National Academy of Sciences l’articolo “Anatomy of news consumption on Facebook” di Ana Lucia Schmidt, Fabiana Zollo, Michela Del Vicario, Alessandro Bessi, Antonio Scala, Guido Caldarelli, H. Eugene Stanley e Walter Quattrociocchi
- Consulta il blog di Walter Quattrociocchi sul sito dell’Agenzia giornalistica Italia
Nel video, l’intervista realizzata a dicembre scorso da Media Inaf in occasione della presentazione del libro di Walter Quattrociocchi e Antonella Vicini “Misinformation – Guida alla società dell’informazione e della credulità”