Scimpanzé

Ci pensavo da un po’ di tempo, almeno da quando mi è stato chiesto di collaborare al sito antibufale “Dottore, ma è vero che…?” della Federazione Nazionale degli Ordini dei Medici Chirurghi e Odontoiatri (FNOMCeO) italiana, che partirà dopo l’estate. Ha senso un progetto di questo tipo? Servirà a contrastare il dilagare di fake news, soprattutto (ma non solo, purtroppo) in rete? L’iniziativa non va contro le prove che negli ultimi anni hanno dimostrato l’inutilità del cosiddetto “debunking”, cioè dell’attività di smontare le bufale dimostrandone l’infondatezza? Non è ormai acclarato che chi crede a complotti e leggende metropolitane difficilmente cambierà idea?

Avendoci riflettuto già tanto, le obiezioni rivolte al lavoro pubblicato ieri su PlosONE da Fabiana Zollo dell’Università Ca’ Foscari di Venezia, Walter Quattrociocchi, e i loro collaboratori, non mi hanno trovata impreparata. La dimostrazione che su Facebook le conversazioni avvengono all’interno di compartimenti stagni, che li si chiami “echo chambers”, “camere di risonanza” o “bolle”, non è nuova. Il gruppo di Walter Quattrociocchi produce da anni risultati coerenti con questa idea, pubblicandoli su importanti riviste internazionali. Sulla loro scia, già nel dicembre 2015, la giornalista statunitense Caitlin Dewey decise spontaneamente di chiudere la rubrica settimanale “What was fake”, con cui ogni settimana smontava le bufale circolanti dalle pagine dell’Washington Post, e lo fece citando in maniera esplicita il lavoro del giovane ricercatore italiano.

La natura stessa dei social network, con il meccanismo per cui si tende a scegliere come amico o si segue chi è più affine a noi, aggregando sulla base di interessi e schemi di valori comuni, accentua infatti la tendenza naturale, preesistente all’invenzione di internet, a circondarci per lo più di persone che la pensano come noi. Sui nuovi media, però, ogni volta che siamo sommersi di like o di commenti positivi, si rinforza l’idea che tutti, in fondo, siamo d’accordo, che la nostra opinione sia di fatto incontrovertibile, confermandoci di avere inequivocabilmente ragione.

Se per caso nel gruppo si infiltra qualcuno che va controcorrente, viene prontamente assalito e, spesso, “bannato”, in modo da escluderlo dal consesso, che non deve essere disturbato da idee contrastanti a quelle della maggioranza. Si creano così in rete vere e proprie tribù, che si dividono su temi opinabili o no, dagli schieramenti politici all’avversione alla sperimentazione animale, dalla negazione del riscaldamento globale alla campagna a favore delle vaccinazioni, per l’allattamento o per il ritorno alla lira.

È a causa di queste bolle che anche i migliori giornalisti anglosassoni si sono fatti prendere alla sprovvista dai risultati del referendum per l’uscita del Regno Unito dall’Unione Europea o delle ultime elezioni statunitensi. Mi ha molto colpito Peter Doshi, direttore associato del BMJ, un’importante rivista medica inglese, un personaggio molto vista, certamente al centro di una fitta rete di relazioni internazionali, che pochi mesi fa, in un interessante editoriale che riguardava tra l'altro anche questo tema, ha scritto: “Decine di milioni di americani hanno votato per Donald Trump, e io ne conosco solo uno. Invece che delle persone in carne e ossa, la mia mente è piena delle caricature che mi sono state presentate dai media”. Nella sua bolla, Doshi, come ciascuno di noi, ha una visione distorta della realtà. Nella mia bolla, per esempio, costituita prevalentemente da gente appassionata di scienza, pare che metà degli italiani, fuori di lì, creda che la terra sia piatta. Forse, arriva a pensare qualcuno, bisognerebbe togliere il diritto di voto a questi ignoranti.

 

Ce la cantiamo e ce la suoniamo

Il nuovo lavoro del giovane team di ricerca italiano è, a questo proposito, un po’ scoraggiante. Prima di tutto conferma, se ce ne fosse ancora bisogno, l’impermeabilità tra queste “echo chambers”. C’è un confine segnato dal filo spinato tra chi segue le teorie complottiste propugnate in 330 pagine studiate dal team italiano e chi al contrario è fan delle 83 pagine scientifiche esaminate nello studio: due mondi che non comunicano tra loro, ma all’interno dei quali si riconoscono le stesse identiche dinamiche e lo stesso approccio nei confronti delle informazioni.

Ma la vera novità della ricerca sta nello studio sugli effetti del debunking, cioè dell’attività di smontare le bufale dimostrandone l’infondatezza. I ricercatori hanno analizzato come gli appartenenti ai due gruppi interagivano su Facebook rispetto a più di 50.000 post che, su 66 diverse pagine di debunking, spiegavano gli errori contenuti nelle bufale circolanti. Ebbene, come si temeva, queste informazioni raggiungono quasi esclusivamente persone che già appartengono al gruppo che simpatizza per la scienza. Degli altri, quelli che dovrebbero essere il vero target della comunicazione, quelli attratti dall’idea che “ci vogliano nascondere qualcosa”, pochissimi mettono un like o commentano questi contenuti, e, se lo fanno, si ritrovano dopo questa interazione ancora più attivi sui siti complottisti.

I toni aggressivi e violenti di alcuni sbufalatori, in particolare, aumentano questa polarizzazione, e si rivelano così controproducenti. Per non parlare del rischio che le pagine di importanti scienziati e giornalisti, seguite da centinaia di migliaia di persone, diventino involontariamente cassa di risonanza per falsità inizialmente note solo a un manipolo di fanatici, suscitando sospetti anche in altri che non ne avevano mai sentito parlare.

 

La reazione conferma i risultati

Paradossalmente, la reazione che i risultati del lavoro hanno ricevuto oggi su Facebook non ha fatto che confermarli. Chi, come chi scrive, è esasperata dai toni assunti dal debunking su certi temi, li ha accolti con entusiasmo, perché ha trovato conferma “scientifica” all’idea che si era già fatta della polarizzazione sui social. Chi, viceversa, fa il tifo per gli sbufalatori più aggressivi, ha accolto questi dati con fastidio, cercando di ridimensionarne il valore scientifico o provando a smentirli, dimostrando così la forza di quello stesso bias di conferma che lo studio descrive. Nessuno ama sentirsi dire che quel che fa è inutile, o peggio, potenzialmente dannoso.

L’obiezione, però, è sensata: che fare, allora? Dovremmo lasciare circolare liberamente qualunque forma di disinformazione? Permettere che un piccolo numero di persone, in genere mosso da ingenti interessi economici personali, diffonda falsità che possono talvolta mettere in pericolo la vita delle persone, come nel caso dei vaccini? La risposta è no.

Il fatto che una terapia si dimostri inutile, non significa che non si debba provare a utilizzarne altre, alcune delle quali già esistenti. Facebook non è l'unico modo per raggiungere le persone, infatti, né l’unico modo di fare debunking consiste nell’insultare e sbeffeggiare i creduloni sui social, alzando il livello di una polarizzazione che si è dimostrata dannosa. In questo modo si ottengono gli applausi di chi la pensa come noi, ma difficilmente si fa cambiare idea agli altri. Non dimentichiamo che il lavoro di Quattrociocchi si riferisce solo alle dinamiche che si scatenano sui social, non sostiene affatto che si debba rinunciare a fornire informazioni corrette. Anzi. Bisogna farlo però cercando il modo di scardinare i meccanismi mentali - atavici, fortissimi e inconsci - che portano a dare credito alle bufale.

Ugualmente, il debunking su siti istituzionali, come sarà quello di FNOMCeO o già sono quelli di AIRC o Fondazione Veronesi, di Medbunker o Vaccinarsì, solo per citarne alcuni, per esempio, sono altra cosa dalle pagine Facebook studiate in questa ricerca. Sono molto utili, perché chi sente una voce, e la vuole verificare, può trovare qui una sua giusta interpretazione, fornita da istituzioni o persone di cui si fida, prima di formarsi una falsa opinione che poi sarà difficile da scalfire.

L’informazione in questo caso è disponibile per chi la vuole cercare, non viene sbattuta in faccia per convincere, magari rimarcando la superiorità di chi parla rispetto a chi ascolta. Inoltre, in questo modo, si aggiunge materiale affidabile che compete con la fanghiglia raccolta dallo scandaglio dei motori di ricerca: maggiore sarà la quantità di contenuti di qualità disponibili in rete, maggiore sarà anche la possibilità che ci cerca informazioni a caso non caschi in siti dove si diffonde disinformazione.

Ma non finisce qui. I giovani ricercatori italiani promettono che, dopo la diagnosi, stanno già lavorando anche sulla terapia, ed è possibile che in futuro emergano nuovi strumenti per interagire in maniera più efficace anche sui social network. Per ora non lasciano trapelare nulla, ma, come si dice sui social…stay tuned!