zuckerberg

Inventare e mettere in atto norme e policy per impedire ai cittadini di "cadere in errore" è da sempre l'obiettivo ultimo di ogni uomo politico che attribuisce allo Stato funzioni pedagogiche e di guida della società, in ogni materia: dalle scelte morali e economiche, a quelle ideologiche. L'ultima iniziativa di questo tipo ha lo scopo di impedire alle persone di farsi raggirare dalle cosiddette "bufale" o "fake news" e magari contrastare fenomeni di ordine più generale e politico, come la crescita dei movimenti populisti attraverso i social media.

Il Partito Democratico ha promosso un disegno di legge, firmato da una delle personalità più autorevoli di quel partito, il capogruppo al Senato Luigi Zanda - per la verità un ddl con obiettivi analoghi era stato proposto lo scorso gennaio dalla senatrice Adele Gambaro, ex 5 stelle, poi passata al gruppo Ala-Scelta Civica di Denis Verdini - che impone obblighi e sanzioni alle aziende che producono social network per spingerli a identificare e bloccare le bufale e le iniziative volte a screditare o incentivare l'odio.

La via dell'inferno è lastricata di buone intenzioni, recita il vecchio detto. E le buone intenzioni, volte a impedire all'utente medio di social network di essere esposto ad informazioni false - attribuendogli dunque, a priori, poca o punta capacità di riconoscerle da sé, con buona pace di qualsiasi nozione di rule of law fondata sulla responsabilità personale - assomigliano molto a misure di censura della libertà di espressione. Senza bisogno di ricordare che le "bufale" sono sempre esistite, e non è mai servito a niente contrastarle con misure di polizia.

È innegabile, tuttavia, che esista un problema inedito di diffusione virale sui social network di notizie infondate, e informazioni e teorie false, che finisce per screditare o rendere irrilevante l'autorevolezza della ricerca scientifica, dell'informazione giornalistica, e della comunicazione politica. Ma come talvolta avviene di fronte a problemi gravi e urgenti, si tende ad applicare terapie inutili o dannose a malattie inesistenti, dopo aver effettuato diagnosi frettolose e sbagliate. È utile quindi almeno tentare di esaminare gli effettivi meccanismi alla base del manifestarsi di questi fenomeni.

Nello spesso isolato - dal resto del mondo - dibattito pubblico italiano è ancora assente, o scarsissima, la consapevolezza del funzionamento dei social network, in particolare di Facebook, generalmente considerato una "piazza" dove esprimersi liberamente, discutere o dialogare con altri su qualsiasi argomento. Ma far percepire la piattaforma in questi termini "neutrali" - e dunque minimizzare la diffidenza nell'uso da parte degli iscritti - è proprio uno degli obiettivi principali dei suoi gestori, funzionale agli effettivi e legittimi altri obiettivi di business che, come ben raccontato da Simona Bonfante, consistono nella fornitura di servizi apparentemente gratuiti, ma in realtà "pagati" massimizzando - con tecniche e algoritmi tenuti riservati - l'acquisizione a fini commerciali della nostra attenzione e dei nostri dati personali.

Il cuore del funzionamento di Facebook - ne illustra le implicazioni un recente articolo del Guardian, in cui viene intervistato il suo 'creatore' Justin Rosenstein - è il "like", il bottone di "voto" che consente a tutti noi di ottenere ricompense cognitive e sociali - attivando, a quanto sembra, i processi neurofisiologici che caratterizzano questo tipo di reazioni - guadagnare consenso pubblico davanti alla nostra rete di contatti, e di accrescere quello altrui. Il meccanismo è reiterato e amplificato nei dibattiti e nei thread di commenti ai post, che funzionano così da "feedback loops": meccanismi automatici di estrazione dell'attenzione e dei dati degli utenti, necessari ad alimentare così i business della piattaforma. Chiunque avrà sperimentato l'urgenza di 'reagire' a un commento o un like con un altro commento o like: più lo fate, più fate felice la corporate di Palo Alto, alimentando il flusso di dati personali e di attenzione verso la piattaforma.

Ma le "conseguenze inintenzionali" negative del business dei "like" e degli altri analoghi bottoni presenti sui vari network stanno emergendo ormai con forza sempre più dirompente, sotto forma dei problemi che spaventano politici e mettono perfino a rischio, secondo alcuni, le istituzioni democratiche. Sul piano sociale, e politico, l'effetto più interessante dei social media è la "tribalizzazione", ovvero la ricomparsa, nel mondo virtuale di queste piattaforme, degli incentivi agli individui a raggrupparsi in "tribù" e attaccare ed espellere violentemente - ottenendo una proporzionata ricompensa cognitiva in termini di like e feedback positivi - ogni elemento di disturbo.

Fenomeni come la diffusione di fake news, hate speech o notizie false sembrano essi stessi un effetto deleterio dei bottoni di "ricompensa cognitiva", perché questi aboliscono completamente gli standard di verità utilizzati nel dibattito scientifico, giornalistico e politico reale, basati sulla possibilità di verifica logica e fattuale, e li sostituiscono con con "standard di verità" fasulli basati appunto sul numero di likes ottenuti. La "verità" (fasulla), sui social, si stabilisce davvero per alzata di mano (o per apposizione di pollice recto), per quanto Piero Angela e Roberto Burioni si sforzino a contrastare il fenomeno, e non secondo metodo scientifico, del fact checking, e verifica deduttiva e empirica. Ma questo spiacevole effetto è una conseguenza del funzionamento fisiologico di questi programmi, e non del rimbecillimento antropologico, in pochi anni, dell'intera popolazione connessa.

Procedendo per analogie forse un po' forzate, si potrebbe paragonare la diffusione virale di bufale o false notizie o propaganda di discredito e odio ai disturbi psichiatrici nella mente di un individuo: è impossibile risolverli con le sole risorse della mente e del sistema nervoso, perché sono proprio i meccanismi alla base del loro funzionamento ad esserne affetti. Così come è altrettanto inutile tentare di "curare" una persona affetta da disturbi psichiatrici tentando di obbligarla a reprimere i comportamenti anomali con divieti e sanzioni. In tali casi servono farmaci e terapie che agiscano sui processi alla base del disturbo.

Nella "mente collettiva" di Facebook, è probabile che risultino del tutto inutili - e anzi dannosi per la libertà d'espressione - i tentativi di censura delle "bufale" attuati con provvedimenti legislativi pubblici, o portati avanti dalla stessa azienda adottando protocolli e piani interni, come l'assunzione, in programma entro la fine del prossimo anno, di 20mila addetti al controllo dei contenuti condivisi. Una terapia forse efficace contro le fake news - equivalente a un farmaco per un disturbo schizofrenico che agisce sui meccanismi neurofisiologici che lo innescano - in questo caso, potrebbe invece consistere nel disattivare il meccanismo dei like per alcuni argomenti, o magari riservare ad essi alcune sezioni specifiche della piattaforma, ad esempio "Facebook science", o "Facebook politics", in cui l'accesso degli utenti sia vincolato all'accettazione di regole metodologicamente più stringenti e trasparenti, per la condivisione dei contenuti e la loro discussione.

Misure del genere "inibirebbero" i meccanismi di diffusione delle fake news, senza tuttavia compromettere le libertà fondamentali degli utenti. Ma è improbabile che vengano adottate, a meno che Mark Zuckerberg non sia disposto a mettere in discussione gli enormi ricavi della sua attività.

@leopoldopapi