zuckerberg

Si è appena concluso Parole O_stili, evento che ha portato a Trieste centinaia di persone coinvolte a vario titolo nel mondo dell’informazione e della comunicazione e interessate a ragionare su come le nostre conversazioni - sempre più mediate da strumenti digitali - si trasformano in conflitti violenti.

Hate speech, fake news, filter bubble, responsabilità degli algoritmi: è facile semplificare e dire che la colpa è di Internet; se non altro, quella di aver dato voce a legioni di imbecilli (cit. Umberto Eco).

Io penso che dobbiamo sforzarci di affrontare le cose in modo un po’ più articolato.

In ogni sistema complesso, via via che saliamo verso livelli di organizzazione superiori il funzionamento di ogni livello è inevitabilmente condizionato dai vincoli e dalle caratteristiche dei livelli sottostanti: le cellule non possono contraddire le leggi della chimica, così come su Facebook le reazioni che posso manifestare davanti a un aggiornamento di stato sono quelle previste dall’interfaccia, dal like alla faccina arrabbiata. Quindi sì, ci sono caratteristiche dei media digitali che facilitano l’estremizzazione dei messaggi: penso alla possibilità di interagire in modo asincrono, alla distanza fisica dall’interlocutore, alla possibilità di mascherare la propria identità, alla percezione più o meno distorta di avere un pubblico, o al contrario che nessuno legga ciò che scriviamo.

D’altra parte però Internet non ha creato nessuna dinamica inedita, ma agisce piuttosto come un amplificatore di sentimenti, pensieri e fenomeni che sono intrinsecamente umani: aggressività, violenza, bias cognitivi, tendenza ad aggregarsi per bande, bufale e bolle informative non sono certo nate negli ultimi vent'anni della storia umana, solo che oggi ce li abbiamo costantemente davanti agli occhi.

E, per citare Daniel Kahneman - il suo “Pensieri lenti e veloci” è una lettura illuminante sul modo in cui funziona il nostro modo di pensare, molto meno razionale di quanto siamo disposti ad ammettere - più siamo esposti a messaggi brevi, semplificati, violenti, più questi ci condizionano e modellano il nostro modo di pensare e interagire.

Così, quando ho letto il manifesto di Mark Zuckerberg sul “costuire una comunità globale”, mi sono ritrovata tutta intera nella domanda di apertura: stiamo costruendo la rete che vogliamo?

Non so se il manifesto sia il primo mattone di una scalata di Zuckerberg a una futura candidatura presidenziale, ma tendo a pensare che la preoccupazione che lo anima sia reale e più che condivisibile: la mission di Facebook è essere una piattaforma che mette in contatto le persone fra loro (per chi sta obiettando “lo scopo di Facebook è fare profitti”, sì, quello è lo scopo di tutte le aziende, poi ciascuna lo fa nella misura in cui crea e sa vendere qualcosa per cui ci sia qualcun altro disposto a dare soldi, tanti soldi da superare i costi di produzione), ma cosa succede quando le connessioni distruggono e feriscono invece di creare ponti che uniscono?

E azzardo anche: come si sente il giovane liberal Mark al pensiero che la sua strepitosa macchina da advertising è tanto raffinata da aver consentito, con un’oculata targettizzazione dei messaggi, l’elezione di un ultraconservatore oscurantista? E infatti lui di domande se ne fa, e inizia a dare anche risposte interessanti.

Partendo dalla premessa che non possiamo più ragionare solo in termini di città o nazioni, ma è necessario farlo in termini di comunità globale, il manifesto disegna un percorso lungo il quale Facebook intende muoversi per fare il suo lavoro di piattaforma al servizio delle persone e delle comunità.

Innanzitutto, l'orizzonte. Zuckerberg identifica sei caratteristiche chiave per definire la sua idea di comunità ideale:

- solidale: l’enfasi è sulle reti che danno supporto, e che prendono forma di reti locali o di gruppi che si aggregano intorno a una causa o a un problema (ad esempio, una malattia rara);

 - sicura, nell’accezione di safe (che non fa male, che previene i pericoli e aiuta a riparare i danni), non di secure (che si blinda in una cittadella per non far entrare gli estranei);

- informata: capace di far circolare idee e informazioni e di offrire a ciascuno gli strumenti per comprendere e fare scelte;

- impegnata: che favorisce e facilita la partecipazione e il voto;

- inclusiva: in grado di rispettare valori condivisi e di far convivere punti di vista e culture diverse.

Ora, a qualcuno potrà sembrare fin troppo buonista come prospettiva, ma io apprezzo molto questa esplicita assunzione di responsabilità di chi ha ben chiaro di aver costruito un’arena tanto importante che gli stati iniziano a pensare di nominare un ambasciatore apposta per averci a che fare.

Il documento è lungo, ma vale la pena di leggerlo con attenzione da cima a fondo, soprattutto perché porta un contributo rilevante ai temi di cui abbiamo parlato a Trieste; ne riporto alcuni stralci che mi sembrano particolarmente significativi.

 

La sicurezza non significa far compromessi su libertà e privacy

Individuare gli usi illeciti delle piattaforme e distinguere fra la diffusione di notizie e la propaganda volta a reclutare terroristi è una sfida importante, affrontata anche con algoritmi sempre più raffinati; tuttavia, “mentre discutiamo di come mantenere sicure le nostre comunità, è importante sottolineare che una componente fondamentale della sicurezza è tutelare i diritti e le libertà individuali (…) mantenere la sicurezza non richiede la compromissione della privacy”. Sottolineatura significativa nel momento in cui il neo presidente USA dichiara di voler garantire l’accesso del governo a qualunque database aziendale, a prescindere anche dagli accordi internazionali.

 

Fake news, bufale e come contrastarle

Partiamo dalla premessa - che mi trova totalmente d’accordo - che i social media ci espongono a una quantità di punti di vista comunque maggiore di quanti ne abbiamo mai avuti a disposizione coi media tradizionali. Ogni volta che sento accusare Facebook del fatto che “parliamo solo con quelli che sono d’accordo con noi”, mi chiedo quanta varietà di opinioni avessero i nostri nonni che leggevano lo stesso giornale per tutta la vita, quando non erano analfabeti e la loro fonte di notizie e opinioni era il prete o il capovillaggio.

Ci circondiamo di persone che la pensano come noi - l’abbiamo sempre fatto - e cerchiamo fatti e notizie che confermano le nostre convinzioni: il confirmation bias è forte e si nutre delle notizie che assecondano le nostre opinioni, ma spesso anche di quelle che le contraddicono, perché le classifichiamo come falsità create per manipolare e distorcere ciò che abbiamo già battezzato come “verità”.

Come aiutare le persone ad allargare la propria visione, a vedere un quadro più completo, non solo prospettive diverse? Le soluzioni apparentemente più intuitive (esporre ciascuno a opinioni differenti) alla prova dei fatti non risultano efficaci, proprio per effetto del confirmation bias, anzi rischiano di accentuare la polarizzazione.

A questo si aggiunge che i messaggi brevi funzionano meglio, in termini di velocità di propagazione e capacità di persuasione: questo penalizza le sfumature, che sono l’essenza del pensiero critico.

Un approccio interessante che inizia a seguire Facebook è attribuire un peso diverso ai link in base alle modalità con cui vengono ricondivisi; se un link viene rilanciato senza essere stato letto, il motivo della ricondivisione è tendenzialmente il fatto che il titolo e l’anteprima confermano le opinioni di chi rilancia; ma cosa accade quando il link viene letto per intero? “In generale, se dopo aver letto una storia è meno probabile che le persone la condividano, questo è un buon indicatore del fatto che si trattava di un titolo ad effetto. Se invece si è più inclini a ricondividere una storia dopo averla letta, questo è spesso un segnale che si tratti di un buon approfondimento”.

Insomma, anche l’algoritmo può diventare via via più intelligente e raffinato, imparando dall’esperienza.

 

Inclusione, tolleranza, confronto

L'ultima parte del manifesto tocca un tema che abbiamo discusso e dibattuto con molta passione a Parole O_stili: quali siano le regole che ci possiamo dare perché le parole non feriscano e non facciano male. Traduco liberamente, sintetizzandole un po’, le parole di Zuckerberg, perché le trovo chiarissime:

“Nell’ultimo anno, la complessità delle questioni che abbiamo affrontato ha superato le capacità dei nostri processi di governo delle comunità. Abbiamo sbagliato a cancellare video collegati alle violenze della polizia che hanno dato luogo alle manifestazioni Black Lives Matter, e a rimuovere le foto della guerra del Vietnam. Abbiamo commesso errori nell’individuare l’hate speech, in entrambe le direzioni: lasciando online contenuto che avremmo dovuto rimuovere, e rimuovendo contenuto lecito. Questo genere di questioni è sempre più attuale e pressante. 

Tutto questo è particolarmente doloroso per me, perché spesso mi trovo d’accordo con chi ci critica accusandoci di commettere errori. Questi errori non sono quasi mai dovuti al fatto che noi abbiamo posizioni ideologiche in conflitto con quelle della nostra comunità, ma sono piuttosto dei problemi di scalabilità delle procedure. La nostra filosofia di fondo rispetto ai Community Standard è quella di cercare di adeguarli alle norme della nostra comunità di utenti, e, nel dubbio, optiamo sempre per dare alle persone la possibilità di esprimersi di più.

Ci sono alcune ragioni per cui questo genere di problemi è in crescita: gli standard culturali cambiano, ci sono approcci e culture diverse, e le persone hanno sensibilità diverse.

Innanzitutto, Facebook si sta evolvendo da piattaforma votata soprattutto a tenere i contatti con amici e familiari a una fonte di informazioni e spazio di discussione. Questo significa che i nostri Community Standard vanno ampliati, perché è necessario consentire la pubblicazione di certi contenuti, anche forti, che documentano notizie attuali o fatti storici.

In secondo luogo, la comunità comprende nazioni e culture diverse, con regole diverse. Ci sta che gli Europei siano più inclini a contestare la cancellazione di immagini di nudi, perché molte culture europee sono più tolleranti verso l’esposizione della nudità rispetto, ad esempio, alle culture mediorientali o asiatiche. Con una comunità di due miliardi di persone è problematico avere uno standard unico su ciò che è accettabile, quindi dobbiamo evolvere verso un sistema di governance differenziato localmente.

In terzo luogo, anche all’interno dello stesso contesto socioculturale, ciascuno di noi ha opinioni diverse su ciò che vogliamo o non vogliamo vedere. Io potrei non essere infastidito da un dibattito politico dai toni molto accesi ma non voler vedere nulla che sia connotato sessualmente, mentre un’altra persone potrebbe non aver problemi con la nudità ma non tollerare offese. Allo stesso modo, vorremmo poter condividere liberamente un video che documenta una protesta violenta, ma senza doverci preoccupare di infastidire qualche amico. Vedere qualcosa che ci turba è una brutta esperienza, ma lo è anche che ci proibiscano di condividere qualcosa che per noi è importante. Questo ci suggerisce di fornire un maggiore controllo alle persone stesse su cosa vogliono o non vogliono vedere.

Infine, noi operiamo su una scala così ampia che anche una piccola frazione di errori causa un enorme numero di brutte esperienze. Noi revisioniamo oltre cento milioni di contenuti ogni mese; anche se chi lo fa prende decisioni giuste nel 99% dei casi, questo significa fare un milione di errori.”

Sì, in effetti mantenere il rispetto delle regole su Facebook è un filo più complesso che non far degenerare una riunione di condominio, anche se vedo in giro un sacco di commentatori indignati con l’algoritmo giusto in tasca.

La direzione che sembra voler prendere Facebook non è quella del tribunale delle fake news e nemmeno dell’AcchiappaTroll, quanto piuttosto dell’elaborazione di un sistema di sondaggi che 1) permetta a ciascuno di tracciare i confini di ciò che considera accettabile rispetto ai vari aspetti (dalla nudità al turpiloquio), e 2) raccolga dati per valutare il “sentire comune” di ciascuna regione, su cui poi verranno adeguati localmente i Community Standard per chi non ha espresso esplicitamente la sua posizione.

In questo modo, l’idea è che si possano adattare gli standard in modo più soddisfacente per la maggioranza dei casi, riducendo il numero di situazioni in cui è necessaria una valutazione del singolo caso e cercando di minimizzare le restrizioni.

 

Ce la possiamo fare?

Torno da Trieste meno scettica di quando sono partita. Parole O_stili, che a un certo punto mi era sembrato prendere una china un po’ da “scriviamo il decalogo delle buone maniere”, è stato invece nel complesso una bella discussione, che mi ha arricchita e mi ha dato da pensare.

Ho rivisto tanti amici e persone che stimo, ne ho conosciuti dal vivo altri con cui scambio idee da anni in rete, e mi sono perfino fatta un selfie con Gianni Morandi, che è un antidoto vivente all’intolleranza, alla cattiveria e alla pesantezza. In questo mood positivo, il manifesto di Zuckerberg mi sembra un ulteriore segnale che ce la possiamo fare a costruire una convivenza migliore, e senza distinguo fra online e offline; magari è solo il mio confirmation bias, ma so che le narrazioni sono uno strumento potente, quindi è questa la storia in cui voglio credere.

@alebegoli