Oppo robot

 

All'asilo

Tra i miei ricordi d’infanzia ce n’è uno che risale all’asilo: eravamo in cortile e un mio compagno giocava con una stecca di legno lunga una decina di centimetri e larga tre o quattro, che gli era capitata non so come tra le mani. A un certo punto se n’è stancato e l’ha abbandonata. Gli ho chiesto se potevo usarla io e lui non ha obiettato. Era un oggetto promettente, ma è arrivata l’ora di pranzo: ci siamo messi in fila per due verso il refettorio e il legnetto è finito nella tasca del mio grembiule.

Nel pomeriggio, dopo il solito sonnellino obbligato (e da me simulato) siamo tornati in cortile e lì ho avuto un’illuminazione: potevo fare del legno un viadotto per macchinine sul muretto, nel punto in cui s’interrompeva per una scanalatura. Il ponte era una grande novità per la viabilità, si sollevava (ipotizzavo un corso d’acqua sotto) e le macchinine dovevano aspettare in coda che si abbassasse dopo ogni passaggio di un barcone immaginario. La cosa suscitò l’interesse di altri compagni, il traffico aumentava e io avevo per il momento il controllo dell’infrastruttura, il che mi conferiva una certa inusuale popolarità.

Ma dopo un po’ il bimbo che mi aveva ceduto il legno ricomparve e lo pretese indietro: “Ce lo voglio fare io il ponte col mio legno”.
“Ma me lo avevi dato” protestai. Era così. Ma lui prima non ci aveva pensato e solo ora si era accorto che il legnetto aveva più valore del previsto.

 

Lo scandalo

Lo “scandalo” di Cambridge Analytica (CA) e Facebook ha qualcosa di simile alla mia storia dell’asilo: 270mila utenti di Facebook nel 2014 hanno ceduto a un’app-quiz i propri dati senza avere idea di come quei dati sarebbero poi stati elaborati per utilizzi ulteriori. In più, stando alle dichiarazioni del “wistleblower” di CA Christopher Wylie, raccolte in un video dal Guardian, la app è stata in grado anche di raccogliere i dati degli amici (nel senso di amici su Facebook) degli utenti che avevano accettato la cessione dei dati all’app. Successivamente, CA è venuta in possesso dei dati dall’azienda che li aveva raccolti inizialmente e, secondo le accuse, non ne ha provveduto alla cancellazione al momento concordato.

Facebook dal canto suo ha ammesso, anche in altre occasioni, che l’accesso ai dati degli amici da parte delle app si è rivelato critico, e afferma di aver modificato in modo restrittivo, successivamente al 2014, questa possibilità.

Cos’ha fatto CA di queste informazioni? Le ha usate per fare “psicoprofilazione” di 50 milioni (secondo il Financial Times) di elettori americani in supporto alla campagna elettorale di Trump e per sviluppare un proprio sistema di preparazione di contenuti personalizzati, in modo da permettere alla macchina della campagna elettorale di fornire a ogni utente dei social classificabile come incerto circa il proprio voto sollecitazioni elaborate apposta per lui, tenendo conto dei suoi interessi e idiosincrasie, in modo da suscitare un’opinione favorevole al voto per Trump. Marianna Mascioletti ne ha già scritto diffusamente su Strade. Per fare questo CA è stata lautamente pagata dall’organizzazione della campagna.

In altri termini, CA ha fatto la stessa cosa che si fa quando si vuol compiacere qualcuno e portarlo dalla propria parte senza preoccuparsi davvero di un confronto sugli argomenti, ma in questo caso in modo vastissimo, con dati non forniti all’uopo e attraverso meccanismi di profilazione automatica (i famigerati algoritmi).

 

La privacy

In generale, Facebook ha una policy di privacy abbastanza complicata, di cui sul sito si può avere contezza e che si può modificare con un certo dettaglio. Questo sembra venire incontro alle richieste di moltissimi politici e commentatori che stanno reagendo allo scandalo CA: agli utenti del social – e in generale ai cittadini – va garantita la consapevolezza dell’uso che verrà fatto dei propri dati. In questo senso credo sia già destinata a evolvere la normativa europea della privacy. 

Ma qui secondo me emerge la prima difficoltà: è fattibile un totale controllo ex ante degli usi dei dati che decidiamo di fornire? Dove inizia l’uso imprevisto e illegittimo della conoscenza che altri hanno di noi? Avrei potuto io avvertire il mio compagno d’asilo che la cosa che mi cedeva avrebbe potuto diventare utile in futuro? È ragionevole permettere il ripudio ex post della cessione di un bene a cui abbiamo acconsentito?

E quand’anche si sviluppi una normativa sulla privacy ancora più complessa, per cui ci verrà chiesto di dare consenso o no a una vasta varietà di usi potenziali dei nostri dati e a una varietà di soggetti terzi, pensiamo davvero che questo non diventi semplicemente un gran questionario su cui cliccare irritati e di fretta per poter usare in pace il social o il servizio online che c’interessa? Un po’ come le normative MIFID sui mercati finanziari: per poter gestire senza intoppi il nostro portafoglio in banca dobbiamo compilare un questionario e dare decine di consensi. Questo davvero ci protegge da scelte inconsapevoli? O è solo l’ennesimo, un po’ ipocrita e pallosissimo disclaimer?

 

Campagne scorrette

CA ha fatto di peggio che usare dati nell’inconsapevolezza dei soggetti. In un video girato di nascosto da Channel 4 (già visto, mentre scrivo, da quasi 2 milioni di utenti su Youtube) l’amministratore delegato di CA Alexander Nix – poi dimesso – è caduto in trappola e ha proposto a finti potenziali clienti di operare, tramite società subcontractor, azioni di intelligence scorretta rispetto agli avversari elettorali dei clienti, per esempio offerte illecite di denaro o seduzione da parte di avvenenti prostitute con registrazione degli incontri. Il video di Channel 4 dunque avvalora anche le peggiori accuse di Christopher Wylie.

Ma a ben vedere la prova è stata ottenuta con una tecnica quasi identica a quelle di cui si accusa CA: una proposta falsa, illegale, filmata senza il consenso della vittima. E diffusa in quello stesso sistema di social usato per manipolare. Curioso, no? Gli stessi mezzi che vengono accusati di manipolazione sono anche il più efficace strumento di diffusione delle prove di simili manipolazioni. Certo, purché ci sia dietro un’attività giornalistica indipendente come quella delle grandi testate (Guardian, Observer, NYT, lo stesso Channel 4) che si sono occupate della materia.

 

La dominanza dei social

Forse campagne elettorali scorrette, in cui si usano scorciatoie anziché leale racconto dei propri programmi elettorali, sono sempre esistite e continueranno a esistere. Quel che cambia sono la tecnologia e i mercati rilevanti in cui gli strumenti per vincere una campagna vengono approvvigionati.

I social permettono, come sappiamo, anche una più veloce proliferazione delle notizie false o imprecise, la cui diffusione virale, se gestita con tempismo opportuno, rischia di rendere inefficace qualunque risposta argomentata perché troppo lenta rispetto alla formazione di opinioni in seguito al “bombardamento” iniziale. Io stesso ne ho avuto esperienza durante la campagna elettorale per +Europa: una notizia falsa che inizia a diffondersi è come una reazione a catena, dove l’effetto di innescare nuove condivisioni si deve proprio al clamore e alla “facilità” del messaggio, mentre difficilmente un contromessaggio ragionato può suscitare una reazione altrettanto veloce e diffusa. Se a questo si aggiunge la presenza di organizzazioni votate proprio alla disinformazione sistematica (cosa di cui su Strade ha parlato Massimiliano di Pasquale) è evidente che una campagna elettorale corretta sui social rischia di essere molto difficile.

Tornando all’accesso in modo massivo a informazioni utili alla profilazione degli elettori: esso probabilmente è oggi uno degli elementi più critici del ruolo dei social nelle campagne elettorali, e lo è non perché l’elaborazione moderna dei dati sia in sé una diavoleria di cui avere paura - si può anche averne, ma non serve a nulla: le tecnologie evolvono e il proibizionismo tecnologico non funziona, come tutti i proibizionismi che tentino di fermare onde generalizzate di progresso - ma perché il settore dei social, che detiene queste informazioni, è molto concentrato e non ha ancora subito una normalizzazione antitrust come quella di altri settori più maturi.

E per applicare i principi della concorrenza a un settore occorre che le istituzioni abbiano avuto il tempo di comprendere e descrivere la nuova arena competitiva, i servizi rilevanti, per poi stabilire in quali aree la concentrazione è dannosa e va forzosamente ridotta. Questo è certamente un compito imminente e decisivo delle autorità, e dubito potrà essere svolto in modo efficace se non a livello almeno continentale (europeo per noi), o meglio, ma questa forse è una chimera, globale. Perché è globale, o perlomeno dell’intero occidente e di molti paesi in via di sviluppo, l’estensione territoriale di Facebook o Google.

È anche vero però – e questo complica le cose – che i social generalisti hanno bisogno di essere diffusissimi, altrimenti diventano meno utili e attraenti: Facebook è comodo perché ce l’hanno tutti: pochi si iscriverebbero a un social non specializzato dove c’è poca gente. Questo significa che probabilmente ridurre la forza monopolistica di Facebook nella raccolta dei dati personali può essere fatto efficacemente non tanto imponendogli di spezzarsi in 10 social separati – che significherebbe far perdere molta utilità ai suoi utenti – bensì limitando l’uso monopolistico e arbitrario dei dati che detiene. Per esempio imponendo regole uniformi e note a tutti per l’accesso di terzi ai dati, e forme di pubblicità efficaci su chi si avvale di questo accesso.

La soluzione fattibile dunque non è il proibizionismo nell’uso dei dati, ma la trasformazione di questi dati in un patrimonio gestito in modo più pubblicistico e trasparente, con più – non meno – facilità d’accesso legale da parte di terzi. Meglio che più soggetti abbiano accesso a costi ragionevoli ai dati grezzi volontariamente forniti dagli utenti dei social, oppure che possa accedervi solo chi ha enormi disponibilità economiche o contatti privilegiati?

Intendiamoci: i soldi serviranno sempre per fare una campagna elettorale. E la capacità di elaborare le informazioni in modo intelligente sarà sempre un vantaggio. Ma più trasparenza e apertura possono ridurre la barriera all’entrata alle informazioni di base. Il proibizionismo, al contrario, è difficile da applicare e dà vantaggi enormi a chi riesce (e qualcuno ci riesce sempre) a violarlo.

 

Bisogna studiare!

Ma ancora più che meccanismi competitivi e trasparenti nell’accesso ai dati credo serva un altro ingrediente perché le democrazie possano funzionare decentemente: l’istruzione di chi vota. Se io credo al primo slogan che leggo, sarò sempre abbindolato, non solo in campagna elettorale. Nessun mercato funziona bene senza consumatori capaci di badare a se stessi, nessuna democrazia può funzionare senza elettori capaci di un minimo di analisi e senso critico. Non c’è verso di aspettarci una classe dirigente migliore di quelle che stiamo vedendo se tra gli elettori non ci sono competenze di base per esempio nella comprensione di un testo scritto e nei fondamenti di economia e statistica.

Se è così, la risposta non è tentare di proibire alle future forze populiste di abbindolare gli elettori – perché semplicemente non è fattibile, e perché in una democrazia costituzionale grazie al cielo la libertà d’espressione è ancora garantita – bensì fare il possibile perché gli elettori siano meno abbindolabili.

Nel medio periodo la soluzione è l’istruzione. La democrazia di un Paese che non investe nella scuola è già virtualmente morta. Già nel breve periodo invece credo aiuterebbe un servizio pubblico di informazione efficace. Probabilmente non più una tivù generalista che piazza negli stacchetti di San Remo qualche messaggio politicamente corretto, ma, per esempio, un servizio pubblico di fact checking indipendente e competente, o addirittura un sistema di supporto all’editoria giornalistica (online) pura. Probabilmente i soldi spesi per la tivù di Stato attuale sarebbero più che sufficienti.