CONSIDERAZIONI SUL CASO FACEBOOK-CAMBRIDGE ANALYTICA
\Ad
inizio 2014 il centro di ricerche psicometriche dell’Università di Cambridge
dispone online su Facebook di una app che raccoglie dati a scopi di ricerca.
Questa app ha dei permessi particolari: se l’utente X la scarica, possono
essere raccolti non solo i dati di X, ma anche tutti i dati condivisi dagli
amici di X sul social network. Un’azienda non molto famosa, e non ancora
chiamata Cambridge Analytica, si mette in contatto col centro di ricerche per
poter accedere a questi dati. Si tratta di un’azienda che sta entrando nel
business della data analysis e della pubblicità mirata applicata alle campagne
elettorali, in particolare in America e Regno Unito
Una democrazia in balia
dell’algoritmo?
Lo
“scandalo” Cambridge Analytica ha sollevato uno “psicodramma” democratico,
diverse testate giornalistiche e alcuni governi, in particolare quello
britannico e quello americano, hanno chiesto a Zuckerberg di riferire su quanto
avvenuto. Il tutto si è concretizzato nelle deposizioni delle “talpe” Wilye e
Parakilas al parlamento inglese, ed in quella di Zuckerberg di fronte al
congresso USA, nonché nel cambiamento di alcune delle policy del social
network.
Ma
davvero la democrazia rappresentativa è stata controllata, pilotata o
hackerata? Questa domanda può avere una risposta superficiale, un semplice
“no”, ma anche aprire a domande più interessanti e profonde: cosa significa
“controllare” o “pilotare” un processo democratico?
Va
totalmente sfatata la narrazione secondo cui alcuni eventi elettorali eclatanti
degli ultimi tre anni (in particolare la Brexit e l’elezione di Trump) possano
essere spiegati attraverso l’uso di particolari strumenti o tecniche di analisi
dati. Nonostante questo le tecniche stesse ci dicono qualcosa sull’evoluzione
dei processi politici in atto, perché ogni tecnica è l’unione di strumenti
(formali o materiali) e di “modi d’utilizzo”, questi ultimi espressione di
specifiche griglie di lettura del reale, quanto di più lontano ci sia da una
presunta neutralità degli algoritmi.
Le
tecniche di campagna elettorale sui social network funzionano in primo luogo
con un profiling degli utenti, cioè assegnando ad ogni utente alcuni valori in
specifiche categorie, sulla base dei dati condivisi. Alcune ovvie categorie di
profiling sono quelle demografiche: ad esempio per la campagna di Trump sono
state diffuse notizie sulla base del distretto di appartenenza degli utenti –
come per gli abitanti di Little Haiti, bersagliati con notizie sul fallimento della
Clinton Foundation nel fornire aiuti post-terremoto ad Haiti.
Cambridge
Analytica ha impostato il suo brand sull’uso di un altro tipo di categorie,
quelle psicometriche. La psicometria è lo studio della misura in campo
psicologico, in particolare CA utilizza un metodo risalente agli anni ’80 che
si propone di caratterizzare ogni individuo in base a 5 tratti della
personalità: openness – apertura, conscientiousness – coscienziosità,
extroversion – estroversione, agreablenness – disponibilità alla cooperazione,
neuroticism – propensione all’ira; questi tratti vengono anche indicati con il
loro acronimo, OCEAN. Grazie ai dati raccolti su Facebook, per ogni utente
possono essere assegnati dei valori agli OCEAN – e di conseguenza si possono
scegliere in maniera mirata, utente per utente, i messaggi con la maggior
influenza. Ad oggi non è chiaro se le tecniche psicometriche siano state usate
per la campagna di Trump, mentre è quasi certo il loro utilizzo nella campagna
per le primarie di Ted Cruz, terminata con il ritiro dello stesso dalla corsa.
Dalle
parole di Wilye è evidente che i vertici di CA propagandavano con convinzione
una fiducia assoluta nei metodi psicometrici.
“Nella vita se vai in un luogo e ti piace
qualcosa mi stai dando un indizio su chi sei come persona […] al
lavoro i tuoi colleghi vedono un solo lato di te, i tuoi amici vedono un solo
lato di te, ma un computer vede tutti i tuoi lati e quindi possiamo essere
migliori degli esseri umani nel predire il tuo comportamento”
Lo
stesso Wilye descrive quello che facevano come un articolato inganno:
“hanno consapevolmente rappresentato in
maniera distorta la verità, in modo che fosse funzionale ai loro obiettivi”
In
realtà ciò che Wilye descrive è un normale meccanismo di propaganda, cioè
l’adattamento del messaggio al proprio ascoltatore, con la novità che le
tecniche di analisi dati permettono di farlo in maniera più mirata. Come in
ogni meccanismo di propaganda, inoltre, il messaggio politico innerva le stesse
tecniche utilizzate. È insensato parlare dei dispositivi algoritmici in maniera
separata dai messaggi che propagandano – contrariamente a quanto credono i
dirigenti di CA, alcune tecniche funzionano proprio perché associate a
specifici messaggi.
Contro
ad una visione neutrale per cui una “tecnica” viene applicata su alcuni “dati
grezzi” ottenuti sui social network, si deve ribaltare il punto di vista
dicendo che non esiste nessun dato grezzo, che la stessa raccolta dei dati è
parte della comunicazione. I messaggi politici proposti agli utenti dagli
algoritmi sono il centro dell’ipotesi trumpista, ciò che permette di misurare
l’efficacia degli algoritmi utilizzati, e non una variabile tra le altre. Lo
stesso modello degli OCEAN è chiaramente una teoria psicologica e politica dei
soggetti, un terreno di battaglia in sé, e non un retroterra neutrale su cui è
possibile costruire qualsiasi ipotesi elettorale.
Ogni news è una fake
news
Dietro
ai titoli dei giornali, alle testimonianze in parlamento, ai crolli in borsa
prontamente recuperati dopo pochi giorni, è difficile farsi un’idea di cosa sia
realmente accaduto attorno alla vicenda Cambridge Analytica e più in generale
alle accuse di irregolarità nelle pratiche di Facebook. Forse perché mai come
in questo caso è la gestione dell’informazione stessa ad essere il campo di
battaglia. Non si può approfondire il racconto di questi eventi senza tenere in
conto che tra i big del web ed i grandi gruppi editoriali è in atto uno scontro
per la possibilità di definire cos’è una news: se fino a pochi anni fa i
giornali avevano un controllo molto forte sulle categorie di “vero”,
“autorevole” e “accettabile”, l’esplosione dei social network ha cambiato le
carte in tavola.
Sono
state utilizzate in particolare due retoriche per cercare di recuperare
l’egemonia perduta dalle strutture classiche dell’ecosistema informativo:
quella delle fake news e quella sulla privacy non rispettata. In entrambi i
casi l’elezione di Trump e la Brexit hanno costituito dei punti alti del
dibattito, le fake news e le violazioni sono a turno diventate le responsabili
di questi fatti inaspettati. Ma è chiaro che né le false notizie né le
violazioni della privacy sono questioni nate da poco, sono vecchie come la
comunicazione, o almeno datano al diciannovesimo secolo. Ad essere cambiati sono
i grandi gruppi di potere in grado di disporre con grande impatto di questi
dispositivi. Diventa in tal senso più chiaro che il Guardian ed il NY Times, ed
i gruppi editoriali che li sostengono, stanno giocando una partita politica,
parallela a quella di Zuckerberg e dei vari governi nazionali.
Se
capire le evoluzioni di questo scontro è compito molto difficile, quello che ci
sembra chiaro è che il terreno della battaglia è direttamente nel campo delle
narrazioni e del “vero”, in gioco c’è non soltanto la possibilità di decretare
quali fatti siano degni di essere raccontati e come, ma anche di determinare
una teoria dei soggetti che innerva i linguaggi. Storicamente i mass media
hanno portato la voce di un “senso comune” performante, il “grande altro” del capitalismo
(concetto sviluppato da Mark Fisher*); a questo oggi si aggiunge la
possibilità di innestare direttamente negli algoritmi una teoria dei soggetti.
Per fare un esempio banale, quando un’intelligenza artificiale è smascherata
come razzista o sessista, non si tratta semplicemente di un bias collettivo
“registrato” dall’algoritmo, ma di un meccanismo che riproduce e rende concreti
lo stesso razzismo e lo stesso sessismo di cui si nutre, proprio come le
narrazioni paternaliste e colonialiste dei giornali.
Oltre
ad essere un terreno di battaglia, gli algoritmi diventano sempre di più
l’oggetto stesso dello scontro politico in atto.
*M.
Fisher, Realismo capitalista, traduzione di Valerio Mattioli, Nero Editions,
2017
Fonte immagine: Jim Watson/AFP/Getty Images
Effimera
Fonte immagine: Jim Watson/AFP/Getty Images
Effimera