sabato 12 maggio 2018

abstract&screening\ UN TROPPO GRANDE FRATELLO

-mattia galeotti-
CONSIDERAZIONI SUL CASO FACEBOOK-CAMBRIDGE ANALYTICA

 \Ad inizio 2014 il centro di ricerche psicometriche dell’Università di Cambridge dispone online su Facebook di una app che raccoglie dati a scopi di ricerca. Questa app ha dei permessi particolari: se l’utente X la scarica, possono essere raccolti non solo i dati di X, ma anche tutti i dati condivisi dagli amici di X sul social network. Un’azienda non molto famosa, e non ancora chiamata Cambridge Analytica, si mette in contatto col centro di ricerche per poter accedere a questi dati. Si tratta di un’azienda che sta entrando nel business della data analysis e della pubblicità mirata applicata alle campagne elettorali, in particolare in America e Regno Unito

Una democrazia in balia dell’algoritmo?
Lo “scandalo” Cambridge Analytica ha sollevato uno “psicodramma” democratico, diverse testate giornalistiche e alcuni governi, in particolare quello britannico e quello americano, hanno chiesto a Zuckerberg di riferire su quanto avvenuto. Il tutto si è concretizzato nelle deposizioni delle “talpe” Wilye e Parakilas al parlamento inglese, ed in quella di Zuckerberg di fronte al congresso USA, nonché nel cambiamento di alcune delle policy del social network.
Ma davvero la democrazia rappresentativa è stata controllata, pilotata o hackerata? Questa domanda può avere una risposta superficiale, un semplice “no”, ma anche aprire a domande più interessanti e profonde: cosa significa “controllare” o “pilotare” un processo democratico?
Va totalmente sfatata la narrazione secondo cui alcuni eventi elettorali eclatanti degli ultimi tre anni (in particolare la Brexit e l’elezione di Trump) possano essere spiegati attraverso l’uso di particolari strumenti o tecniche di analisi dati. Nonostante questo le tecniche stesse ci dicono qualcosa sull’evoluzione dei processi politici in atto, perché ogni tecnica è l’unione di strumenti (formali o materiali) e di “modi d’utilizzo”, questi ultimi espressione di specifiche griglie di lettura del reale, quanto di più lontano ci sia da una presunta neutralità degli algoritmi.
Le tecniche di campagna elettorale sui social network funzionano in primo luogo con un profiling degli utenti, cioè assegnando ad ogni utente alcuni valori in specifiche categorie, sulla base dei dati condivisi. Alcune ovvie categorie di profiling sono quelle demografiche: ad esempio per la campagna di Trump sono state diffuse notizie sulla base del distretto di appartenenza degli utenti – come per gli abitanti di Little Haiti, bersagliati con notizie sul fallimento della Clinton Foundation nel fornire aiuti post-terremoto ad Haiti.
Cambridge Analytica ha impostato il suo brand sull’uso di un altro tipo di categorie, quelle psicometriche. La psicometria è lo studio della misura in campo psicologico, in particolare CA utilizza un metodo risalente agli anni ’80 che si propone di caratterizzare ogni individuo in base a 5 tratti della personalità: openness – apertura, conscientiousness – coscienziosità, extroversion – estroversione, agreablenness – disponibilità alla cooperazione, neuroticism – propensione all’ira; questi tratti vengono anche indicati con il loro acronimo, OCEAN. Grazie ai dati raccolti su Facebook, per ogni utente possono essere assegnati dei valori agli OCEAN – e di conseguenza si possono scegliere in maniera mirata, utente per utente, i messaggi con la maggior influenza. Ad oggi non è chiaro se le tecniche psicometriche siano state usate per la campagna di Trump, mentre è quasi certo il loro utilizzo nella campagna per le primarie di Ted Cruz, terminata con il ritiro dello stesso dalla corsa.
Dalle parole di Wilye è evidente che i vertici di CA propagandavano con convinzione una fiducia assoluta nei metodi psicometrici.

“Nella vita se vai in un luogo e ti piace qualcosa mi stai dando un indizio su chi sei come persona […] al lavoro i tuoi colleghi vedono un solo lato di te, i tuoi amici vedono un solo lato di te, ma un computer vede tutti i tuoi lati e quindi possiamo essere migliori degli esseri umani nel predire il tuo comportamento”

Lo stesso Wilye descrive quello che facevano come un articolato inganno:

“hanno consapevolmente rappresentato in maniera distorta la verità, in modo che fosse funzionale ai loro obiettivi”

In realtà ciò che Wilye descrive è un normale meccanismo di propaganda, cioè l’adattamento del messaggio al proprio ascoltatore, con la novità che le tecniche di analisi dati permettono di farlo in maniera più mirata. Come in ogni meccanismo di propaganda, inoltre, il messaggio politico innerva le stesse tecniche utilizzate. È insensato parlare dei dispositivi algoritmici in maniera separata dai messaggi che propagandano – contrariamente a quanto credono i dirigenti di CA, alcune tecniche funzionano proprio perché associate a specifici messaggi.
Contro ad una visione neutrale per cui una “tecnica” viene applicata su alcuni “dati grezzi” ottenuti sui social network, si deve ribaltare il punto di vista dicendo che non esiste nessun dato grezzo, che la stessa raccolta dei dati è parte della comunicazione. I messaggi politici proposti agli utenti dagli algoritmi sono il centro dell’ipotesi trumpista, ciò che permette di misurare l’efficacia degli algoritmi utilizzati, e non una variabile tra le altre. Lo stesso modello degli OCEAN è chiaramente una teoria psicologica e politica dei soggetti, un terreno di battaglia in sé, e non un retroterra neutrale su cui è possibile costruire qualsiasi ipotesi elettorale.

Ogni news è una fake news
Dietro ai titoli dei giornali, alle testimonianze in parlamento, ai crolli in borsa prontamente recuperati dopo pochi giorni, è difficile farsi un’idea di cosa sia realmente accaduto attorno alla vicenda Cambridge Analytica e più in generale alle accuse di irregolarità nelle pratiche di Facebook. Forse perché mai come in questo caso è la gestione dell’informazione stessa ad essere il campo di battaglia. Non si può approfondire il racconto di questi eventi senza tenere in conto che tra i big del web ed i grandi gruppi editoriali è in atto uno scontro per la possibilità di definire cos’è una news: se fino a pochi anni fa i giornali avevano un controllo molto forte sulle categorie di “vero”, “autorevole” e “accettabile”, l’esplosione dei social network ha cambiato le carte in tavola.
Sono state utilizzate in particolare due retoriche per cercare di recuperare l’egemonia perduta dalle strutture classiche dell’ecosistema informativo: quella delle fake news e quella sulla privacy non rispettata. In entrambi i casi l’elezione di Trump e la Brexit hanno costituito dei punti alti del dibattito, le fake news e le violazioni sono a turno diventate le responsabili di questi fatti inaspettati. Ma è chiaro che né le false notizie né le violazioni della privacy sono questioni nate da poco, sono vecchie come la comunicazione, o almeno datano al diciannovesimo secolo. Ad essere cambiati sono i grandi gruppi di potere in grado di disporre con grande impatto di questi dispositivi. Diventa in tal senso più chiaro che il Guardian ed il NY Times, ed i gruppi editoriali che li sostengono, stanno giocando una partita politica, parallela a quella di Zuckerberg e dei vari governi nazionali.
Se capire le evoluzioni di questo scontro è compito molto difficile, quello che ci sembra chiaro è che il terreno della battaglia è direttamente nel campo delle narrazioni e del “vero”, in gioco c’è non soltanto la possibilità di decretare quali fatti siano degni di essere raccontati e come, ma anche di determinare una teoria dei soggetti che innerva i linguaggi. Storicamente i mass media hanno portato la voce di un “senso comune” performante, il “grande altro” del capitalismo (concetto sviluppato da Mark Fisher*); a questo oggi si aggiunge la possibilità di innestare direttamente negli algoritmi una teoria dei soggetti. Per fare un esempio banale, quando un’intelligenza artificiale è smascherata come razzista o sessista, non si tratta semplicemente di un bias collettivo “registrato” dall’algoritmo, ma di un meccanismo che riproduce e rende concreti lo stesso razzismo e lo stesso sessismo di cui si nutre, proprio come le narrazioni paternaliste e colonialiste dei giornali.
Oltre ad essere un terreno di battaglia, gli algoritmi diventano sempre di più l’oggetto stesso dello scontro politico in atto.

*M. Fisher, Realismo capitalista, traduzione di Valerio Mattioli, Nero Editions, 2017
Fonte immagine: Jim Watson/AFP/Getty Images
Effimera