La 'tentazione manipolatoria' dei social da parte dei cittadini 'qualunque'

Che gli algoritmi siano stupidi è noto, e questa estate quelli di Facebook hanno dato il meglio di sé. Rilanciano, però il problema della regolamentazione dei social network, di quanto facilmente l’applicazione di regole diventi censura e di quanto difficilmente si possano mettere argini alla manipolazione della verità.

Non importa se la censura è dovuta a volontà o, appunto, a cecità, come quando gli algoritmi del social network più popolare hanno rimosso dalla piattaforma la Dichiarazione di Indipendenza degli Stati Uniti perché l’hanno classificata come hate speech, quasi fosse stata scritta da uno dei troll odiatori che infestano il web (notizia della BBC, 8 luglio), o come quando hanno equiparato i nudi di Rubens a materiale pornografico, spingendo una serie di musei e istituzioni culturali del Belgio a scrivere una lettera aperta a Mark Zuckerberg (notizia del 28 luglio). La censura è sempre stupida, e anche per questo fa male.

Ma questa estate è esploso anche un altro problema, che ha visto utenti di ogni parte politica lamentarsi perché si sono visti cancellare post e commenti: lamentele che venivano da sostenitori di Salvini come da anti salviniani convinti, da persone sconosciute e da influencer di peso. Cosa è successo? Che i censori non sono solo gli interventi di Facebook, ma anche i cittadini italiani.

Il problema, lo sappiamo, viene da lontano. I social network hanno sempre sostenuto di essere piattaforme, non editori, e quindi di non essere responsabili dei contenuti che gli utenti andavano pubblicando. Ma la propaganda dei terroristi di Daesh, il dilagare del cyberbullismo e dell’hate speech, l’esplosione delle fake news e via via elencando, fino alle grandi manipolazioni politiche in occasione della Brexit e delle ultime elezioni americane, hanno spinto molti – governi, cittadini, società civile, educatori, genitori – a chiedere di studiare forme di regolamentazione. Ma come imporre regole che non si trasformassero in limitazioni della libertà di espressione?

Alla fine, è sembrato che l’autoregolamentazione fosse la strada migliore. E così Facebook per primo, e poi gli altri social network si sono dati delle policy e le hanno rese pubbliche (quella di FB si trova qui), fissando “standard della comunità” che avrebbero dovuto essere i paletti che permettevano agli utenti di sapere cosa poteva trovare spazio sul social network e cosa no. Sembrava semplice, come sembrava semplice anche il passo successivo: dare a tutti la possibilità di segnalare i contenuti che riteneva non rispondenti a quegli standard (Facebook permette di segnalare contenuti di nudo, violenza, comportamento intimidatorio, suicidio e autolesionismo, notizia falsa, spam, vendite non autorizzate, discorsi di incitazione all’odio. Twitter più genericamente permette di segnalare se un post è spam o se contiene materiale offensivo o dannoso).

Per individuare chi viola gli standard, Fabebook usa una combinazione di algoritmi e di persone: c’è una squadra, quella delle “Community Operations” che valuta le segnalazioni degli utenti. Solo che gli algoritmi non colgono le sfumature culturali e non distinguono, ad esempio, fra fake news e satira, e probabilmente anche le persone non sono adeguate o sufficientemente formate per un lavoro delicatissimo, che implica saper cogliere significati, ma anche contesti, espressioni dialettali e così via. Il problema è talmente evidente che nell’aprile scorso la piattaforma ha pubblicato anche le linee guida interne utilizzate per applicare gli standard. E ha deciso di introdurre, sia pur gradualmente, la possibilità di fare appello contro le decisioni di rimuovere i singoli post.

Oltre a questo, quello che probabilmente i vari social network avevano sottovalutato, era la “furbizia” degli utenti, e la loro capacità di trasformare uno strumento di difesa in uno strumento di offesa. Non sono d’accordo con te? E allora ti segnalo, anche se non c’è niente di violento, offensivo o falso in quello che dici. Con somma leggerezza ti tolgo il diritto di parola, tanto quello che conta è che possa esprimermi io e quelli che le pensano come me, non che possano farlo tutti.

Facebook sta cercando di reagire anche a questa dinamica. Il 21 agosto il “Washington Post” ha scritto che il social network aveva messo a punto uno strumento ad uso interno per calcolare la credibilità degli utenti. La società ha negato, precisando però che sta lavorando per «sviluppare un sistema che ci aiuti ad individuare le persone che usano indiscriminatamente la segnalazione di notizie false, cercando di ostacolare gli strumenti di controllo».
Un’altra raccolta di dati, dunque, che speriamo venga usata correttamente. In attesa che i cittadini manipolatori trovino il modo di ingannare anche questo nuovo sistema, una volta che sarà attivo.

I dati dicono che Facebook e Twitter vedono i propri utenti calare: sono molti quelli che abbandonano, forse anche perché esasperati dalle dinamiche di cui sopra. Ma i social network possono essere strumenti formidabili di confronto, scoperta, costruzione di reti, oltre che divertimento. È un peccato che vengano così deteriorati, non solo dalla propaganda dei “potenti” con schiere di social network strategist al seguito, ma dalla tentazione manipolatoria dei cittadini “qualunque”, che alla fin fine si ritrovano alleati dei potenti in un gioco perverso, nel quale i manipolati manipolano.

P.S. Dal 6 giugno, comunque, Facebook è ufficialmente un editore di notizie, visto che ha annunciato che trasmetterà programmi di notizie nella sezione Watch, non ancora disponibile in Italia. Trasmissioni che non andranno in onda in alcun altro luogo e che saranno prodotte appoggiandosi all’editoria tradizionale.

Ultima modifica: Lun 3 Set 2018