I social e la libertà che ci fa paura. Cinque domande (forse) senza risposta

È di ieri (2 luglio) la notizia che altri due social network, Twitch e Reddit, hanno deciso di bloccare Donald Trump, quando diffonde contenuti d'odio. Twitch, che è di proprietà di Amazon, ha annunciato di aver sospeso temporaneamente il canale del presidente americano per “condotta carica d'odio”. Reddit, invece, ha messo al bando un forum usato da tempo dai sui fan.

Tutto è cominciato quando, il 26 maggio, Twitter ha segnalato come potenzialmente fuorvianti due post del Presidente. Non li ha cancellati, ma li ha contrassegnati con un invito a verificare i fatti e un link per permettere agli utenti di avere una visione più completa di quello di cui Trump parlava. Il presidente ha reagito minacciando di chiudere il social network e rilanciando una narrativa che ama, soprattutto in vista delle prossime presidenziali: esistono dei colossi (i social network), che si sono alleati contro di me per togliermi la parola. E il 28 maggio ha firmato un ordine esecutivo per ridurre la libertà dei social network di censurare o segnalare i contenuti – falsi, o che alimentano l’odio – pubblicati dagli utenti. Naturalmente, il motivo per cui secondo Trump bisogna restringere questa libertà, sta nella necessità di difendere la libertà di espressione, messa in discussione dal loro potere di censura.

Successivamente, a finire davvero nella tempesta è stato Facebook, che – sempre nel nome della libertà di espressione – aveva preso le distanze dalla scelta fatta da Twitter. La piattaforma è stata criticata dai suoi stessi dipendenti: in 600, all’inizio di giugno, hanno partecipato allo sciopero virtuale #TakeAction, per protestare contro la mancata censura di un post di Trump dopo la morte di George Floyd (“In caso di saccheggi si inizia a sparare”), che Twitter invece aveva segnalato come “incitazione alla violenza”, per nulla intimorito dalle minacce di Trump.

Il 17 giugno la campagna #stophateforprofit ( https://www.stophateforprofit.org/) ha chiesto alle aziende di sospendere temporaneamente gli investimenti in pubblicità su Facebook e su Instagram. #stophateforprofit ha appunto l’obiettivo di combattere la diffusione di contenuti razzisti, violenti o di disinformazione sui social network ed è stata ideata dall’ONG Anti-Defamation League (ADL) e dalla National Association for the Advancement of Colored People (NAACP).

L’elenco delle società decise a boicottare il social di Zuckenberg si è allungata rapidamente, tanto che il 24 giugno, secondo il “Financial Times”, Facebook ha ammesso l'esistenza di un "deficit di fiducia". Ma la lista ha continuato ad allungarsi, superando il centinaio di marchi e includendo anche brand come Verizon che, solo nelle prime tre settimane di giugno, aveva speso circa 850.000 dollari in pubblicità sul social. Quando il 26 giugno anche Unilever ha annunciato che avrebbe sospeso la pubblicità – su Facebook ma anche su Twitter – i due social hanno perso rispettivamente l’8,41% e il 6,83% a Wall Street.

Quello stesso giorno Facebook ha annunciato un cambiamento nelle proprie politiche: non rimuoverà i post dei politici che violano le regole del social, ma li segnalerà; inoltre vieterà gli annunci che propagandano odio razziale, religioso, sessuale o minacciano altre persone. Nel frattempo, il “Financial Times” ha riferito che, secondo un sondaggio della Federazione mondiale dei pubblicitari (Wfa), quasi un terzo dei principali marchi mondiali sospenderà la propria pubblicità sui social, mentre un ulteriore 41% è ancora indeciso.

Fra il 30 giugno e il primo luglio l’Ansa ha diffuso la notizia che Facebook ha annunciato la rimozione di centinaia di account di gruppi riconducibili al movimento di estrema destra “boogaloo”: sono stati rimossi 220 account, 400 gruppi e 100 pagine, mentre da Instagram sono stati rimossi 95 account, 28 pagine e 106 gruppi. YouTube ha rimosso sette canali di suprematisti bianchi.

Questa la storia, che pone alcuni interrogativi attorno ai quali sarebbe importante ci fosse un dibattito serio, che coinvolga editori, operatori dell’informazione, giornalisti, società civile. Proviamo a sintetizzarli.

1. Il dibattito sull’opportunità/necessità di regolamentare i social network non è nuovo. Ma fino al 2016, in particolare con il referendum sulla Brexit e con le elezioni americane, vedeva su posizioni opposte l’Europa e gli Stati Uniti. Semplificando al massimo, possiamo dire negli Usa prevaleva la fedeltà al primo emendamento e la difesa a oltranza della libertà di espressione; in Europa si era più aperti ad una regolamentazione, soprattutto in difesa dei soggetti deboli (i minori, ad esempio, ma anche gli anziani, le persone con livello culturale molto basso, i gruppi sociali facilmente oggetto di hate speech) e contro la diffusione dell’odio. L’uso propagandistico e manipolatorio che è stato fatto dei social network nel 2016, in occasione dei due eventi citati, ha cominciato a incrinare qualche certezza anche negli Usa. Ma davvero siamo disposti a mettere dei limiti alla libertà di espressione, qualunque sia lo strumento attraverso cui si esprime?

2. L’avvento di Internet – e poi dei social network – è stato salutato come l’inizio di un’era di libertà, in cui tutti – non solo i potenti – potevano finalmente prendere la parola, comprese le minoranze, i gruppi, le singole persone. Di che cosa abbiamo paura, adesso? Di Internet o di quello che le persone pensano e, qualche volta, fanno? Il problema è nel modo in cui ci esprimiamo o nel modo in cui siamo?

3. I contenuti diffusi da politici e personaggi pubblici, vanno trattati allo stesso modo dei contenuti delle persone “qualunque”? Le responsabilità e le regole sono le stesse per gli uni e per gli altri?

4. Se si decide che una regolamentazione è opportuna, a chi spetta dettare le regole e poi applicarle? Ai governi? Alla magistratura? Entrambe le scelte contengono forti rischi liberticidi. Ma anche l’idea che a determinare le scelte possano essere le aziende, con il loro potere economico, è inaccettabile: avrebbero un potere di ricatto pesante e continuo. Dunque, meglio fare come si è fatto finora, e cioè affidarsi alla capacità di autoregolamentazione dei gestori delle varie piattaforme. Di fatto però l’autoregolamentazione fino ad ora non ha funzionato un granché, e l’idea che a decidere cosa possiamo pubblicare sia un avvocato di Zuckerberg o un algoritmo inventato dai suoi tecnici non è comunque delle più felici.

5. Ciò che sicuramente si può fare è discutere degli algoritmi, che fino ad oggi hanno premiato complottisti, bufalari e manipolatori. È possibile aprire, su questo, una discussione seria e trasparente?

Ultima modifica: Ven 3 Lug 2020