13 Settembre 2025
Share

 La battaglia contro la disinformazione

L’intelligenza artificiale che vuole sostituire il fact-checking umano

Il progetto, ancora in fase sperimentale e disponibile solo per un numero limitato di utenti, si configura come una delle più recenti risposte delle big tech al fenomeno delle bufale digitali. Ma solleva anche interrogativi significativi e urgenti, non solo sul piano tecnologico, ma soprattutto su quello culturale e sociologico

il dovere della verità nel giornalismo di oggi

Francesco Pira

Viviamo in un tempo segnato dalla sovrapproduzione informativa, una fase storica in cui la quantità di dati generati e diffusi supera la nostra capacità di analisi, verifica e comprensione.

In questo contesto, la propaganda digitale diventa una minaccia concreta e quotidiana, capace di influenzare opinioni, orientare scelte politiche, alimentare conflitti. Le piattaforme digitali, divenute ormai il principale filtro attraverso cui accediamo alla realtà, stanno cercando – o almeno dichiarano di farlo – di correre ai ripari.

Ed è proprio da qui che parte la riflessione: da quanto riportato da Sky TG24 riguardo una nuova funzione in fase di test da parte di Meta, la società che controlla Facebook, Instagram e WhatsApp. Secondo l’articolo, “Meta starebbe lavorando ad una funzione che sfrutta l’intelligenza artificiale per cercare di contrastare la diffusione di notizie false”. La novità prende il nome di “Ask Meta AI” e, come spiegato, dovrebbe consentire agli utenti WhatsApp di verificare se un messaggio ricevuto sia autentico o meno, semplicemente tenendo premuto su di esso e cliccando sull’opzione dedicata.

Il progetto, ancora in fase sperimentale e disponibile solo per un numero limitato di utenti, si configura come una delle più recenti risposte delle big tech al fenomeno delle bufale digitali. Ma solleva anche interrogativi significativi e urgenti, non solo sul piano tecnologico, ma soprattutto su quello culturale e sociologico.

Come sottolinea Sky TG24, “l’interfaccia per sfruttare ‘Ask Meta AI’ dovrebbe essere piuttosto intuitiva da usare” e, cosa ancora più rilevante, “Meta AI continuerà a non avere accesso alle chat degli utenti”. Ciò significa che sarà l’utente a decidere se e quando attivare la funzione, ponendo all’IA una domanda diretta. Tuttavia, rimangono molte zone d’ombra. Ed è proprio su questo punto che si innesta il cuore della riflessione sociologica: possiamo davvero affidarci a un sistema automatizzato per decidere cosa sia attendibile e cosa no?

La credibilità nell’era dei social

Nella mia attività di studio sui processi comunicativi, ho più volte sottolineato come la società digitale stia ridefinendo i concetti di autenticità, credibilità e autorevolezza. Oggi, la validità di un’informazione viene spesso attribuita non in base a una verifica oggettiva, ma sulla base del numero di condivisioni, dei like ricevuti o della fonte percepita come “affidabile” solo perché popolare. In questa dinamica, l’intelligenza artificiale può amplificare – e non necessariamente risolvere – il problema.

Le notizie fuorvianti non sono un fenomeno nuovo. Ma è con l’avvento dei social media prima, e dell’intelligenza artificiale poi, che la distorsione informativa ha assunto una forma nuova, più insidiosa e più difficile da individuare.

Ormai affrontiamo non solo la diffusione di bufale, ma anche dei deep fake: video e audio generati con l’IA che rendono quasi impossibile distinguere il falso dal vero.

Le piattaforme digitali costruiscono una percezione di realtà all’interno di schemi narrativi artificiali, che spesso prendono il posto dell’esperienza diretta. Le persone, immerse nel flusso continuo dei media, si affidano agli strumenti tecnologici per interpretare ciò che accade nel mondo.

Ma proprio il continuo ricorso agli strumenti digitali comporta un rischio: che la nostra visione del mondo sia filtrata e alterata da algoritmi progettati per ottenere attenzione e consenso, non per garantire trasparenza informativa.

Il rischio di una visione ‘alterata’ della realtà e la necessità del fact-chacking

Nel conflitto russo-ucraino e nella guerra in Medio Oriente, stiamo assistendo a una vera e propria ‘guerra parallela’ combattuta sul piano della manipolazione digitale. Pagine, bot, account fittizi hanno diffuso narrazioni ingannevoli, immagini artefatte, testi modificati. È evidente che attualmente la distorsione mediatica è diventata un’arma strategica, e le piattaforme digitali ne sono i principali veicoli.

Secondo l’articolo di Sky TG24, “l’obiettivo di questa nuova funzionalità sarebbe quello di contrastare la diffusione di bufale su WhatsApp, dato che le fake news viaggiano veloci sulle chat”. E infatti la piattaforma ha già introdotto in passato funzioni per limitare l’inoltro massivo dei messaggi. Di fatto, “non è ancora chiaro come funzionerà la verifica dei contenuti in un sistema che sembra appoggiarsi interamente all’intelligenza artificiale senza la supervisione di fact-checkers o esperti umani”.

Questa assenza di controllo umano è il punto critico. Negli ultimi mesi, Meta ha ridotto le sue politiche di moderazione e interrotto il programma di fact-checking di terze parti negli Stati Uniti, affermando che saranno le “note della comunità” a sostituire i verificatori professionisti. Una scelta che, com’è noto, è stata accolta con favore da Donald Trump, ma fortemente criticata dall’allora presidente uscente Joe Biden, che l’ha definita “vergognosa”.

Questa dinamica ci pone davanti a una domanda urgente: può una piattaforma privata, orientata al profitto, con logiche algoritmiche, diventare il garante dell’attendibilità?

Il ruolo del giornalismo nel nuovo scenario

In questo scenario, il giornalismo assume un ruolo ancora più delicato e necessario, ma deve ritrovare la propria funzione critica, analitica, formativa, uscendo dalla logica del consenso e della viralità. Non può rincorrere i numeri, i click, le condivisioni. Deve ricostruire un rapporto di fiducia con il pubblico, fondato sulla trasparenza delle fonti, sulla verifica dei fatti, sull’etica professionale.

Il giornalista non può limitarsi a “riportare” le notizie: deve spiegare, contestualizzare, smontare le narrazioni ingannevoli, anche – e soprattutto – quando sono rese credibili da un’intelligenza artificiale.

Negli studi che ho condotto sulle menzogne mediatiche, ho evidenziato come la costruzione sociale della realtà sia sempre più legata ai media digitali, che spesso diventano il principale, se non unico, strumento di interpretazione del mondo. Ma questo processo non è neutro. È mediato da interessi, logiche economiche, bias culturali e tecnologici.

Non possiamo affidarci ciecamente all’IA per difenderci dalle falsità online. Possiamo – e dobbiamo – utilizzarla come strumento di supporto, ma sempre sotto la guida del pensiero critico umano, del confronto democratico, della responsabilità collettiva.

Progetti come AI4TRUST, citato da Sky TG24 e finanziato dall’Unione Europea, vanno proprio in questa direzione: combinare l’efficienza dell’IA con la competenza di giornalisti e fact-checker. È questa la strada da seguire. Non la delega totale all’automazione, ma l’integrazione equilibrata tra tecnologia e umanità.

Siamo immersi in un sistema complesso, fluido, in cui l’informazione è spesso contaminata e sfuggente. Ma proprio per questo dobbiamo formare cittadini consapevoli, capaci di navigare nel caos informativo con strumenti adeguati. Il futuro della democrazia