L’AI amplifica la disinformazione e la produzione di dati
Le false notizie e più in generale la distorsione della realtà sembrano un segno caratterizzante dello sviluppo della civiltà umana. I media devono ritrovare la loro credibilità e gli individui devono essere capaci, suggerisce Byung-Chul Han, di uscire dalla “caverna digitale”
Ormai, stiamo vivendo una nuova cultura del tempo e dello spazio. Le piattaforme virtuali creano veridicità all’interno di frame costruiti per “sostituire” il reale con la sua rappresentazione.
Il processo di influenza è completamente cambiato. Il sociologo Enrico Menduni ha scritto: «Un condizionamento che avviene all’interno di uno schema ben definito, quello secondo il quale l’influenza diventa possibile allorché si ammanta dell’autorità di chi ha successo, di chi è riuscito nel suo campo, di chi ha dimostrato il suo valore sugli avversari», e ha pienamente ragione.
Gli individui sono immersi nei flussi mediatici e utilizzano le interfacce tecnologiche per capire il mondo. Questo comporta un rischio, ossia che la visione sia distorta o falsa, con un processo di adattamento all’ambiente fortemente condizionato dallo strumento.
Siamo di fronte ad un problema evolutivo: un apprendimento condizionato dai media, ed è del tutto evidente che non può essere il medium a guidare il processo evolutivo. La tecnologia sta colonizzando tutti gli ambienti e le sfere dell'agire sociale, introducendo regole non dichiarate, che conducono gli individui a un agire orientato e “guidato” dalla tecnologia, o per meglio dire dai suoi sviluppatori.
Una comunicazione inquinata
A trasformarsi è anche il concetto di credibilità informativa. Un sistema di influenza del tutto nuovo che non solo diffonde continuamente contenuti, ma veicola tantissime fake news e deep fake.
Il conflitto russo-ucraino e la guerra in Medio Oriente ci hanno dimostrato quanto la disinformazione sia diventata una pericolosa arma di guerra. Sono tanti i siti nati con lo scopo di far circolare false narrazioni sugli scontri bellici. In realtà, la vera guerra dovrebbe essere fatta alle fake news. La società degli algoritmi e dei dati preoccupa e a parlarne sono proprio gli esperti.
Mi ha colpito l'intervista che il professore Luciano Floridi, voce autorevole della filosofia contemporanea e fondatore del Digital Ethics Lab dell'Università di Yale, ha rilasciato al giornalista Massimo Sideri, per il Corriere della Sera, lunedì 23 Settembre 2024 (pag.35). Sideri ha chiesto a Floridi se nel suo libro, Filosofia dell'informazione, vuole criticare una società che si è appiattita sulla bulimia dei dati e che non si chiede quale sia la differenza tra dati e conoscenza e dunque informazione. Floridi ha risposto con queste parole: «Direi di sì, perché nella società dei dati c'è bisogno di portare consapevolezza sulla loro natura. Oggi ancora di più perché l'AI li trasforma in informazione: di fatto la stiamo usando come interfaccia per la navigazione, laddove il motore di ricerca non è più sufficiente. Non ci accontentiamo solo di una lista di link, ma vogliamo una sintesi già pronta della società del dato».
E ancora Sideri ha domandato a Floridi quanto sia necessario correre ai ripari e lui ha affermato: «Dobbiamo già riparare i danni sull'informazione. Qualche mese fa abbiamo passato la soglia dei 10 mila articoli scientifici pubblicati da importanti riviste ma ritirati perché ciarpame. La metafora è quella dell'inquinamento: stiamo producendo smog che fa male. Perché tanto ≤. Se volessimo fare fantascienza e portassimo l'AI al tempo delle streghe e del terrapiattismo l'algoritmo collegherebbe un miliardo di data point e ci direbbe che le streghe esistono e la Terra è piatta».
L'era della disinformazione viene alimentata dai mass media e dai social media. Siamo sommersi, in questa epoca, da una over-produzione di dati che devono essere decifrati, interpretati e compresi. A dirlo sono anche le mie ricerche e gli studi che ho condotto sulle fake news.
Ricostruire credibilità
Non ci sono dubbi sul fatto che il giornalista deve diventare un analista capace di analizzare i dati e i flussi che si generano anche sui social, per costruire le proprie storie e inchieste.
L'intelligenza artificiale deve essere utilizzata per portare benefici nella vita dell'uomo. Ci sono già risultati molto importanti e considerevoli in diversi settori della società. L’AI non può essere sfruttata per distruggere e fare del male agli altri.
Papa Francesco, come riporta l'Avvenire, ha consegnato un discorso ai partecipanti alla plenaria della Pontificia Accademia delle Scienze. Ancora una volta ha scelto di affrontare il tema dell'Intelligenza Artificiale: «Può rivelarsi benefico per l’umanità, ad esempio promuovendo innovazioni nei settori della medicina e dell’assistenza sanitaria, così come aiutando a proteggere l’ambiente naturale e consentendo l’uso sostenibile di risorse alla luce dei cambiamenti climatici. Tuttavia può anche avere gravi implicazioni negative per la popolazione, specialmente per i bambini e gli adulti più vulnerabili. Inoltre, occorre riconoscere e prevenire i rischi di usi manipolatori dell’Intelligenza Artificiale per plasmare l’opinione pubblica, influenzare scelte di consumo e interferire con i processi elettorali».
Le false notizie e più in generale la falsificazione, distorsione della realtà sembrano un segno caratterizzante dello sviluppo della civiltà umana e bisogna invertire questa tendenza.
I media devono ritrovare la loro credibilità e gli individui devono essere capaci, suggerisce Byung-Chul Han, di uscire dalla «caverna digitale che li tiene intrappolati nelle informazioni. La luce della verità è completamente spenta. Non c’è affatto un esterno rispetto alla caverna delle informazioni. Il rumore delle informazioni offusca i contorni dell’essere. La verità non fa rumore».
Così, come ha ricordato Papa Francesco, «la dignità intrinseca di ogni persona e la fraternità che ci lega come membri dell’unica famiglia umana devono stare alla base dello sviluppo di nuove tecnologie» e non è possibile che a trionfare siano le false verità.