Tutti i rischi (e le opportunità) dell'intelligenza artificiale applicata al giornalismo

L'ingresso di ChatGPT nella nostra cassetta degli attrezzi, e dunque la possibilità di fruizione diretta dell'intelligenza artificiale come strumento di scrittura, ha aperto un dibattito tra giornalisti, filosofi, scienziati, intellettuali e addetti ai lavori sul senso della nuova sfida che pone l'ultima evoluzione dei linguaggi neurali. E dunque su come questa è destinata a modificare le nostre vite, il nostro lavoro, la cognizione di ciò che ci circonda.

Mette fortemente in discussione il mestiere del giornalista tradizionale che si dovrà confrontare con la nuova tecnologia, la quale però trova già applicazione per diversi scopi redazionali: produzione di articoli sportivi, di cronaca, per la segnalazione di terremoti o per la gestione dei grafici relativi all’emergenza del Covid. Se dovessimo definire correttamente l’Intelligenza Artificiale, però, non potremmo farlo nei termini di una “nuova tecnologia”, bensì di una disciplina che coniuga il contributo di molte scienze. Ciò che la rende così efficiente è la sua analogia con l’intelligenza umana.

Le capacità dell’IA sono infinite e ancora da esplorare, soprattutto nelle sue applicazioni nei diversi settori. Per ciò che riguarda il settore editoriale, le attitudini più proficue risultano essere: l’apprendimento automatico e l’elaborazione di un linguaggio naturale, natural language generation, Nlg. Le testate giornalistiche possono, infatti, utilizzare l’IA per gestire una mole immensa di dati e rendere di fatto automatizzate tante attività legate alla produzione delle news. L’algoritmo scrive e pubblica articoli senza l’intervento di un giornalista, oppure può collaborare con un redattore che supervisioni il processo e fornisca input per apportare modifiche all’elaborato. Gli input corretti sono fondamentali per una buona riuscita del processo: l’efficienza di questi sistemi dipende dalla disponibilità e dalla qualità dei dati inseriti in essi. L’idea prevalente nelle redazioni è quella di far gestire ai sistemi automatici compiti ripetitivi e dispendiosi in termini di tempo, consentendo ai giornalisti di concentrarsi sulla produzione di contenuti di valore più alto. Ma quale futuro per i giornalisti e comunicatori?

La ricerca tecnologica si muove più velocemente del giornalismo e non potrebbe essere altrimenti: l'informazione segue tempi diversi, dettati dalla cura che ogni realtà mette nella produzione dei propri contenuti e nel mantenimento di solidi standard editoriali. Per questo, per recepire le tecnologie in una redazione, sarà necessario un certo periodo di tempo, un periodo di assestamento diciamo.

Tuttavia, è vero che esiste un divario enorme tra le possibilità delle grandi testate giornalistiche, che hanno risorse finanziarie da investire in ricerca e sviluppo, e quelle delle redazioni più piccole che non hanno accesso alle nuove tecnologie. Per fare in modo che le informazioni rimangano fruibili a un'ampia fetta di popolazione, credo che questi nuovi strumenti di intelligenza artificiale debbano diventare alla portata di tutti: strumenti di analisi dei dati open source e corsi online gratuiti potrebbero essere realizzati in collaborazione tra redazioni diverse o con istituzioni accademiche.

L’ Associated Press dispone di un software che trasforma i dati di ogni partita sportiva di basket dell’Nba in articoli senza alcun intervento umano. La bc, invece, ha introdotto da poco una voce robotica per leggere ad alta voce gli articoli pubblicati sul suo sito web, mentre l’agenzia Reuters ha lanciato un sistema video automatizzato per coprire le partite sportive. Ma è sicuramente la Cina ad avere il primato nel progresso dell’IA nel mondo redazionale. Infatti, Xinhua, l’agenzia di stampa cinese, ha addirittura assunto il primo conduttore televisivo robotico nel mondo. In Italia, invece, Ansa e Mediaset sono i più innovativi soprattutto per quanto riguarda l'uso delle intelligenze artificiali.

C’è da dire che la maggior parte delle testate giornalistiche (soprattutto quelle più antiche) negli anni hanno consolidato i loro processi in un modo così rigido che spesso diventa difficile introdurre nuove tecnologie. Non esiste una testata progettata nell’epoca dei big data, una che preveda l’utilizzo di macchine intelligenti per ogni processo, tale da garantire integrità giornalistica e velocità computazionale.

Integrare l’intelligenza artificiale nel mondo dell’informazione è un processo cruciale, che potrebbe portare allo sviluppo di un giornalismo molto più veloce e affidabile. Se ci pensate, tutti noi prendiamo decisioni in base alle informazioni che leggiamo: come semplici cittadini, come professionisti e come aziende. Più velocemente reperiremo queste informazioni, più tempo avremo per preparare, valutare e mitigare le nostre scelte, soprattutto in vista dei rischi che sembra portare il prossimo decennio.

Il giornalismo che nasce da un'intelligenza artificiale è guidato da algoritmi sofisticatissimi, ma non vuol dire che non sbagli mai. I giornalisti rimangono delle figure chiave nella discussione dei risultati e nella garanzia della validità di una notizia, ma soprattutto nel rispetto degli standard editoriali di una testata. Non sarà un compito facile: gli algoritmi sono esseri difficili da verificare e, quindi, diventerà complicato attribuirgli una qualsiasi dose di responsabilità.I giornalisti e i comunicatori dovranno adeguarsi ed essere a passo con la tecnologia e non snobbandola. Tutti noi abbiamo l’arduo compito di applicare i nuovi strumenti di comunicazione e di scrittura con professionalità e deontologia,

Questo perché l’intelligenza artificiale è uno strumento creato dagli esseri umani e può commettere errori, proprio come noi. Errori che spesso nascono dai pregiudizi del nostro mondo e che siamo noi a passare alle nostre macchine. Il risultato di un algoritmo avrà un valore soltanto se gli input umani saranno corretti.

Il rischio più grande dell’intelligenza artificiale è proprio quello di propagare pregiudizi nell’informazione e per questo dobbiamo essere ben consapevoli di questi meccanismi quando implementiamo nuovi strumenti.

I giornalisti dovrebbero analizzare come funzionano gli algoritmi dall’interno. Le intelligenze artificiali non possono essere delle black box, ma degli strumenti aperti in cui il passaggio dall’input all’output possa essere analizzato per intero. Per farlo, gli esperti dell’informazione devono ampliare le loro competenze, anche collaborando con data scientist e tecnici. Se è vero che gli algoritmi diventeranno sempre più importanti nella nostra società, un loro errore potrebbe portare a conseguenze gravissime, a discriminazioni e violazioni della privacy, per citare solo alcuni esempi.

È necessario fare ancora molta ricerca: il mondo degli algoritmi è relativamente giovane, anche se si sta sviluppando molto in fretta. Per questo i giornalisti dovrebbero essere in grado di analizzare le intelligenze artificiali, mettendo in discussione gli algoritmi sia all’interno che all’esterno di una redazione. Tutti i sistemi che si basano sui big data dovrebbero seguire principi di trasparenza, di privacy e di responsabilità: anche se il processo è guidato da una macchina, il contributo umano è fondamentale per convalidare e contestualizzare qualsiasi tipo di dati. Sebbene l’Intelligenza Artificiale sia già ampiamente utilizzata nel settore dei media, esistono molte lacune legislative sul tema.

Quest’assenza di cornici giuridiche in cui collocare i nuovi sistemi tecnologici produce non poche incertezze. Prima fra tutte la paura di perdere posti di lavoro e l’identità giornalistica.

Il professor Giancarlo Elia Valori, nel suo ultimo libro “Intelligenza artificiale tra mito e realtà. Motore di sviluppo o pericolo imminente?” prova a delineare delle conclusioni incoraggianti per il settore, analizzando i problemi etici e morali della nuova tecnologia.

D’altronde, le principali sfide dell’integrazione delle tecnologie di IA nel giornalismo riguardano soprattutto il campo dell’etica.

Ultima modifica: Ven 17 Feb 2023