Giornalismo e intelligenza artificiale. Una questione etica

SE L’INTELLIGENZA ARTIFICIALE SUPERA L’UOMO

Quando uno scrive di sviluppi tecnologici il rischio è sempre quello di dire cose che, quando poi verranno lette, non saranno più aggiornate e, dunque, non risulteranno pienamente corrette. Gli sviluppi tecnologici procedono infatti più velocemente di quanto non riusciamo a pensarli. Interviene qui una sorta di obsolescenza, certo: che non è solo quella dei dispositivi, i quali come sappiamo rischiano di essere già superati – per esprimerci in maniera un po’ paradossale – non appena è promossa la loro commercializzazione, bensì è quella delle nostre stesse riflessioni, che non riescono a essere sempre allineate a ciò che sta accadendo.

Nel momento in cui scrivo, per esempio, non si parla più di metaverso: argomento di moda, nei suoi pro e nei suoi contro, fino a qualche tempo fa. Non che la questione relativa alla presenza di ambienti virtuali, da vivere in parallelo all’ambiente fisico in cui siamo collocati e ai vari ambienti online in cui ormai abitualmente ci muoviamo, non sia più oggetto d’interesse per le grandi companies. Certamente, però, ciò che sembrava a un passo dalla realizzazione e dall’utilizzo massivo – su di un piano ludico, educativo, di training – si è visto che richiede ancora molti sforzi nella ricerca e molti investimenti economici. Adesso è invece l’ambito della cosiddetta intelligenza artificiale a suscitare attenzione e preoccupazione. Soprattutto per quanto riguarda una serie di sue applicazioni, che sembrano poter cambiare profondamente i nostri modi di vivere e di rapportarci al mondo.

Mi riferisco per esempio alla cosiddetta intelligenza artificiale generativa. Essa costituisce un’articolazione dell’intelligenza artificiale (IA) nella quale l’uso di algoritmi è finalizzato a generare contenuti: ad esempio, testi, immagini, suoni. GPT (Generative Pre-trained Transformer) è uno degli algoritmi generativi più famosi. Si tratta più precisamente di un modello d’intelligenza artificiale generativa linguistica sviluppato dall’azienda Open AI. La sua fama è dovuta al fatto che una sua versione conversazionale – Chat GPT – è stata rilasciata pubblicamente e gratuitamente allo scopo di “addestrare” il programma, vale a dire per fare in modo che, grazie all’interazione con gli utenti, esso venisse sempre più perfezionato nella sua capacità di generare testi plausibili e coerenti. Una delle caratteristiche dei programmi di IA è infatti quello di poter “imparare”, cioè di modificare i propri “comportamenti”, attraverso l’interazione con un ambiente (N.B.: le virgolette qui usate servono a rimarcare il fatto che, pur usando gli stessi termini, sto parlando di agenti artificiali e non di agenti umani).

Questo aspetto, cioè la capacità di conoscere un’implementazione e di “imparare” nell’interazione con l’ambiente, è ciò che maggiormente sta suscitando attenzione nel dibattito pubblico. Ciò avviene per almeno due motivi. Il primo è che, in tal modo, i programmi di IA manifestano un certo, variabile grado di autonomia e, appunto perciò, possono sfuggire alla previsione e al controllo dell’essere umano che li ha elaborati. Il secondo è che, proprio in relazione a questo aspetto di autonomia che sono in grado di manifestare, essi sembrano altresì esprimere una sorta di “creatività”: la capacità cioè di sviluppare contenuti nuovi, in forme in qualche modo pure nuove, a partire da un bagaglio di nozioni già posseduto (o magari attinto dal web).

Quest’ultimo aspetto sta suscitando una diffusa preoccupazione. Finora si riteneva che autonomia e creatività fossero caratteristiche proprie solo degli esseri umani. Finora si credeva che certe attività animate da tali caratteristiche fossero monopolio solo di certe categorie di persone. Finora si pensava che certe professioni non potessero affatto essere esercitate da semplici programmi. Ora pare invece che non sia più così. E dunque ciò che Günther Anders aveva chiamato “vergogna prometeica” – lo stato d’animo dell’essere umano nei confronti di un’entità artificiale più perfezionata e performante – sembra essere una sensazione sempre più giustificata e diffusa.

L’INTELLIGENZA ARTIFICIALE IN REDAZIONE E NELLE PERCEZIONI DEL PUBBLICO

La professione giornalistica è indubbiamente una professione creativa. Non si tratta solamente di raccogliere e diffondere informazioni, ma di verificarle, certificarle, interpretarle, contestualizzarle, proporle in maniera giusta e comprensibile al proprio pubblico. Per far questo non basta conoscere i fatti: bisogna saperli confezionare secondo forme adeguate che s’imparano con gli anni. Anche in questo consiste il mestiere del giornalista.

Nel momento in cui scrivo è appena stata commentata la notizia – ad esempio in un articolo di Pietro Minto sul “Foglio quotidiano” del 26 luglio scorso, ma prima ancora in un altro articolo di Simone Cosimi del 21 luglio su repubblica.it – dello sviluppo di una serie di programmi volti ad “aiutare” le redazioni nello svolgimento del loro lavoro. Si parla ad esempio di trattative fra varie testate giornalistiche, ad esempio il “New York Times”, e Google per l’utilizzo di Genesis (clicca qui), e dell’elaborazione, in Italia, di contents.com. Si tratta di programmi in grado di generare testi utilizzabili a fini giornalistici. Contents.com ad esempio, la piattaforma sviluppata da Massimiliano Squillace, intende fornire ai suoi fruitori il materiale grezzo per un articolo: dati, informazioni e anche immagini già confezionati in una maniera pressoché pubblicabile, che attendono solo l’ultima mano del giornalista per una verifica o per l’aggiunta di una nota di colore. Analogamente può accadere nel caso dei comunicati stampa. In questo caso la tecnologia GPT è in grado di mettere a disposizione del comunicatore pubblico una bozza di testo su cui egli può poi intervenire adattando il comunicato alle proprie esigenze e al proprio target.

Da tempo, peraltro, l’IA è usata nelle redazioni per gestire dati, aggregarli, elaborarli: soprattutto quando essi sono in numero enorme. Pensiamo agli sviluppi del data journalism che si sono avuti, per esempio, nel periodo della pandemia. Ora però le cose sono diverse. Ora i programmi di IA sono in grado di sostituire alcune attività tipicamente giornalistiche.

Un altro modo d’incidere con questi programmi nello spazio dell’informazione riguarda poi il posizionamento delle notizie. Qui la tecnologia non propone più informazioni già confezionate, ma le seleziona in base al loro appeal. Definisce cioè secondo criteri precisi la presentazione delle notizie, ad esempio nella pagina di un sito giornalistico. Si realizza in tal modo un intervento mirato di agenda setting.

Di quali criteri si tratta? Sono ovviamente gli stessi usati dai motori di ricerca, dato che si vuole che il sito d’informazione risulti per i suoi contenuti ai primi posti fra le notizie indicizzate. Sono, come sappiamo, i criteri costituiti dal numero di visite al sito, dalla quantità di link con cui è collegato ad altri siti della rete, dall’utilizzo di determinate parole chiave che in un certo momento risultano di particolare interesse.

Di conseguenza la dignità e il posizionamento di una notizia finiscono per dipendere dai gusti del pubblico che deve essere informato. Lo stesso effetto che è proprio dei Social – la cosiddetta filter bubble, vale a dire la bolla di filtraggio rispetto alla quale una persona trova in una rete sociale solo gente che la pensa come lei – adesso, grazie all’uso di ben precisi algoritmi, viene esteso all’intero ambito dell’informazione. Con un effetto di circolarità – io trovo messe in evidenza in rete proprio le notizie che mi aspetto – che falsa la percezione di ciò che sta accadendo d’importante, di significativo per tutti, nel mondo.

Tutto ciò, e molto altro, sta maturando con l’applicazione dell’IA all’ambito della comunicazione giornalistica. Le conseguenze per la professione sono molteplici. Non è detto che tali processi possano essere tout court fermati: i criteri dell’efficacia e dell’efficienza, e soprattutto la convenienza economica nell’utilizzo di tali programmi, spingono a proseguire nella loro elaborazione e applicazione. Tuttavia è bene essere consapevoli di ciò che tali trasformazioni comportano, anche per evitare semplicemente di subirle. Su tre di queste conseguenze mi voglio brevemente soffermare: i cambiamenti nella professione giornalistica; i cambiamenti nella qualità dell’informazione; i cambiamenti nella fruizione dell’informazione stessa.

Del primo punto si parla già da tempo. Come nel caso di altre professioni, ciò che si teme è che – invece di un miglioramento e di un potenziamento della propria attività, dovuto all’affiancamento dell’agente artificiale all’agente umano – si realizzi piuttosto anche qui, nel migliore dei casi, un deskilling, cioè una perdita di competenze da parte del professionista, e nel peggiore, in prospettiva, una sostituzione di ciò che questi può fare con ciò che più velocemente e più compiutamente è in grado di fare il programma di IA. Non si tratta solo di una probabile perdita di posti di lavoro. Rispetto a tale rischio, peraltro, la risposta dei fautori del progresso tecnologico è sempre la solita: certi sviluppi porteranno all’eliminazione di attività banali e ripetitive, e costringeranno gli esseri umani a elaborare ulteriori loro capacità. Si tratta invece di fare in modo che, in questa sostituzione, non vengano meno alcune caratteristiche fondamentali della professione giornalistica. Sono quelle che richiamavo prima: l’interpretazione dei dati, la loro contestualizzazione, il loro collegamento ad altri ambiti d’interesse dei possibili lettori, la loro presentazione a pubblici di volta in volta differenziati.

Riguardo al secondo punto, quello relativo ai cambiamenti nella qualità dell’informazione, non mi riferisco solamente alla correttezza delle notizie elaborate e proposte mediante un algoritmo. Sappiamo che non sempre tale correttezza è garantita, specialmente nelle prime fasi dell’utilizzo di un GPT: tanto che si è dovuto procedere già varie volte alla rettifica (compiuta dagli esseri umani) di informazioni rilasciate da un programma di IA. Sappiamo però, anche, che l’addestramento del programma porta di solito a un progressivo miglioramento della sua affidabilità. Mi riferisco invece, soprattutto, al tipo di notizia che viene diffuso e al modo in cui le informazioni sono presentate e veicolate. Rispetto a ciò è necessario intervenire preventivamente nell’elaborazione di certi programmi, inserendovi criteri che possano permettere di selezionare le informazioni secondo le differenti esigenze del dibattito pubblico. Ciò che va evitato, sia per quanto riguarda i contenuti che per quel che concerne le modalità della loro diffusione, è insomma che venga fatta una selezione sulla base di un criterio unilaterale: com’è ad esempio quello, d’impianto utilitaristico, che privilegia il numero dei contatti realizzati e realizzabili nel web. Già oggi, d’altronde, gli informatici sono in grado di elaborare programmi di IA anche inserendovi altri criteri per il loro funzionamento.

Quanto all’ultimo aspetto menzionato, esso riguarda l’opinione pubblica, o ciò che oggi può essere detta tale. Ho già mostrato altrove che, nell’epoca dei Social, l’opinione pubblica si è trasformata in un pubblico di opinionisti. Adesso questo pubblico, dopo aver rinunciato alla possibilità di una costruttiva sintesi fra i vari gruppi di opinione, rischia di dover rinunciare anche a quella capacità d’interazione che si realizza tra le diverse posizioni e tra i vari portatori d’interesse che sono collocati all’interno dello spazio democratico, nella misura in cui tale spazio, grazie alle sue regole, consente di prendere una decisione comune. Ciò può accadere non solo perché non ci sono più unicamente soggetti umani a gestire le informazioni, ma soprattutto perché, in prospettiva, gli agenti artificiali che li sostituiscono sono in grado, grazie alla loro potenza, di occupare e d’indirizzare ogni dimensione del dibattito pubblico. Se ciò accadesse, però, dovremmo rinunciare a quelle forme di manifestazione democratica che proprio sulla libertà d’informazione e di espressione trovano il loro fondamento.

L’ETICA DI CUI ABBIAMO BISOGNO

In conclusione – e in parte correggendo quanto ho detto inizialmente – se pure è vero che ogni riflessione sugli sviluppi tecnologici rischia d’invecchiare precocemente, è altrettanto vero che, anche grazie alla capacità anticipativa e allo sguardo lungo che, sulla base delle esperienze passate, il pensiero umano può rivolgere al futuro, è bene riflettere fin da subito su certe situazioni che stanno maturando. È bene farlo non già con l’intenzione – ingenua e velleitaria – di bloccare immediatamente il loro procedere, bensì con la volontà di comprenderle, con l’idea di accompagnarle, con l’intenzione di evitare che certi esiti vengano acriticamente accolti: come in parte è avvenuto nel recente passato e come rischia ancora di accadere, per la tendenza umana ad accettare una sorta di “servitù volontaria”.

E invece per il raggiungimento di questi scopi può essere d’aiuto l’etica. A ciò, più precisamente, può servire l’etica dell’interazione fra l’agire umano e l’agire dei dispositivi artificiali. È quanto tutti noi, sia nelle nostre professioni che nelle attività che fuoriescono dalla sfera professionale, è importante che impariamo fin d’ora a conoscere e a praticare.

Ultima modifica: Sab 7 Ott 2023