desk

  • Genova, alimentare la fiducia. Intervista ad Angelo Bagnasco

    Sul nuovo numero della rivista Desk (“Raccontare la Città”) c’è anche un’ampia intervista al cardinale Angelo Bagnasco, arcivescovo di Genova. L’ha incontrato Laura Ferrero, che è anche la presidente dell’Ucsi Liguria.
    Vi proponiamo l’intervista oggi, in #deskdelladomenica.

  • Giornalismo e intelligenza artificiale: la questione etica di cui parla Adriano Fabris

    SE L’INTELLIGENZA ARTIFICIALE SUPERA L’UOMO

    Quando uno scrive di sviluppi tecnologici il rischio è sempre quello di dire cose che, quando poi verranno lette, non saranno più aggiornate e, dunque, non risulteranno pienamente corrette. Gli sviluppi tecnologici procedono infatti più velocemente di quanto non riusciamo a pensarli. Interviene qui una sorta di obsolescenza, certo: che non è solo quella dei dispositivi, i quali come sappiamo rischiano di essere già superati – per esprimerci in maniera un po’ paradossale – non appena è promossa la loro commercializzazione, bensì è quella delle nostre stesse riflessioni, che non riescono a essere sempre allineate a ciò che sta accadendo.

    Nel momento in cui scrivo, per esempio, non si parla più di metaverso: argomento di moda, nei suoi pro e nei suoi contro, fino a qualche tempo fa. Non che la questione relativa alla presenza di ambienti virtuali, da vivere in parallelo all’ambiente fisico in cui siamo collocati e ai vari ambienti online in cui ormai abitualmente ci muoviamo, non sia più oggetto d’interesse per le grandi companies. Certamente, però, ciò che sembrava a un passo dalla realizzazione e dall’utilizzo massivo – su di un piano ludico, educativo, di training – si è visto che richiede ancora molti sforzi nella ricerca e molti investimenti economici. Adesso è invece l’ambito della cosiddetta intelligenza artificiale a suscitare attenzione e preoccupazione. Soprattutto per quanto riguarda una serie di sue applicazioni, che sembrano poter cambiare profondamente i nostri modi di vivere e di rapportarci al mondo.

    Mi riferisco per esempio alla cosiddetta intelligenza artificiale generativa. Essa costituisce un’articolazione dell’intelligenza artificiale (IA) nella quale l’uso di algoritmi è finalizzato a generare contenuti: ad esempio, testi, immagini, suoni. GPT (Generative Pre-trained Transformer) è uno degli algoritmi generativi più famosi. Si tratta più precisamente di un modello d’intelligenza artificiale generativa linguistica sviluppato dall’azienda Open AI. La sua fama è dovuta al fatto che una sua versione conversazionale – Chat GPT – è stata rilasciata pubblicamente e gratuitamente allo scopo di “addestrare” il programma, vale a dire per fare in modo che, grazie all’interazione con gli utenti, esso venisse sempre più perfezionato nella sua capacità di generare testi plausibili e coerenti. Una delle caratteristiche dei programmi di IA è infatti quello di poter “imparare”, cioè di modificare i propri “comportamenti”, attraverso l’interazione con un ambiente (N.B.: le virgolette qui usate servono a rimarcare il fatto che, pur usando gli stessi termini, sto parlando di agenti artificiali e non di agenti umani).

    Questo aspetto, cioè la capacità di conoscere un’implementazione e di “imparare” nell’interazione con l’ambiente, è ciò che maggiormente sta suscitando attenzione nel dibattito pubblico. Ciò avviene per almeno due motivi. Il primo è che, in tal modo, i programmi di IA manifestano un certo, variabile grado di autonomia e, appunto perciò, possono sfuggire alla previsione e al controllo dell’essere umano che li ha elaborati. Il secondo è che, proprio in relazione a questo aspetto di autonomia che sono in grado di manifestare, essi sembrano altresì esprimere una sorta di “creatività”: la capacità cioè di sviluppare contenuti nuovi, in forme in qualche modo pure nuove, a partire da un bagaglio di nozioni già posseduto (o magari attinto dal web).

    Quest’ultimo aspetto sta suscitando una diffusa preoccupazione. Finora si riteneva che autonomia e creatività fossero caratteristiche proprie solo degli esseri umani. Finora si credeva che certe attività animate da tali caratteristiche fossero monopolio solo di certe categorie di persone. Finora si pensava che certe professioni non potessero affatto essere esercitate da semplici programmi. Ora pare invece che non sia più così. E dunque ciò che Günther Anders aveva chiamato “vergogna prometeica” – lo stato d’animo dell’essere umano nei confronti di un’entità artificiale più perfezionata e performante – sembra essere una sensazione sempre più giustificata e diffusa.

    L’INTELLIGENZA ARTIFICIALE IN REDAZIONE E NELLE PERCEZIONI DEL PUBBLICO

    La professione giornalistica è indubbiamente una professione creativa. Non si tratta solamente di raccogliere e diffondere informazioni, ma di verificarle, certificarle, interpretarle, contestualizzarle, proporle in maniera giusta e comprensibile al proprio pubblico. Per far questo non basta conoscere i fatti: bisogna saperli confezionare secondo forme adeguate che s’imparano con gli anni. Anche in questo consiste il mestiere del giornalista.

    Nel momento in cui scrivo è appena stata commentata la notizia – ad esempio in un articolo di Pietro Minto sul “Foglio quotidiano” del 26 luglio scorso, ma prima ancora in un altro articolo di Simone Cosimi del 21 luglio su repubblica.it – dello sviluppo di una serie di programmi volti ad “aiutare” le redazioni nello svolgimento del loro lavoro. Si parla ad esempio di trattative fra varie testate giornalistiche, ad esempio il “New York Times”, e Google per l’utilizzo di Genesis (clicca qui), e dell’elaborazione, in Italia, di contents.com. Si tratta di programmi in grado di generare testi utilizzabili a fini giornalistici. Contents.com ad esempio, la piattaforma sviluppata da Massimiliano Squillace, intende fornire ai suoi fruitori il materiale grezzo per un articolo: dati, informazioni e anche immagini già confezionati in una maniera pressoché pubblicabile, che attendono solo l’ultima mano del giornalista per una verifica o per l’aggiunta di una nota di colore. Analogamente può accadere nel caso dei comunicati stampa. In questo caso la tecnologia GPT è in grado di mettere a disposizione del comunicatore pubblico una bozza di testo su cui egli può poi intervenire adattando il comunicato alle proprie esigenze e al proprio target.

    Da tempo, peraltro, l’IA è usata nelle redazioni per gestire dati, aggregarli, elaborarli: soprattutto quando essi sono in numero enorme. Pensiamo agli sviluppi del data journalism che si sono avuti, per esempio, nel periodo della pandemia. Ora però le cose sono diverse. Ora i programmi di IA sono in grado di sostituire alcune attività tipicamente giornalistiche.

    Un altro modo d’incidere con questi programmi nello spazio dell’informazione riguarda poi il posizionamento delle notizie. Qui la tecnologia non propone più informazioni già confezionate, ma le seleziona in base al loro appeal. Definisce cioè secondo criteri precisi la presentazione delle notizie, ad esempio nella pagina di un sito giornalistico. Si realizza in tal modo un intervento mirato di agenda setting.

    Di quali criteri si tratta? Sono ovviamente gli stessi usati dai motori di ricerca, dato che si vuole che il sito d’informazione risulti per i suoi contenuti ai primi posti fra le notizie indicizzate. Sono, come sappiamo, i criteri costituiti dal numero di visite al sito, dalla quantità di link con cui è collegato ad altri siti della rete, dall’utilizzo di determinate parole chiave che in un certo momento risultano di particolare interesse.

    Di conseguenza la dignità e il posizionamento di una notizia finiscono per dipendere dai gusti del pubblico che deve essere informato. Lo stesso effetto che è proprio dei Social – la cosiddetta filter bubble, vale a dire la bolla di filtraggio rispetto alla quale una persona trova in una rete sociale solo gente che la pensa come lei – adesso, grazie all’uso di ben precisi algoritmi, viene esteso all’intero ambito dell’informazione. Con un effetto di circolarità – io trovo messe in evidenza in rete proprio le notizie che mi aspetto – che falsa la percezione di ciò che sta accadendo d’importante, di significativo per tutti, nel mondo.

    Tutto ciò, e molto altro, sta maturando con l’applicazione dell’IA all’ambito della comunicazione giornalistica. Le conseguenze per la professione sono molteplici. Non è detto che tali processi possano essere tout court fermati: i criteri dell’efficacia e dell’efficienza, e soprattutto la convenienza economica nell’utilizzo di tali programmi, spingono a proseguire nella loro elaborazione e applicazione. Tuttavia è bene essere consapevoli di ciò che tali trasformazioni comportano, anche per evitare semplicemente di subirle. Su tre di queste conseguenze mi voglio brevemente soffermare: i cambiamenti nella professione giornalistica; i cambiamenti nella qualità dell’informazione; i cambiamenti nella fruizione dell’informazione stessa.

    Del primo punto si parla già da tempo. Come nel caso di altre professioni, ciò che si teme è che – invece di un miglioramento e di un potenziamento della propria attività, dovuto all’affiancamento dell’agente artificiale all’agente umano – si realizzi piuttosto anche qui, nel migliore dei casi, un deskilling, cioè una perdita di competenze da parte del professionista, e nel peggiore, in prospettiva, una sostituzione di ciò che questi può fare con ciò che più velocemente e più compiutamente è in grado di fare il programma di IA. Non si tratta solo di una probabile perdita di posti di lavoro. Rispetto a tale rischio, peraltro, la risposta dei fautori del progresso tecnologico è sempre la solita: certi sviluppi porteranno all’eliminazione di attività banali e ripetitive, e costringeranno gli esseri umani a elaborare ulteriori loro capacità. Si tratta invece di fare in modo che, in questa sostituzione, non vengano meno alcune caratteristiche fondamentali della professione giornalistica. Sono quelle che richiamavo prima: l’interpretazione dei dati, la loro contestualizzazione, il loro collegamento ad altri ambiti d’interesse dei possibili lettori, la loro presentazione a pubblici di volta in volta differenziati.

    Riguardo al secondo punto, quello relativo ai cambiamenti nella qualità dell’informazione, non mi riferisco solamente alla correttezza delle notizie elaborate e proposte mediante un algoritmo. Sappiamo che non sempre tale correttezza è garantita, specialmente nelle prime fasi dell’utilizzo di un GPT: tanto che si è dovuto procedere già varie volte alla rettifica (compiuta dagli esseri umani) di informazioni rilasciate da un programma di IA. Sappiamo però, anche, che l’addestramento del programma porta di solito a un progressivo miglioramento della sua affidabilità. Mi riferisco invece, soprattutto, al tipo di notizia che viene diffuso e al modo in cui le informazioni sono presentate e veicolate. Rispetto a ciò è necessario intervenire preventivamente nell’elaborazione di certi programmi, inserendovi criteri che possano permettere di selezionare le informazioni secondo le differenti esigenze del dibattito pubblico. Ciò che va evitato, sia per quanto riguarda i contenuti che per quel che concerne le modalità della loro diffusione, è insomma che venga fatta una selezione sulla base di un criterio unilaterale: com’è ad esempio quello, d’impianto utilitaristico, che privilegia il numero dei contatti realizzati e realizzabili nel web. Già oggi, d’altronde, gli informatici sono in grado di elaborare programmi di IA anche inserendovi altri criteri per il loro funzionamento.

    Quanto all’ultimo aspetto menzionato, esso riguarda l’opinione pubblica, o ciò che oggi può essere detta tale. Ho già mostrato altrove che, nell’epoca dei Social, l’opinione pubblica si è trasformata in un pubblico di opinionisti. Adesso questo pubblico, dopo aver rinunciato alla possibilità di una costruttiva sintesi fra i vari gruppi di opinione, rischia di dover rinunciare anche a quella capacità d’interazione che si realizza tra le diverse posizioni e tra i vari portatori d’interesse che sono collocati all’interno dello spazio democratico, nella misura in cui tale spazio, grazie alle sue regole, consente di prendere una decisione comune. Ciò può accadere non solo perché non ci sono più unicamente soggetti umani a gestire le informazioni, ma soprattutto perché, in prospettiva, gli agenti artificiali che li sostituiscono sono in grado, grazie alla loro potenza, di occupare e d’indirizzare ogni dimensione del dibattito pubblico. Se ciò accadesse, però, dovremmo rinunciare a quelle forme di manifestazione democratica che proprio sulla libertà d’informazione e di espressione trovano il loro fondamento.

    L’ETICA DI CUI ABBIAMO BISOGNO

    In conclusione – e in parte correggendo quanto ho detto inizialmente – se pure è vero che ogni riflessione sugli sviluppi tecnologici rischia d’invecchiare precocemente, è altrettanto vero che, anche grazie alla capacità anticipativa e allo sguardo lungo che, sulla base delle esperienze passate, il pensiero umano può rivolgere al futuro, è bene riflettere fin da subito su certe situazioni che stanno maturando. È bene farlo non già con l’intenzione – ingenua e velleitaria – di bloccare immediatamente il loro procedere, bensì con la volontà di comprenderle, con l’idea di accompagnarle, con l’intenzione di evitare che certi esiti vengano acriticamente accolti: come in parte è avvenuto nel recente passato e come rischia ancora di accadere, per la tendenza umana ad accettare una sorta di “servitù volontaria”.

    E invece per il raggiungimento di questi scopi può essere d’aiuto l’etica. A ciò, più precisamente, può servire l’etica dell’interazione fra l’agire umano e l’agire dei dispositivi artificiali. È quanto tutti noi, sia nelle nostre professioni che nelle attività che fuoriescono dalla sfera professionale, è importante che impariamo fin d’ora a conoscere e a praticare.

  • Giornalismo e intelligenza artificiale. Una questione etica

    SE L’INTELLIGENZA ARTIFICIALE SUPERA L’UOMO

    Quando uno scrive di sviluppi tecnologici il rischio è sempre quello di dire cose che, quando poi verranno lette, non saranno più aggiornate e, dunque, non risulteranno pienamente corrette. Gli sviluppi tecnologici procedono infatti più velocemente di quanto non riusciamo a pensarli. Interviene qui una sorta di obsolescenza, certo: che non è solo quella dei dispositivi, i quali come sappiamo rischiano di essere già superati – per esprimerci in maniera un po’ paradossale – non appena è promossa la loro commercializzazione, bensì è quella delle nostre stesse riflessioni, che non riescono a essere sempre allineate a ciò che sta accadendo.

    Nel momento in cui scrivo, per esempio, non si parla più di metaverso: argomento di moda, nei suoi pro e nei suoi contro, fino a qualche tempo fa. Non che la questione relativa alla presenza di ambienti virtuali, da vivere in parallelo all’ambiente fisico in cui siamo collocati e ai vari ambienti online in cui ormai abitualmente ci muoviamo, non sia più oggetto d’interesse per le grandi companies. Certamente, però, ciò che sembrava a un passo dalla realizzazione e dall’utilizzo massivo – su di un piano ludico, educativo, di training – si è visto che richiede ancora molti sforzi nella ricerca e molti investimenti economici. Adesso è invece l’ambito della cosiddetta intelligenza artificiale a suscitare attenzione e preoccupazione. Soprattutto per quanto riguarda una serie di sue applicazioni, che sembrano poter cambiare profondamente i nostri modi di vivere e di rapportarci al mondo.

    Mi riferisco per esempio alla cosiddetta intelligenza artificiale generativa. Essa costituisce un’articolazione dell’intelligenza artificiale (IA) nella quale l’uso di algoritmi è finalizzato a generare contenuti: ad esempio, testi, immagini, suoni. GPT (Generative Pre-trained Transformer) è uno degli algoritmi generativi più famosi. Si tratta più precisamente di un modello d’intelligenza artificiale generativa linguistica sviluppato dall’azienda Open AI. La sua fama è dovuta al fatto che una sua versione conversazionale – Chat GPT – è stata rilasciata pubblicamente e gratuitamente allo scopo di “addestrare” il programma, vale a dire per fare in modo che, grazie all’interazione con gli utenti, esso venisse sempre più perfezionato nella sua capacità di generare testi plausibili e coerenti. Una delle caratteristiche dei programmi di IA è infatti quello di poter “imparare”, cioè di modificare i propri “comportamenti”, attraverso l’interazione con un ambiente (N.B.: le virgolette qui usate servono a rimarcare il fatto che, pur usando gli stessi termini, sto parlando di agenti artificiali e non di agenti umani).

    Questo aspetto, cioè la capacità di conoscere un’implementazione e di “imparare” nell’interazione con l’ambiente, è ciò che maggiormente sta suscitando attenzione nel dibattito pubblico. Ciò avviene per almeno due motivi. Il primo è che, in tal modo, i programmi di IA manifestano un certo, variabile grado di autonomia e, appunto perciò, possono sfuggire alla previsione e al controllo dell’essere umano che li ha elaborati. Il secondo è che, proprio in relazione a questo aspetto di autonomia che sono in grado di manifestare, essi sembrano altresì esprimere una sorta di “creatività”: la capacità cioè di sviluppare contenuti nuovi, in forme in qualche modo pure nuove, a partire da un bagaglio di nozioni già posseduto (o magari attinto dal web).

    Quest’ultimo aspetto sta suscitando una diffusa preoccupazione. Finora si riteneva che autonomia e creatività fossero caratteristiche proprie solo degli esseri umani. Finora si credeva che certe attività animate da tali caratteristiche fossero monopolio solo di certe categorie di persone. Finora si pensava che certe professioni non potessero affatto essere esercitate da semplici programmi. Ora pare invece che non sia più così. E dunque ciò che Günther Anders aveva chiamato “vergogna prometeica” – lo stato d’animo dell’essere umano nei confronti di un’entità artificiale più perfezionata e performante – sembra essere una sensazione sempre più giustificata e diffusa.

    L’INTELLIGENZA ARTIFICIALE IN REDAZIONE E NELLE PERCEZIONI DEL PUBBLICO

    La professione giornalistica è indubbiamente una professione creativa. Non si tratta solamente di raccogliere e diffondere informazioni, ma di verificarle, certificarle, interpretarle, contestualizzarle, proporle in maniera giusta e comprensibile al proprio pubblico. Per far questo non basta conoscere i fatti: bisogna saperli confezionare secondo forme adeguate che s’imparano con gli anni. Anche in questo consiste il mestiere del giornalista.

    Nel momento in cui scrivo è appena stata commentata la notizia – ad esempio in un articolo di Pietro Minto sul “Foglio quotidiano” del 26 luglio scorso, ma prima ancora in un altro articolo di Simone Cosimi del 21 luglio su repubblica.it – dello sviluppo di una serie di programmi volti ad “aiutare” le redazioni nello svolgimento del loro lavoro. Si parla ad esempio di trattative fra varie testate giornalistiche, ad esempio il “New York Times”, e Google per l’utilizzo di Genesis (clicca qui), e dell’elaborazione, in Italia, di contents.com. Si tratta di programmi in grado di generare testi utilizzabili a fini giornalistici. Contents.com ad esempio, la piattaforma sviluppata da Massimiliano Squillace, intende fornire ai suoi fruitori il materiale grezzo per un articolo: dati, informazioni e anche immagini già confezionati in una maniera pressoché pubblicabile, che attendono solo l’ultima mano del giornalista per una verifica o per l’aggiunta di una nota di colore. Analogamente può accadere nel caso dei comunicati stampa. In questo caso la tecnologia GPT è in grado di mettere a disposizione del comunicatore pubblico una bozza di testo su cui egli può poi intervenire adattando il comunicato alle proprie esigenze e al proprio target.

    Da tempo, peraltro, l’IA è usata nelle redazioni per gestire dati, aggregarli, elaborarli: soprattutto quando essi sono in numero enorme. Pensiamo agli sviluppi del data journalism che si sono avuti, per esempio, nel periodo della pandemia. Ora però le cose sono diverse. Ora i programmi di IA sono in grado di sostituire alcune attività tipicamente giornalistiche.

    Un altro modo d’incidere con questi programmi nello spazio dell’informazione riguarda poi il posizionamento delle notizie. Qui la tecnologia non propone più informazioni già confezionate, ma le seleziona in base al loro appeal. Definisce cioè secondo criteri precisi la presentazione delle notizie, ad esempio nella pagina di un sito giornalistico. Si realizza in tal modo un intervento mirato di agenda setting.

    Di quali criteri si tratta? Sono ovviamente gli stessi usati dai motori di ricerca, dato che si vuole che il sito d’informazione risulti per i suoi contenuti ai primi posti fra le notizie indicizzate. Sono, come sappiamo, i criteri costituiti dal numero di visite al sito, dalla quantità di link con cui è collegato ad altri siti della rete, dall’utilizzo di determinate parole chiave che in un certo momento risultano di particolare interesse.

    Di conseguenza la dignità e il posizionamento di una notizia finiscono per dipendere dai gusti del pubblico che deve essere informato. Lo stesso effetto che è proprio dei Social – la cosiddetta filter bubble, vale a dire la bolla di filtraggio rispetto alla quale una persona trova in una rete sociale solo gente che la pensa come lei – adesso, grazie all’uso di ben precisi algoritmi, viene esteso all’intero ambito dell’informazione. Con un effetto di circolarità – io trovo messe in evidenza in rete proprio le notizie che mi aspetto – che falsa la percezione di ciò che sta accadendo d’importante, di significativo per tutti, nel mondo.

    Tutto ciò, e molto altro, sta maturando con l’applicazione dell’IA all’ambito della comunicazione giornalistica. Le conseguenze per la professione sono molteplici. Non è detto che tali processi possano essere tout court fermati: i criteri dell’efficacia e dell’efficienza, e soprattutto la convenienza economica nell’utilizzo di tali programmi, spingono a proseguire nella loro elaborazione e applicazione. Tuttavia è bene essere consapevoli di ciò che tali trasformazioni comportano, anche per evitare semplicemente di subirle. Su tre di queste conseguenze mi voglio brevemente soffermare: i cambiamenti nella professione giornalistica; i cambiamenti nella qualità dell’informazione; i cambiamenti nella fruizione dell’informazione stessa.

    Del primo punto si parla già da tempo. Come nel caso di altre professioni, ciò che si teme è che – invece di un miglioramento e di un potenziamento della propria attività, dovuto all’affiancamento dell’agente artificiale all’agente umano – si realizzi piuttosto anche qui, nel migliore dei casi, un deskilling, cioè una perdita di competenze da parte del professionista, e nel peggiore, in prospettiva, una sostituzione di ciò che questi può fare con ciò che più velocemente e più compiutamente è in grado di fare il programma di IA. Non si tratta solo di una probabile perdita di posti di lavoro. Rispetto a tale rischio, peraltro, la risposta dei fautori del progresso tecnologico è sempre la solita: certi sviluppi porteranno all’eliminazione di attività banali e ripetitive, e costringeranno gli esseri umani a elaborare ulteriori loro capacità. Si tratta invece di fare in modo che, in questa sostituzione, non vengano meno alcune caratteristiche fondamentali della professione giornalistica. Sono quelle che richiamavo prima: l’interpretazione dei dati, la loro contestualizzazione, il loro collegamento ad altri ambiti d’interesse dei possibili lettori, la loro presentazione a pubblici di volta in volta differenziati.

    Riguardo al secondo punto, quello relativo ai cambiamenti nella qualità dell’informazione, non mi riferisco solamente alla correttezza delle notizie elaborate e proposte mediante un algoritmo. Sappiamo che non sempre tale correttezza è garantita, specialmente nelle prime fasi dell’utilizzo di un GPT: tanto che si è dovuto procedere già varie volte alla rettifica (compiuta dagli esseri umani) di informazioni rilasciate da un programma di IA. Sappiamo però, anche, che l’addestramento del programma porta di solito a un progressivo miglioramento della sua affidabilità. Mi riferisco invece, soprattutto, al tipo di notizia che viene diffuso e al modo in cui le informazioni sono presentate e veicolate. Rispetto a ciò è necessario intervenire preventivamente nell’elaborazione di certi programmi, inserendovi criteri che possano permettere di selezionare le informazioni secondo le differenti esigenze del dibattito pubblico. Ciò che va evitato, sia per quanto riguarda i contenuti che per quel che concerne le modalità della loro diffusione, è insomma che venga fatta una selezione sulla base di un criterio unilaterale: com’è ad esempio quello, d’impianto utilitaristico, che privilegia il numero dei contatti realizzati e realizzabili nel web. Già oggi, d’altronde, gli informatici sono in grado di elaborare programmi di IA anche inserendovi altri criteri per il loro funzionamento.

    Quanto all’ultimo aspetto menzionato, esso riguarda l’opinione pubblica, o ciò che oggi può essere detta tale. Ho già mostrato altrove che, nell’epoca dei Social, l’opinione pubblica si è trasformata in un pubblico di opinionisti. Adesso questo pubblico, dopo aver rinunciato alla possibilità di una costruttiva sintesi fra i vari gruppi di opinione, rischia di dover rinunciare anche a quella capacità d’interazione che si realizza tra le diverse posizioni e tra i vari portatori d’interesse che sono collocati all’interno dello spazio democratico, nella misura in cui tale spazio, grazie alle sue regole, consente di prendere una decisione comune. Ciò può accadere non solo perché non ci sono più unicamente soggetti umani a gestire le informazioni, ma soprattutto perché, in prospettiva, gli agenti artificiali che li sostituiscono sono in grado, grazie alla loro potenza, di occupare e d’indirizzare ogni dimensione del dibattito pubblico. Se ciò accadesse, però, dovremmo rinunciare a quelle forme di manifestazione democratica che proprio sulla libertà d’informazione e di espressione trovano il loro fondamento.

    L’ETICA DI CUI ABBIAMO BISOGNO

    In conclusione – e in parte correggendo quanto ho detto inizialmente – se pure è vero che ogni riflessione sugli sviluppi tecnologici rischia d’invecchiare precocemente, è altrettanto vero che, anche grazie alla capacità anticipativa e allo sguardo lungo che, sulla base delle esperienze passate, il pensiero umano può rivolgere al futuro, è bene riflettere fin da subito su certe situazioni che stanno maturando. È bene farlo non già con l’intenzione – ingenua e velleitaria – di bloccare immediatamente il loro procedere, bensì con la volontà di comprenderle, con l’idea di accompagnarle, con l’intenzione di evitare che certi esiti vengano acriticamente accolti: come in parte è avvenuto nel recente passato e come rischia ancora di accadere, per la tendenza umana ad accettare una sorta di “servitù volontaria”.

    E invece per il raggiungimento di questi scopi può essere d’aiuto l’etica. A ciò, più precisamente, può servire l’etica dell’interazione fra l’agire umano e l’agire dei dispositivi artificiali. È quanto tutti noi, sia nelle nostre professioni che nelle attività che fuoriescono dalla sfera professionale, è importante che impariamo fin d’ora a conoscere e a praticare.

  • Giornalismo e intelligenza artificiale. Una questione etica

    SE L’INTELLIGENZA ARTIFICIALE SUPERA L’UOMO

    Quando uno scrive di sviluppi tecnologici il rischio è sempre quello di dire cose che, quando poi verranno lette, non saranno più aggiornate e, dunque, non risulteranno pienamente corrette. Gli sviluppi tecnologici procedono infatti più velocemente di quanto non riusciamo a pensarli. Interviene qui una sorta di obsolescenza, certo: che non è solo quella dei dispositivi, i quali come sappiamo rischiano di essere già superati – per esprimerci in maniera un po’ paradossale – non appena è promossa la loro commercializzazione, bensì è quella delle nostre stesse riflessioni, che non riescono a essere sempre allineate a ciò che sta accadendo.

    Nel momento in cui scrivo, per esempio, non si parla più di metaverso: argomento di moda, nei suoi pro e nei suoi contro, fino a qualche tempo fa. Non che la questione relativa alla presenza di ambienti virtuali, da vivere in parallelo all’ambiente fisico in cui siamo collocati e ai vari ambienti online in cui ormai abitualmente ci muoviamo, non sia più oggetto d’interesse per le grandi companies. Certamente, però, ciò che sembrava a un passo dalla realizzazione e dall’utilizzo massivo – su di un piano ludico, educativo, di training – si è visto che richiede ancora molti sforzi nella ricerca e molti investimenti economici. Adesso è invece l’ambito della cosiddetta intelligenza artificiale a suscitare attenzione e preoccupazione. Soprattutto per quanto riguarda una serie di sue applicazioni, che sembrano poter cambiare profondamente i nostri modi di vivere e di rapportarci al mondo.

    Mi riferisco per esempio alla cosiddetta intelligenza artificiale generativa. Essa costituisce un’articolazione dell’intelligenza artificiale (IA) nella quale l’uso di algoritmi è finalizzato a generare contenuti: ad esempio, testi, immagini, suoni. GPT (Generative Pre-trained Transformer) è uno degli algoritmi generativi più famosi. Si tratta più precisamente di un modello d’intelligenza artificiale generativa linguistica sviluppato dall’azienda Open AI. La sua fama è dovuta al fatto che una sua versione conversazionale – Chat GPT – è stata rilasciata pubblicamente e gratuitamente allo scopo di “addestrare” il programma, vale a dire per fare in modo che, grazie all’interazione con gli utenti, esso venisse sempre più perfezionato nella sua capacità di generare testi plausibili e coerenti. Una delle caratteristiche dei programmi di IA è infatti quello di poter “imparare”, cioè di modificare i propri “comportamenti”, attraverso l’interazione con un ambiente (N.B.: le virgolette qui usate servono a rimarcare il fatto che, pur usando gli stessi termini, sto parlando di agenti artificiali e non di agenti umani).

    Questo aspetto, cioè la capacità di conoscere un’implementazione e di “imparare” nell’interazione con l’ambiente, è ciò che maggiormente sta suscitando attenzione nel dibattito pubblico. Ciò avviene per almeno due motivi. Il primo è che, in tal modo, i programmi di IA manifestano un certo, variabile grado di autonomia e, appunto perciò, possono sfuggire alla previsione e al controllo dell’essere umano che li ha elaborati. Il secondo è che, proprio in relazione a questo aspetto di autonomia che sono in grado di manifestare, essi sembrano altresì esprimere una sorta di “creatività”: la capacità cioè di sviluppare contenuti nuovi, in forme in qualche modo pure nuove, a partire da un bagaglio di nozioni già posseduto (o magari attinto dal web).

    Quest’ultimo aspetto sta suscitando una diffusa preoccupazione. Finora si riteneva che autonomia e creatività fossero caratteristiche proprie solo degli esseri umani. Finora si credeva che certe attività animate da tali caratteristiche fossero monopolio solo di certe categorie di persone. Finora si pensava che certe professioni non potessero affatto essere esercitate da semplici programmi. Ora pare invece che non sia più così. E dunque ciò che Günther Anders aveva chiamato “vergogna prometeica” – lo stato d’animo dell’essere umano nei confronti di un’entità artificiale più perfezionata e performante – sembra essere una sensazione sempre più giustificata e diffusa.

    L’INTELLIGENZA ARTIFICIALE IN REDAZIONE E NELLE PERCEZIONI DEL PUBBLICO

    La professione giornalistica è indubbiamente una professione creativa. Non si tratta solamente di raccogliere e diffondere informazioni, ma di verificarle, certificarle, interpretarle, contestualizzarle, proporle in maniera giusta e comprensibile al proprio pubblico. Per far questo non basta conoscere i fatti: bisogna saperli confezionare secondo forme adeguate che s’imparano con gli anni. Anche in questo consiste il mestiere del giornalista.

    Nel momento in cui scrivo è appena stata commentata la notizia – ad esempio in un articolo di Pietro Minto sul “Foglio quotidiano” del 26 luglio scorso, ma prima ancora in un altro articolo di Simone Cosimi del 21 luglio su repubblica.it – dello sviluppo di una serie di programmi volti ad “aiutare” le redazioni nello svolgimento del loro lavoro. Si parla ad esempio di trattative fra varie testate giornalistiche, ad esempio il “New York Times”, e Google per l’utilizzo di Genesis (clicca qui), e dell’elaborazione, in Italia, di contents.com. Si tratta di programmi in grado di generare testi utilizzabili a fini giornalistici. Contents.com ad esempio, la piattaforma sviluppata da Massimiliano Squillace, intende fornire ai suoi fruitori il materiale grezzo per un articolo: dati, informazioni e anche immagini già confezionati in una maniera pressoché pubblicabile, che attendono solo l’ultima mano del giornalista per una verifica o per l’aggiunta di una nota di colore. Analogamente può accadere nel caso dei comunicati stampa. In questo caso la tecnologia GPT è in grado di mettere a disposizione del comunicatore pubblico una bozza di testo su cui egli può poi intervenire adattando il comunicato alle proprie esigenze e al proprio target.

    Da tempo, peraltro, l’IA è usata nelle redazioni per gestire dati, aggregarli, elaborarli: soprattutto quando essi sono in numero enorme. Pensiamo agli sviluppi del data journalism che si sono avuti, per esempio, nel periodo della pandemia. Ora però le cose sono diverse. Ora i programmi di IA sono in grado di sostituire alcune attività tipicamente giornalistiche.

    Un altro modo d’incidere con questi programmi nello spazio dell’informazione riguarda poi il posizionamento delle notizie. Qui la tecnologia non propone più informazioni già confezionate, ma le seleziona in base al loro appeal. Definisce cioè secondo criteri precisi la presentazione delle notizie, ad esempio nella pagina di un sito giornalistico. Si realizza in tal modo un intervento mirato di agenda setting.

    Di quali criteri si tratta? Sono ovviamente gli stessi usati dai motori di ricerca, dato che si vuole che il sito d’informazione risulti per i suoi contenuti ai primi posti fra le notizie indicizzate. Sono, come sappiamo, i criteri costituiti dal numero di visite al sito, dalla quantità di link con cui è collegato ad altri siti della rete, dall’utilizzo di determinate parole chiave che in un certo momento risultano di particolare interesse.

    Di conseguenza la dignità e il posizionamento di una notizia finiscono per dipendere dai gusti del pubblico che deve essere informato. Lo stesso effetto che è proprio dei Social – la cosiddetta filter bubble, vale a dire la bolla di filtraggio rispetto alla quale una persona trova in una rete sociale solo gente che la pensa come lei – adesso, grazie all’uso di ben precisi algoritmi, viene esteso all’intero ambito dell’informazione. Con un effetto di circolarità – io trovo messe in evidenza in rete proprio le notizie che mi aspetto – che falsa la percezione di ciò che sta accadendo d’importante, di significativo per tutti, nel mondo.

    Tutto ciò, e molto altro, sta maturando con l’applicazione dell’IA all’ambito della comunicazione giornalistica. Le conseguenze per la professione sono molteplici. Non è detto che tali processi possano essere tout court fermati: i criteri dell’efficacia e dell’efficienza, e soprattutto la convenienza economica nell’utilizzo di tali programmi, spingono a proseguire nella loro elaborazione e applicazione. Tuttavia è bene essere consapevoli di ciò che tali trasformazioni comportano, anche per evitare semplicemente di subirle. Su tre di queste conseguenze mi voglio brevemente soffermare: i cambiamenti nella professione giornalistica; i cambiamenti nella qualità dell’informazione; i cambiamenti nella fruizione dell’informazione stessa.

    Del primo punto si parla già da tempo. Come nel caso di altre professioni, ciò che si teme è che – invece di un miglioramento e di un potenziamento della propria attività, dovuto all’affiancamento dell’agente artificiale all’agente umano – si realizzi piuttosto anche qui, nel migliore dei casi, un deskilling, cioè una perdita di competenze da parte del professionista, e nel peggiore, in prospettiva, una sostituzione di ciò che questi può fare con ciò che più velocemente e più compiutamente è in grado di fare il programma di IA. Non si tratta solo di una probabile perdita di posti di lavoro. Rispetto a tale rischio, peraltro, la risposta dei fautori del progresso tecnologico è sempre la solita: certi sviluppi porteranno all’eliminazione di attività banali e ripetitive, e costringeranno gli esseri umani a elaborare ulteriori loro capacità. Si tratta invece di fare in modo che, in questa sostituzione, non vengano meno alcune caratteristiche fondamentali della professione giornalistica. Sono quelle che richiamavo prima: l’interpretazione dei dati, la loro contestualizzazione, il loro collegamento ad altri ambiti d’interesse dei possibili lettori, la loro presentazione a pubblici di volta in volta differenziati.

    Riguardo al secondo punto, quello relativo ai cambiamenti nella qualità dell’informazione, non mi riferisco solamente alla correttezza delle notizie elaborate e proposte mediante un algoritmo. Sappiamo che non sempre tale correttezza è garantita, specialmente nelle prime fasi dell’utilizzo di un GPT: tanto che si è dovuto procedere già varie volte alla rettifica (compiuta dagli esseri umani) di informazioni rilasciate da un programma di IA. Sappiamo però, anche, che l’addestramento del programma porta di solito a un progressivo miglioramento della sua affidabilità. Mi riferisco invece, soprattutto, al tipo di notizia che viene diffuso e al modo in cui le informazioni sono presentate e veicolate. Rispetto a ciò è necessario intervenire preventivamente nell’elaborazione di certi programmi, inserendovi criteri che possano permettere di selezionare le informazioni secondo le differenti esigenze del dibattito pubblico. Ciò che va evitato, sia per quanto riguarda i contenuti che per quel che concerne le modalità della loro diffusione, è insomma che venga fatta una selezione sulla base di un criterio unilaterale: com’è ad esempio quello, d’impianto utilitaristico, che privilegia il numero dei contatti realizzati e realizzabili nel web. Già oggi, d’altronde, gli informatici sono in grado di elaborare programmi di IA anche inserendovi altri criteri per il loro funzionamento.

    Quanto all’ultimo aspetto menzionato, esso riguarda l’opinione pubblica, o ciò che oggi può essere detta tale. Ho già mostrato altrove che, nell’epoca dei Social, l’opinione pubblica si è trasformata in un pubblico di opinionisti. Adesso questo pubblico, dopo aver rinunciato alla possibilità di una costruttiva sintesi fra i vari gruppi di opinione, rischia di dover rinunciare anche a quella capacità d’interazione che si realizza tra le diverse posizioni e tra i vari portatori d’interesse che sono collocati all’interno dello spazio democratico, nella misura in cui tale spazio, grazie alle sue regole, consente di prendere una decisione comune. Ciò può accadere non solo perché non ci sono più unicamente soggetti umani a gestire le informazioni, ma soprattutto perché, in prospettiva, gli agenti artificiali che li sostituiscono sono in grado, grazie alla loro potenza, di occupare e d’indirizzare ogni dimensione del dibattito pubblico. Se ciò accadesse, però, dovremmo rinunciare a quelle forme di manifestazione democratica che proprio sulla libertà d’informazione e di espressione trovano il loro fondamento.

    L’ETICA DI CUI ABBIAMO BISOGNO

    In conclusione – e in parte correggendo quanto ho detto inizialmente – se pure è vero che ogni riflessione sugli sviluppi tecnologici rischia d’invecchiare precocemente, è altrettanto vero che, anche grazie alla capacità anticipativa e allo sguardo lungo che, sulla base delle esperienze passate, il pensiero umano può rivolgere al futuro, è bene riflettere fin da subito su certe situazioni che stanno maturando. È bene farlo non già con l’intenzione – ingenua e velleitaria – di bloccare immediatamente il loro procedere, bensì con la volontà di comprenderle, con l’idea di accompagnarle, con l’intenzione di evitare che certi esiti vengano acriticamente accolti: come in parte è avvenuto nel recente passato e come rischia ancora di accadere, per la tendenza umana ad accettare una sorta di “servitù volontaria”.

    E invece per il raggiungimento di questi scopi può essere d’aiuto l’etica. A ciò, più precisamente, può servire l’etica dell’interazione fra l’agire umano e l’agire dei dispositivi artificiali. È quanto tutti noi, sia nelle nostre professioni che nelle attività che fuoriescono dalla sfera professionale, è importante che impariamo fin d’ora a conoscere e a praticare.

  • Giornalisti alla ricerca della fiducia tra la gente

    All'indomani del la decisione di assegnare il Nobel per la Pace a due giornlisti, c'è un altro dato che mostra come il giornalismo stia recuperando un po' di quella fiducia persa nel tempo. Oggi, nella nostra rubrica #deskdelladomenica, offriamo un interessante contributo che Federico Badaloni aveva scritto per la nostra rivista Desk poche settimane prima drlla pandemia. Anche oggi però, come allora, il tema della 'fiducia' tra giornalisti e cittadini è centrale nel dibattito sulla nostra professione (ar)

  • Giornata del Migrante - Il prossimo: l'orizzonte del volto e delle comunità per l'integrazione

    Oggi, domenica 29 settembre, si celebra la Giornata del Migrante. Abbiamo scelto per la rubrica #deskdelladomenica, per una lettura condivisa sul nostro sito, un contributo di padre Francesco Occhetta (estratto da "Desk" numero 4/2017, info e abbonamenti ucsi@ucsi.it). 

    Francesco Occhetta (2017)

    Il tema dell’immigrazione fa riemergere nella cultura la domanda delle domande: «Chi è il mio prossimo?». È questa la stella polare dell’Occidente che ha scelto di difendere e proteggere la dignità delle persone. Occorre farlo perché stanno gradualmente affiorando sentimenti di intolleranza profonda che, come piccole fiammelle, potrebbero devastare interi boschi.

  • Giornata del Migrante: il contributo della rivista Desk alla riflessione sul 'racconto giornalistico' delle migrazioni

    Si è celebrata domenica 14 gennaio la Giornata mondiale del migrante, con tante iniziative anche sui territori.

  • Giornata dell'infanzia: gli occhi dei bambini negli occhi del cronista

    Siamo all'indomani della Giornata mondiale per i diritti dei bambini (20 novembre). E allora oggi, per #deskdelladomenica, vi ripoponiamo un bell'articolo del 2017 di Desk, scritto da Angela Caponnetto (giornalista di Rainews). Ci porta a considerare ancora una volta il fenomeno dei minori che raggiungono il nostro Paese e l'Europa.

  • Gli abstract del nuovo numero di Desk sono nella nostro home page.

    Il numero di dicembre della rivista Desk, attualmente in distribuzione, è  quasi interamente dedicato al racconto giornalistico delle migrazioni, un fenomeno complesso e molto rilevante anche nel mondo della comunicazione. Il tema è stato al centro di una giornata di lavori all’ultima Scuola di formazione dell’Ucsi ad Assisi, e a questo proposito sul canale UcsiTV di YouTube c’è ora una intervista di Francesca Di Palma alla docente e giornalista Laura Silvia Battaglia (clicca qui per vederla o vai in fondo alla home page del sito). Più sotto, nella nostra home page, ci sono gli abstract di tutti gli articoli. Per info e per ricevere a casa Desk scrivi qui.

     

  • Gli italiani e il complesso rapporto con la lettura e i libri. E l’informazione

    Ormai, da qualche tempo, si è acceso un dibattito importante su cui ho avuto modo di riflettere e su cui sono intervenuto. Il motivo di questa polemica riguarda il rapporto degli italiani con la lettura e i libri.

  • Gli italiani e il complesso rapporto con la lettura e i libri. E l’informazione

    Ormai, da qualche tempo, si è acceso un dibattito importante su cui ho avuto modo di riflettere e su cui sono intervenuto. Il motivo di questa polemica riguarda il rapporto degli italiani con la lettura e i libri.

  • Gli obiettivi per lo sviluppo sostenibile e l'etica globale del giornalismo

    Abbiamo attraversato la più grande crisi sanitaria (e, di riflesso, economica e sociale) dal dopoguerra. Oggi, per la nostra rubrica #deskdelladomenica, riproponiamo un bell'articolo di Luciano Larivera sugli obiettivi 'ambientali' della comunità internazionale. E' quanto mai attuale, indica una strada che adesso, dopo il Covid, dovremo percorrere con maggiore tenacia (ar)

  • Gli obiettivi per lo sviluppo sostenibile e l'etica globale del giornalismo (2)

    Stiamo attraversando ancorala più grande crisi sanitaria (e, di riflesso, economica e sociale) dal dopoguerra. Oggi riproponiamo dalla nostra rivista Desk un bell'articolo di Luciano Larivera sugli obiettivi 'ambientali' della comunità internazionale. E' quanto mai attuale, indica una strada che adesso, dopo il Covid, dovremo percorrere con maggiore tenacia, L'autore, Padre Luciano Larivera, gesuita, giornalista e uomo di cultura, è da pochi giorni il nuovo segretario per gli affari europei al Jesuit European Social Centre di Bruxelles (ar)

  • Gli occhi dei bambini negli occhi del cronista

    Ancora il fenomeno dell'immigrazione al centro del #deskdelladomenica di oggi. L'occhio attento di Angela Caponnetto (giornalista di Rainews) ci porta a considerare il fenomeno dei minori che raggiungono il nostro Paese e l'Europa.

  • Gli uomini che odiano le donne (sui social)

    Quale ruolo hanno le donne nei media? E quali antidoti possiamo utilizzare contro il disprezzo e l’odio che si manifestano spesso nei loro confronti? L'articolo è contenuto nella nostra rivista Desk ed è stato scrutto pochi mesi prima della pandemia.

  • Homo Sapiens e Macchina Sapiens

    Proprio mentre valutiamo i drammatici effetti della pandemia anche sul lavoro e sull'economia, pubblichiamo un interessante contributo di Paolo Benanti, che nei suoi studi descrive il rapporto tra uomo e macchina, in un futuro che è già presente. E' un articolo scritto e pubblicato sulla nostra rivista Desk prima dell'emergenza di questi mesi, ma resta di grande attualità.

  • Homo Sapiens e Macchina Sapiens: il futuro del lavoro

    Anche nella nostra rubrica #deskdelladomenica, in queste settimane, proporremo scritti pubblicati sul numero di Desk interamente dedicato al lavoro (2017) e diffuso nell’imminenza delle 'Settimane Sociali’. Cominciamo dal contributo ricco di spunti di Paolo Benanti, docente di teologia morale e bioetica all'Università Gregoriana, che nei suoi studi descrive un futuro che è già presente e cha affronta il tema del rapporto tra uomo e macchina. Lo ha fatto anche durante la Scuola di Formazione dell’Ucsi, ad Assisi.

  • Homo Sapiens e Macchina Sapiens: il futuro possibile del lavoro

    Nella rubrica #deskdelladomenicariproponiamo oggi un significativo estratto dal numero di Desk interamente dedicato al lavoro (2017) e diffuso nell’imminenza delle 'Settimane Sociali’. L'articolo è di Paolo Benanti, docente di teologia morale e bioetica all'Università Gregoriana, che nei suoi studi descrive il rapporto tra uomo e macchina, in un futuro che è già presente. E' un contributo offerto alla vigilia dell'ultima delle 'Settimane Sociali' che si svolse a Cagliari nell'autunno 2017. Non tiene conto (non può farlo) di quanto è accaduto in questo 2020, ma può essere lo stesso un valido spunto di riflessione. (ar)

  • Homo Sapiens e Macchina Sapiens: quale futuro del lavoro?

    Nella rubrica #deskdelladomenicariproponiamo oggi un significativo estratto dal numero di Desk interamente dedicato al lavoro (2017) e diffuso nell’imminenza delle 'Settimane Sociali’. L'articolo è di Paolo Benanti, docente di teologia morale e bioetica all'Università Gregoriana, che nei suoi studi descrive il rapporto tra uomo e macchina, in un futuro che è già presente.

  • I 'Global Goals' e l'etica globale del giornalismo

    Per celebrare la Giornata della Terra oggi in #deskdelladomenica proponiamo alla vostra lettura un articolo integralmente pubblicato nei mesi scorsi sulla nostra rivista Desk. Luciano Larivera, gesuita e scrittore di "Civiltà Cattolica", interviene sugli obiettivi globali per lo sviluppo sostenibile e sul ruolo (per raggiungerli) dell'informazione.