deskdelladomenica

  • Desk per tutti, la seconda parte dell'ultimo numero (prima della pandemia)

    Offriamo alla lettura di tutti anche la seconda metà del nostro ultimo numero di Desk, la rivista diretta da Vania De Luca e dedicata, nell'ultimo numero prima del lockdown, all'"ordine delle notizie". Buona lettura allora, con #deskdelladomenica!.

  • Digitalizzare le città: le scelte di oggi già realizzano il futuro

    Nuovo appuntamento (l'ultimo di questo 2018) con la rubrica #deskdelladomenica. Proponiamo ancora un estratto dall'ultimo numero di Desk, che potete richiedere inviando una email a ucsi@ucsi.it

  • Digitalizzare le città. Le scelte di adesso già realizzano il futuro

    Ancora un interessante contributo tratto dall'ultimo numero della nostra rivista Desk. Per #deskdelladomenica proponiamo un articolo di Paolo Benanti sul 'cambiamento digitale' delle nostre città. Per ricevere in abbonamento la rivista potete scrivere a ucsi@ucsi.it

  • Emilio Rossi e il dibattito (di oggi) sul Servizio Pubblico e sulla coesione sociale

    "Oggi il servizio pubblico, per sopravvivere, dovrebbe intervenire eticamente sugli algoritmi che controllano la comunicazione. E adottare un indice di coesione sociale". Lo scriveva Andrea Melodia sulla nostra rivista Desk, a cui affidava un ricordo dell'indimenticato Emilio Rossi. Ad oltre tredici anni della sua scomparsa (avvenuta nel dicembre 2008) e in un momento in cui è forte il dibattito sulla Rai, vi riproponiamo tutto il suo interessante articolo anche sul sito www.ucsi.it (ar)

  • Emilio Rossi e la coesione sociale

    "Oggi il servizio pubblico, per sopravvivere, dovrebbe intervenire eticamente sugli algoritmi che controllano la comunicazione. E adottare un indice di coesione sociale". Lo scrive Andrea Melodia sulla nostra rivista Desk, a cui affida un ricordo dell'indimenticato Emilio Rossi. Nell'anniversario della sua morte (dicembre 2008) vi proponiamo tutto il suo interessante articolo anche sul sito www.ucsi.it. La rivista è disponibile in alcune librerie selazionate e su abbonamento. I soci Ucsi la ricevono gratis. Per informazioni ucsi@ucsi.it 

  • Emilio Rossi, il Servizio Pubblico e la coesione sociale

    "Oggi il servizio pubblico, per sopravvivere, dovrebbe intervenire eticamente sugli algoritmi che controllano la comunicazione. E adottare un indice di coesione sociale". Lo scriveva Andrea Melodia sulla nostra rivista Desk, a cui affidava un ricordo dell'indimenticato Emilio Rossi. Poche settimane dopo il tredicesimo anniversario della sua morte (dicembre 2008) e in un momento in cui è forte il dibattito sulla Rai, vi riproponiamo tutto il suo interessante articolo anche sul sito www.ucsi.it (ar)

  • Eroi di Strada

    Torna il nostro #deskdelladomenica. Oggi vi proponiamo il contributo di Ilenia Petracalvina, autrice (insieme a Giovanna Serpico) del programma 'Eroi di Strada', andato in onda nei mesi scorsi su Rai 2. E' uno sguardo sulle periferie delle nostre città, e sulle storie di chi vive lì. Anche questo articolo è contneuto nel nuovo numero di Desk, che i nostri iscritti ricevono già gratuitamente per posta (info e abbonamenti ucsi@ucsi.it)

  • Essere giornalisti cattolici, oggi. L'articolo di Paolo Ruffini sulla nostra rivista Desk (2016)

    Vi proponiamo, per la nostra rubrica #deskdelladomenica (sempre molto letta) l'articolo che Paolo Ruffini, neo Prefetto del dicastero per la Comunicazione della Santa sede, ci ha scritto per il primo numero di Desk del 2016, che riprendeva i contributi del congresso di Matera sulle sfide del giornalismo al tempo di Francesco. Allora Ruffini era direttore di tv2000, con un passato nei giornali, in Rai (radio e televisione) e a La7. Come dire, ne ha viste e vissute tante.

  • Francesco, otto anni di pontificato. Rileggiamo il suo discorso all'Ucsi

    Nel momento in cui papa Francesco celebra i suoi otto anni di pontificato, rileggiamo oggi l'intenso discorso che alcuni mesi fa (nel settembre 2019) pronuncio nell'udienza riservata ai giornalisti dell'Ucsi.  

    23 settembre 2019, Discorso del Santo Padre

    Cari fratelli e sorelle,
    do il mio benvenuto a tutti voi in occasione del 60° anniversario dell’Unione Cattolica della Stampa Italiana, e ringrazio la Presidente per le sue cortesi parole. È coraggiosa! Parla con forza!

  • Genova, alimentare la fiducia. Intervista ad Angelo Bagnasco

    Sul nuovo numero della rivista Desk (“Raccontare la Città”) c’è anche un’ampia intervista al cardinale Angelo Bagnasco, arcivescovo di Genova. L’ha incontrato Laura Ferrero, che è anche la presidente dell’Ucsi Liguria.
    Vi proponiamo l’intervista oggi, in #deskdelladomenica.

  • Giornalismo e intelligenza artificiale: la questione etica di cui parla Adriano Fabris

    SE L’INTELLIGENZA ARTIFICIALE SUPERA L’UOMO

    Quando uno scrive di sviluppi tecnologici il rischio è sempre quello di dire cose che, quando poi verranno lette, non saranno più aggiornate e, dunque, non risulteranno pienamente corrette. Gli sviluppi tecnologici procedono infatti più velocemente di quanto non riusciamo a pensarli. Interviene qui una sorta di obsolescenza, certo: che non è solo quella dei dispositivi, i quali come sappiamo rischiano di essere già superati – per esprimerci in maniera un po’ paradossale – non appena è promossa la loro commercializzazione, bensì è quella delle nostre stesse riflessioni, che non riescono a essere sempre allineate a ciò che sta accadendo.

    Nel momento in cui scrivo, per esempio, non si parla più di metaverso: argomento di moda, nei suoi pro e nei suoi contro, fino a qualche tempo fa. Non che la questione relativa alla presenza di ambienti virtuali, da vivere in parallelo all’ambiente fisico in cui siamo collocati e ai vari ambienti online in cui ormai abitualmente ci muoviamo, non sia più oggetto d’interesse per le grandi companies. Certamente, però, ciò che sembrava a un passo dalla realizzazione e dall’utilizzo massivo – su di un piano ludico, educativo, di training – si è visto che richiede ancora molti sforzi nella ricerca e molti investimenti economici. Adesso è invece l’ambito della cosiddetta intelligenza artificiale a suscitare attenzione e preoccupazione. Soprattutto per quanto riguarda una serie di sue applicazioni, che sembrano poter cambiare profondamente i nostri modi di vivere e di rapportarci al mondo.

    Mi riferisco per esempio alla cosiddetta intelligenza artificiale generativa. Essa costituisce un’articolazione dell’intelligenza artificiale (IA) nella quale l’uso di algoritmi è finalizzato a generare contenuti: ad esempio, testi, immagini, suoni. GPT (Generative Pre-trained Transformer) è uno degli algoritmi generativi più famosi. Si tratta più precisamente di un modello d’intelligenza artificiale generativa linguistica sviluppato dall’azienda Open AI. La sua fama è dovuta al fatto che una sua versione conversazionale – Chat GPT – è stata rilasciata pubblicamente e gratuitamente allo scopo di “addestrare” il programma, vale a dire per fare in modo che, grazie all’interazione con gli utenti, esso venisse sempre più perfezionato nella sua capacità di generare testi plausibili e coerenti. Una delle caratteristiche dei programmi di IA è infatti quello di poter “imparare”, cioè di modificare i propri “comportamenti”, attraverso l’interazione con un ambiente (N.B.: le virgolette qui usate servono a rimarcare il fatto che, pur usando gli stessi termini, sto parlando di agenti artificiali e non di agenti umani).

    Questo aspetto, cioè la capacità di conoscere un’implementazione e di “imparare” nell’interazione con l’ambiente, è ciò che maggiormente sta suscitando attenzione nel dibattito pubblico. Ciò avviene per almeno due motivi. Il primo è che, in tal modo, i programmi di IA manifestano un certo, variabile grado di autonomia e, appunto perciò, possono sfuggire alla previsione e al controllo dell’essere umano che li ha elaborati. Il secondo è che, proprio in relazione a questo aspetto di autonomia che sono in grado di manifestare, essi sembrano altresì esprimere una sorta di “creatività”: la capacità cioè di sviluppare contenuti nuovi, in forme in qualche modo pure nuove, a partire da un bagaglio di nozioni già posseduto (o magari attinto dal web).

    Quest’ultimo aspetto sta suscitando una diffusa preoccupazione. Finora si riteneva che autonomia e creatività fossero caratteristiche proprie solo degli esseri umani. Finora si credeva che certe attività animate da tali caratteristiche fossero monopolio solo di certe categorie di persone. Finora si pensava che certe professioni non potessero affatto essere esercitate da semplici programmi. Ora pare invece che non sia più così. E dunque ciò che Günther Anders aveva chiamato “vergogna prometeica” – lo stato d’animo dell’essere umano nei confronti di un’entità artificiale più perfezionata e performante – sembra essere una sensazione sempre più giustificata e diffusa.

    L’INTELLIGENZA ARTIFICIALE IN REDAZIONE E NELLE PERCEZIONI DEL PUBBLICO

    La professione giornalistica è indubbiamente una professione creativa. Non si tratta solamente di raccogliere e diffondere informazioni, ma di verificarle, certificarle, interpretarle, contestualizzarle, proporle in maniera giusta e comprensibile al proprio pubblico. Per far questo non basta conoscere i fatti: bisogna saperli confezionare secondo forme adeguate che s’imparano con gli anni. Anche in questo consiste il mestiere del giornalista.

    Nel momento in cui scrivo è appena stata commentata la notizia – ad esempio in un articolo di Pietro Minto sul “Foglio quotidiano” del 26 luglio scorso, ma prima ancora in un altro articolo di Simone Cosimi del 21 luglio su repubblica.it – dello sviluppo di una serie di programmi volti ad “aiutare” le redazioni nello svolgimento del loro lavoro. Si parla ad esempio di trattative fra varie testate giornalistiche, ad esempio il “New York Times”, e Google per l’utilizzo di Genesis (clicca qui), e dell’elaborazione, in Italia, di contents.com. Si tratta di programmi in grado di generare testi utilizzabili a fini giornalistici. Contents.com ad esempio, la piattaforma sviluppata da Massimiliano Squillace, intende fornire ai suoi fruitori il materiale grezzo per un articolo: dati, informazioni e anche immagini già confezionati in una maniera pressoché pubblicabile, che attendono solo l’ultima mano del giornalista per una verifica o per l’aggiunta di una nota di colore. Analogamente può accadere nel caso dei comunicati stampa. In questo caso la tecnologia GPT è in grado di mettere a disposizione del comunicatore pubblico una bozza di testo su cui egli può poi intervenire adattando il comunicato alle proprie esigenze e al proprio target.

    Da tempo, peraltro, l’IA è usata nelle redazioni per gestire dati, aggregarli, elaborarli: soprattutto quando essi sono in numero enorme. Pensiamo agli sviluppi del data journalism che si sono avuti, per esempio, nel periodo della pandemia. Ora però le cose sono diverse. Ora i programmi di IA sono in grado di sostituire alcune attività tipicamente giornalistiche.

    Un altro modo d’incidere con questi programmi nello spazio dell’informazione riguarda poi il posizionamento delle notizie. Qui la tecnologia non propone più informazioni già confezionate, ma le seleziona in base al loro appeal. Definisce cioè secondo criteri precisi la presentazione delle notizie, ad esempio nella pagina di un sito giornalistico. Si realizza in tal modo un intervento mirato di agenda setting.

    Di quali criteri si tratta? Sono ovviamente gli stessi usati dai motori di ricerca, dato che si vuole che il sito d’informazione risulti per i suoi contenuti ai primi posti fra le notizie indicizzate. Sono, come sappiamo, i criteri costituiti dal numero di visite al sito, dalla quantità di link con cui è collegato ad altri siti della rete, dall’utilizzo di determinate parole chiave che in un certo momento risultano di particolare interesse.

    Di conseguenza la dignità e il posizionamento di una notizia finiscono per dipendere dai gusti del pubblico che deve essere informato. Lo stesso effetto che è proprio dei Social – la cosiddetta filter bubble, vale a dire la bolla di filtraggio rispetto alla quale una persona trova in una rete sociale solo gente che la pensa come lei – adesso, grazie all’uso di ben precisi algoritmi, viene esteso all’intero ambito dell’informazione. Con un effetto di circolarità – io trovo messe in evidenza in rete proprio le notizie che mi aspetto – che falsa la percezione di ciò che sta accadendo d’importante, di significativo per tutti, nel mondo.

    Tutto ciò, e molto altro, sta maturando con l’applicazione dell’IA all’ambito della comunicazione giornalistica. Le conseguenze per la professione sono molteplici. Non è detto che tali processi possano essere tout court fermati: i criteri dell’efficacia e dell’efficienza, e soprattutto la convenienza economica nell’utilizzo di tali programmi, spingono a proseguire nella loro elaborazione e applicazione. Tuttavia è bene essere consapevoli di ciò che tali trasformazioni comportano, anche per evitare semplicemente di subirle. Su tre di queste conseguenze mi voglio brevemente soffermare: i cambiamenti nella professione giornalistica; i cambiamenti nella qualità dell’informazione; i cambiamenti nella fruizione dell’informazione stessa.

    Del primo punto si parla già da tempo. Come nel caso di altre professioni, ciò che si teme è che – invece di un miglioramento e di un potenziamento della propria attività, dovuto all’affiancamento dell’agente artificiale all’agente umano – si realizzi piuttosto anche qui, nel migliore dei casi, un deskilling, cioè una perdita di competenze da parte del professionista, e nel peggiore, in prospettiva, una sostituzione di ciò che questi può fare con ciò che più velocemente e più compiutamente è in grado di fare il programma di IA. Non si tratta solo di una probabile perdita di posti di lavoro. Rispetto a tale rischio, peraltro, la risposta dei fautori del progresso tecnologico è sempre la solita: certi sviluppi porteranno all’eliminazione di attività banali e ripetitive, e costringeranno gli esseri umani a elaborare ulteriori loro capacità. Si tratta invece di fare in modo che, in questa sostituzione, non vengano meno alcune caratteristiche fondamentali della professione giornalistica. Sono quelle che richiamavo prima: l’interpretazione dei dati, la loro contestualizzazione, il loro collegamento ad altri ambiti d’interesse dei possibili lettori, la loro presentazione a pubblici di volta in volta differenziati.

    Riguardo al secondo punto, quello relativo ai cambiamenti nella qualità dell’informazione, non mi riferisco solamente alla correttezza delle notizie elaborate e proposte mediante un algoritmo. Sappiamo che non sempre tale correttezza è garantita, specialmente nelle prime fasi dell’utilizzo di un GPT: tanto che si è dovuto procedere già varie volte alla rettifica (compiuta dagli esseri umani) di informazioni rilasciate da un programma di IA. Sappiamo però, anche, che l’addestramento del programma porta di solito a un progressivo miglioramento della sua affidabilità. Mi riferisco invece, soprattutto, al tipo di notizia che viene diffuso e al modo in cui le informazioni sono presentate e veicolate. Rispetto a ciò è necessario intervenire preventivamente nell’elaborazione di certi programmi, inserendovi criteri che possano permettere di selezionare le informazioni secondo le differenti esigenze del dibattito pubblico. Ciò che va evitato, sia per quanto riguarda i contenuti che per quel che concerne le modalità della loro diffusione, è insomma che venga fatta una selezione sulla base di un criterio unilaterale: com’è ad esempio quello, d’impianto utilitaristico, che privilegia il numero dei contatti realizzati e realizzabili nel web. Già oggi, d’altronde, gli informatici sono in grado di elaborare programmi di IA anche inserendovi altri criteri per il loro funzionamento.

    Quanto all’ultimo aspetto menzionato, esso riguarda l’opinione pubblica, o ciò che oggi può essere detta tale. Ho già mostrato altrove che, nell’epoca dei Social, l’opinione pubblica si è trasformata in un pubblico di opinionisti. Adesso questo pubblico, dopo aver rinunciato alla possibilità di una costruttiva sintesi fra i vari gruppi di opinione, rischia di dover rinunciare anche a quella capacità d’interazione che si realizza tra le diverse posizioni e tra i vari portatori d’interesse che sono collocati all’interno dello spazio democratico, nella misura in cui tale spazio, grazie alle sue regole, consente di prendere una decisione comune. Ciò può accadere non solo perché non ci sono più unicamente soggetti umani a gestire le informazioni, ma soprattutto perché, in prospettiva, gli agenti artificiali che li sostituiscono sono in grado, grazie alla loro potenza, di occupare e d’indirizzare ogni dimensione del dibattito pubblico. Se ciò accadesse, però, dovremmo rinunciare a quelle forme di manifestazione democratica che proprio sulla libertà d’informazione e di espressione trovano il loro fondamento.

    L’ETICA DI CUI ABBIAMO BISOGNO

    In conclusione – e in parte correggendo quanto ho detto inizialmente – se pure è vero che ogni riflessione sugli sviluppi tecnologici rischia d’invecchiare precocemente, è altrettanto vero che, anche grazie alla capacità anticipativa e allo sguardo lungo che, sulla base delle esperienze passate, il pensiero umano può rivolgere al futuro, è bene riflettere fin da subito su certe situazioni che stanno maturando. È bene farlo non già con l’intenzione – ingenua e velleitaria – di bloccare immediatamente il loro procedere, bensì con la volontà di comprenderle, con l’idea di accompagnarle, con l’intenzione di evitare che certi esiti vengano acriticamente accolti: come in parte è avvenuto nel recente passato e come rischia ancora di accadere, per la tendenza umana ad accettare una sorta di “servitù volontaria”.

    E invece per il raggiungimento di questi scopi può essere d’aiuto l’etica. A ciò, più precisamente, può servire l’etica dell’interazione fra l’agire umano e l’agire dei dispositivi artificiali. È quanto tutti noi, sia nelle nostre professioni che nelle attività che fuoriescono dalla sfera professionale, è importante che impariamo fin d’ora a conoscere e a praticare.

  • Giornalismo e intelligenza artificiale. Una questione etica

    SE L’INTELLIGENZA ARTIFICIALE SUPERA L’UOMO

    Quando uno scrive di sviluppi tecnologici il rischio è sempre quello di dire cose che, quando poi verranno lette, non saranno più aggiornate e, dunque, non risulteranno pienamente corrette. Gli sviluppi tecnologici procedono infatti più velocemente di quanto non riusciamo a pensarli. Interviene qui una sorta di obsolescenza, certo: che non è solo quella dei dispositivi, i quali come sappiamo rischiano di essere già superati – per esprimerci in maniera un po’ paradossale – non appena è promossa la loro commercializzazione, bensì è quella delle nostre stesse riflessioni, che non riescono a essere sempre allineate a ciò che sta accadendo.

    Nel momento in cui scrivo, per esempio, non si parla più di metaverso: argomento di moda, nei suoi pro e nei suoi contro, fino a qualche tempo fa. Non che la questione relativa alla presenza di ambienti virtuali, da vivere in parallelo all’ambiente fisico in cui siamo collocati e ai vari ambienti online in cui ormai abitualmente ci muoviamo, non sia più oggetto d’interesse per le grandi companies. Certamente, però, ciò che sembrava a un passo dalla realizzazione e dall’utilizzo massivo – su di un piano ludico, educativo, di training – si è visto che richiede ancora molti sforzi nella ricerca e molti investimenti economici. Adesso è invece l’ambito della cosiddetta intelligenza artificiale a suscitare attenzione e preoccupazione. Soprattutto per quanto riguarda una serie di sue applicazioni, che sembrano poter cambiare profondamente i nostri modi di vivere e di rapportarci al mondo.

    Mi riferisco per esempio alla cosiddetta intelligenza artificiale generativa. Essa costituisce un’articolazione dell’intelligenza artificiale (IA) nella quale l’uso di algoritmi è finalizzato a generare contenuti: ad esempio, testi, immagini, suoni. GPT (Generative Pre-trained Transformer) è uno degli algoritmi generativi più famosi. Si tratta più precisamente di un modello d’intelligenza artificiale generativa linguistica sviluppato dall’azienda Open AI. La sua fama è dovuta al fatto che una sua versione conversazionale – Chat GPT – è stata rilasciata pubblicamente e gratuitamente allo scopo di “addestrare” il programma, vale a dire per fare in modo che, grazie all’interazione con gli utenti, esso venisse sempre più perfezionato nella sua capacità di generare testi plausibili e coerenti. Una delle caratteristiche dei programmi di IA è infatti quello di poter “imparare”, cioè di modificare i propri “comportamenti”, attraverso l’interazione con un ambiente (N.B.: le virgolette qui usate servono a rimarcare il fatto che, pur usando gli stessi termini, sto parlando di agenti artificiali e non di agenti umani).

    Questo aspetto, cioè la capacità di conoscere un’implementazione e di “imparare” nell’interazione con l’ambiente, è ciò che maggiormente sta suscitando attenzione nel dibattito pubblico. Ciò avviene per almeno due motivi. Il primo è che, in tal modo, i programmi di IA manifestano un certo, variabile grado di autonomia e, appunto perciò, possono sfuggire alla previsione e al controllo dell’essere umano che li ha elaborati. Il secondo è che, proprio in relazione a questo aspetto di autonomia che sono in grado di manifestare, essi sembrano altresì esprimere una sorta di “creatività”: la capacità cioè di sviluppare contenuti nuovi, in forme in qualche modo pure nuove, a partire da un bagaglio di nozioni già posseduto (o magari attinto dal web).

    Quest’ultimo aspetto sta suscitando una diffusa preoccupazione. Finora si riteneva che autonomia e creatività fossero caratteristiche proprie solo degli esseri umani. Finora si credeva che certe attività animate da tali caratteristiche fossero monopolio solo di certe categorie di persone. Finora si pensava che certe professioni non potessero affatto essere esercitate da semplici programmi. Ora pare invece che non sia più così. E dunque ciò che Günther Anders aveva chiamato “vergogna prometeica” – lo stato d’animo dell’essere umano nei confronti di un’entità artificiale più perfezionata e performante – sembra essere una sensazione sempre più giustificata e diffusa.

    L’INTELLIGENZA ARTIFICIALE IN REDAZIONE E NELLE PERCEZIONI DEL PUBBLICO

    La professione giornalistica è indubbiamente una professione creativa. Non si tratta solamente di raccogliere e diffondere informazioni, ma di verificarle, certificarle, interpretarle, contestualizzarle, proporle in maniera giusta e comprensibile al proprio pubblico. Per far questo non basta conoscere i fatti: bisogna saperli confezionare secondo forme adeguate che s’imparano con gli anni. Anche in questo consiste il mestiere del giornalista.

    Nel momento in cui scrivo è appena stata commentata la notizia – ad esempio in un articolo di Pietro Minto sul “Foglio quotidiano” del 26 luglio scorso, ma prima ancora in un altro articolo di Simone Cosimi del 21 luglio su repubblica.it – dello sviluppo di una serie di programmi volti ad “aiutare” le redazioni nello svolgimento del loro lavoro. Si parla ad esempio di trattative fra varie testate giornalistiche, ad esempio il “New York Times”, e Google per l’utilizzo di Genesis (clicca qui), e dell’elaborazione, in Italia, di contents.com. Si tratta di programmi in grado di generare testi utilizzabili a fini giornalistici. Contents.com ad esempio, la piattaforma sviluppata da Massimiliano Squillace, intende fornire ai suoi fruitori il materiale grezzo per un articolo: dati, informazioni e anche immagini già confezionati in una maniera pressoché pubblicabile, che attendono solo l’ultima mano del giornalista per una verifica o per l’aggiunta di una nota di colore. Analogamente può accadere nel caso dei comunicati stampa. In questo caso la tecnologia GPT è in grado di mettere a disposizione del comunicatore pubblico una bozza di testo su cui egli può poi intervenire adattando il comunicato alle proprie esigenze e al proprio target.

    Da tempo, peraltro, l’IA è usata nelle redazioni per gestire dati, aggregarli, elaborarli: soprattutto quando essi sono in numero enorme. Pensiamo agli sviluppi del data journalism che si sono avuti, per esempio, nel periodo della pandemia. Ora però le cose sono diverse. Ora i programmi di IA sono in grado di sostituire alcune attività tipicamente giornalistiche.

    Un altro modo d’incidere con questi programmi nello spazio dell’informazione riguarda poi il posizionamento delle notizie. Qui la tecnologia non propone più informazioni già confezionate, ma le seleziona in base al loro appeal. Definisce cioè secondo criteri precisi la presentazione delle notizie, ad esempio nella pagina di un sito giornalistico. Si realizza in tal modo un intervento mirato di agenda setting.

    Di quali criteri si tratta? Sono ovviamente gli stessi usati dai motori di ricerca, dato che si vuole che il sito d’informazione risulti per i suoi contenuti ai primi posti fra le notizie indicizzate. Sono, come sappiamo, i criteri costituiti dal numero di visite al sito, dalla quantità di link con cui è collegato ad altri siti della rete, dall’utilizzo di determinate parole chiave che in un certo momento risultano di particolare interesse.

    Di conseguenza la dignità e il posizionamento di una notizia finiscono per dipendere dai gusti del pubblico che deve essere informato. Lo stesso effetto che è proprio dei Social – la cosiddetta filter bubble, vale a dire la bolla di filtraggio rispetto alla quale una persona trova in una rete sociale solo gente che la pensa come lei – adesso, grazie all’uso di ben precisi algoritmi, viene esteso all’intero ambito dell’informazione. Con un effetto di circolarità – io trovo messe in evidenza in rete proprio le notizie che mi aspetto – che falsa la percezione di ciò che sta accadendo d’importante, di significativo per tutti, nel mondo.

    Tutto ciò, e molto altro, sta maturando con l’applicazione dell’IA all’ambito della comunicazione giornalistica. Le conseguenze per la professione sono molteplici. Non è detto che tali processi possano essere tout court fermati: i criteri dell’efficacia e dell’efficienza, e soprattutto la convenienza economica nell’utilizzo di tali programmi, spingono a proseguire nella loro elaborazione e applicazione. Tuttavia è bene essere consapevoli di ciò che tali trasformazioni comportano, anche per evitare semplicemente di subirle. Su tre di queste conseguenze mi voglio brevemente soffermare: i cambiamenti nella professione giornalistica; i cambiamenti nella qualità dell’informazione; i cambiamenti nella fruizione dell’informazione stessa.

    Del primo punto si parla già da tempo. Come nel caso di altre professioni, ciò che si teme è che – invece di un miglioramento e di un potenziamento della propria attività, dovuto all’affiancamento dell’agente artificiale all’agente umano – si realizzi piuttosto anche qui, nel migliore dei casi, un deskilling, cioè una perdita di competenze da parte del professionista, e nel peggiore, in prospettiva, una sostituzione di ciò che questi può fare con ciò che più velocemente e più compiutamente è in grado di fare il programma di IA. Non si tratta solo di una probabile perdita di posti di lavoro. Rispetto a tale rischio, peraltro, la risposta dei fautori del progresso tecnologico è sempre la solita: certi sviluppi porteranno all’eliminazione di attività banali e ripetitive, e costringeranno gli esseri umani a elaborare ulteriori loro capacità. Si tratta invece di fare in modo che, in questa sostituzione, non vengano meno alcune caratteristiche fondamentali della professione giornalistica. Sono quelle che richiamavo prima: l’interpretazione dei dati, la loro contestualizzazione, il loro collegamento ad altri ambiti d’interesse dei possibili lettori, la loro presentazione a pubblici di volta in volta differenziati.

    Riguardo al secondo punto, quello relativo ai cambiamenti nella qualità dell’informazione, non mi riferisco solamente alla correttezza delle notizie elaborate e proposte mediante un algoritmo. Sappiamo che non sempre tale correttezza è garantita, specialmente nelle prime fasi dell’utilizzo di un GPT: tanto che si è dovuto procedere già varie volte alla rettifica (compiuta dagli esseri umani) di informazioni rilasciate da un programma di IA. Sappiamo però, anche, che l’addestramento del programma porta di solito a un progressivo miglioramento della sua affidabilità. Mi riferisco invece, soprattutto, al tipo di notizia che viene diffuso e al modo in cui le informazioni sono presentate e veicolate. Rispetto a ciò è necessario intervenire preventivamente nell’elaborazione di certi programmi, inserendovi criteri che possano permettere di selezionare le informazioni secondo le differenti esigenze del dibattito pubblico. Ciò che va evitato, sia per quanto riguarda i contenuti che per quel che concerne le modalità della loro diffusione, è insomma che venga fatta una selezione sulla base di un criterio unilaterale: com’è ad esempio quello, d’impianto utilitaristico, che privilegia il numero dei contatti realizzati e realizzabili nel web. Già oggi, d’altronde, gli informatici sono in grado di elaborare programmi di IA anche inserendovi altri criteri per il loro funzionamento.

    Quanto all’ultimo aspetto menzionato, esso riguarda l’opinione pubblica, o ciò che oggi può essere detta tale. Ho già mostrato altrove che, nell’epoca dei Social, l’opinione pubblica si è trasformata in un pubblico di opinionisti. Adesso questo pubblico, dopo aver rinunciato alla possibilità di una costruttiva sintesi fra i vari gruppi di opinione, rischia di dover rinunciare anche a quella capacità d’interazione che si realizza tra le diverse posizioni e tra i vari portatori d’interesse che sono collocati all’interno dello spazio democratico, nella misura in cui tale spazio, grazie alle sue regole, consente di prendere una decisione comune. Ciò può accadere non solo perché non ci sono più unicamente soggetti umani a gestire le informazioni, ma soprattutto perché, in prospettiva, gli agenti artificiali che li sostituiscono sono in grado, grazie alla loro potenza, di occupare e d’indirizzare ogni dimensione del dibattito pubblico. Se ciò accadesse, però, dovremmo rinunciare a quelle forme di manifestazione democratica che proprio sulla libertà d’informazione e di espressione trovano il loro fondamento.

    L’ETICA DI CUI ABBIAMO BISOGNO

    In conclusione – e in parte correggendo quanto ho detto inizialmente – se pure è vero che ogni riflessione sugli sviluppi tecnologici rischia d’invecchiare precocemente, è altrettanto vero che, anche grazie alla capacità anticipativa e allo sguardo lungo che, sulla base delle esperienze passate, il pensiero umano può rivolgere al futuro, è bene riflettere fin da subito su certe situazioni che stanno maturando. È bene farlo non già con l’intenzione – ingenua e velleitaria – di bloccare immediatamente il loro procedere, bensì con la volontà di comprenderle, con l’idea di accompagnarle, con l’intenzione di evitare che certi esiti vengano acriticamente accolti: come in parte è avvenuto nel recente passato e come rischia ancora di accadere, per la tendenza umana ad accettare una sorta di “servitù volontaria”.

    E invece per il raggiungimento di questi scopi può essere d’aiuto l’etica. A ciò, più precisamente, può servire l’etica dell’interazione fra l’agire umano e l’agire dei dispositivi artificiali. È quanto tutti noi, sia nelle nostre professioni che nelle attività che fuoriescono dalla sfera professionale, è importante che impariamo fin d’ora a conoscere e a praticare.

  • Giornalismo e intelligenza artificiale. Una questione etica

    SE L’INTELLIGENZA ARTIFICIALE SUPERA L’UOMO

    Quando uno scrive di sviluppi tecnologici il rischio è sempre quello di dire cose che, quando poi verranno lette, non saranno più aggiornate e, dunque, non risulteranno pienamente corrette. Gli sviluppi tecnologici procedono infatti più velocemente di quanto non riusciamo a pensarli. Interviene qui una sorta di obsolescenza, certo: che non è solo quella dei dispositivi, i quali come sappiamo rischiano di essere già superati – per esprimerci in maniera un po’ paradossale – non appena è promossa la loro commercializzazione, bensì è quella delle nostre stesse riflessioni, che non riescono a essere sempre allineate a ciò che sta accadendo.

    Nel momento in cui scrivo, per esempio, non si parla più di metaverso: argomento di moda, nei suoi pro e nei suoi contro, fino a qualche tempo fa. Non che la questione relativa alla presenza di ambienti virtuali, da vivere in parallelo all’ambiente fisico in cui siamo collocati e ai vari ambienti online in cui ormai abitualmente ci muoviamo, non sia più oggetto d’interesse per le grandi companies. Certamente, però, ciò che sembrava a un passo dalla realizzazione e dall’utilizzo massivo – su di un piano ludico, educativo, di training – si è visto che richiede ancora molti sforzi nella ricerca e molti investimenti economici. Adesso è invece l’ambito della cosiddetta intelligenza artificiale a suscitare attenzione e preoccupazione. Soprattutto per quanto riguarda una serie di sue applicazioni, che sembrano poter cambiare profondamente i nostri modi di vivere e di rapportarci al mondo.

    Mi riferisco per esempio alla cosiddetta intelligenza artificiale generativa. Essa costituisce un’articolazione dell’intelligenza artificiale (IA) nella quale l’uso di algoritmi è finalizzato a generare contenuti: ad esempio, testi, immagini, suoni. GPT (Generative Pre-trained Transformer) è uno degli algoritmi generativi più famosi. Si tratta più precisamente di un modello d’intelligenza artificiale generativa linguistica sviluppato dall’azienda Open AI. La sua fama è dovuta al fatto che una sua versione conversazionale – Chat GPT – è stata rilasciata pubblicamente e gratuitamente allo scopo di “addestrare” il programma, vale a dire per fare in modo che, grazie all’interazione con gli utenti, esso venisse sempre più perfezionato nella sua capacità di generare testi plausibili e coerenti. Una delle caratteristiche dei programmi di IA è infatti quello di poter “imparare”, cioè di modificare i propri “comportamenti”, attraverso l’interazione con un ambiente (N.B.: le virgolette qui usate servono a rimarcare il fatto che, pur usando gli stessi termini, sto parlando di agenti artificiali e non di agenti umani).

    Questo aspetto, cioè la capacità di conoscere un’implementazione e di “imparare” nell’interazione con l’ambiente, è ciò che maggiormente sta suscitando attenzione nel dibattito pubblico. Ciò avviene per almeno due motivi. Il primo è che, in tal modo, i programmi di IA manifestano un certo, variabile grado di autonomia e, appunto perciò, possono sfuggire alla previsione e al controllo dell’essere umano che li ha elaborati. Il secondo è che, proprio in relazione a questo aspetto di autonomia che sono in grado di manifestare, essi sembrano altresì esprimere una sorta di “creatività”: la capacità cioè di sviluppare contenuti nuovi, in forme in qualche modo pure nuove, a partire da un bagaglio di nozioni già posseduto (o magari attinto dal web).

    Quest’ultimo aspetto sta suscitando una diffusa preoccupazione. Finora si riteneva che autonomia e creatività fossero caratteristiche proprie solo degli esseri umani. Finora si credeva che certe attività animate da tali caratteristiche fossero monopolio solo di certe categorie di persone. Finora si pensava che certe professioni non potessero affatto essere esercitate da semplici programmi. Ora pare invece che non sia più così. E dunque ciò che Günther Anders aveva chiamato “vergogna prometeica” – lo stato d’animo dell’essere umano nei confronti di un’entità artificiale più perfezionata e performante – sembra essere una sensazione sempre più giustificata e diffusa.

    L’INTELLIGENZA ARTIFICIALE IN REDAZIONE E NELLE PERCEZIONI DEL PUBBLICO

    La professione giornalistica è indubbiamente una professione creativa. Non si tratta solamente di raccogliere e diffondere informazioni, ma di verificarle, certificarle, interpretarle, contestualizzarle, proporle in maniera giusta e comprensibile al proprio pubblico. Per far questo non basta conoscere i fatti: bisogna saperli confezionare secondo forme adeguate che s’imparano con gli anni. Anche in questo consiste il mestiere del giornalista.

    Nel momento in cui scrivo è appena stata commentata la notizia – ad esempio in un articolo di Pietro Minto sul “Foglio quotidiano” del 26 luglio scorso, ma prima ancora in un altro articolo di Simone Cosimi del 21 luglio su repubblica.it – dello sviluppo di una serie di programmi volti ad “aiutare” le redazioni nello svolgimento del loro lavoro. Si parla ad esempio di trattative fra varie testate giornalistiche, ad esempio il “New York Times”, e Google per l’utilizzo di Genesis (clicca qui), e dell’elaborazione, in Italia, di contents.com. Si tratta di programmi in grado di generare testi utilizzabili a fini giornalistici. Contents.com ad esempio, la piattaforma sviluppata da Massimiliano Squillace, intende fornire ai suoi fruitori il materiale grezzo per un articolo: dati, informazioni e anche immagini già confezionati in una maniera pressoché pubblicabile, che attendono solo l’ultima mano del giornalista per una verifica o per l’aggiunta di una nota di colore. Analogamente può accadere nel caso dei comunicati stampa. In questo caso la tecnologia GPT è in grado di mettere a disposizione del comunicatore pubblico una bozza di testo su cui egli può poi intervenire adattando il comunicato alle proprie esigenze e al proprio target.

    Da tempo, peraltro, l’IA è usata nelle redazioni per gestire dati, aggregarli, elaborarli: soprattutto quando essi sono in numero enorme. Pensiamo agli sviluppi del data journalism che si sono avuti, per esempio, nel periodo della pandemia. Ora però le cose sono diverse. Ora i programmi di IA sono in grado di sostituire alcune attività tipicamente giornalistiche.

    Un altro modo d’incidere con questi programmi nello spazio dell’informazione riguarda poi il posizionamento delle notizie. Qui la tecnologia non propone più informazioni già confezionate, ma le seleziona in base al loro appeal. Definisce cioè secondo criteri precisi la presentazione delle notizie, ad esempio nella pagina di un sito giornalistico. Si realizza in tal modo un intervento mirato di agenda setting.

    Di quali criteri si tratta? Sono ovviamente gli stessi usati dai motori di ricerca, dato che si vuole che il sito d’informazione risulti per i suoi contenuti ai primi posti fra le notizie indicizzate. Sono, come sappiamo, i criteri costituiti dal numero di visite al sito, dalla quantità di link con cui è collegato ad altri siti della rete, dall’utilizzo di determinate parole chiave che in un certo momento risultano di particolare interesse.

    Di conseguenza la dignità e il posizionamento di una notizia finiscono per dipendere dai gusti del pubblico che deve essere informato. Lo stesso effetto che è proprio dei Social – la cosiddetta filter bubble, vale a dire la bolla di filtraggio rispetto alla quale una persona trova in una rete sociale solo gente che la pensa come lei – adesso, grazie all’uso di ben precisi algoritmi, viene esteso all’intero ambito dell’informazione. Con un effetto di circolarità – io trovo messe in evidenza in rete proprio le notizie che mi aspetto – che falsa la percezione di ciò che sta accadendo d’importante, di significativo per tutti, nel mondo.

    Tutto ciò, e molto altro, sta maturando con l’applicazione dell’IA all’ambito della comunicazione giornalistica. Le conseguenze per la professione sono molteplici. Non è detto che tali processi possano essere tout court fermati: i criteri dell’efficacia e dell’efficienza, e soprattutto la convenienza economica nell’utilizzo di tali programmi, spingono a proseguire nella loro elaborazione e applicazione. Tuttavia è bene essere consapevoli di ciò che tali trasformazioni comportano, anche per evitare semplicemente di subirle. Su tre di queste conseguenze mi voglio brevemente soffermare: i cambiamenti nella professione giornalistica; i cambiamenti nella qualità dell’informazione; i cambiamenti nella fruizione dell’informazione stessa.

    Del primo punto si parla già da tempo. Come nel caso di altre professioni, ciò che si teme è che – invece di un miglioramento e di un potenziamento della propria attività, dovuto all’affiancamento dell’agente artificiale all’agente umano – si realizzi piuttosto anche qui, nel migliore dei casi, un deskilling, cioè una perdita di competenze da parte del professionista, e nel peggiore, in prospettiva, una sostituzione di ciò che questi può fare con ciò che più velocemente e più compiutamente è in grado di fare il programma di IA. Non si tratta solo di una probabile perdita di posti di lavoro. Rispetto a tale rischio, peraltro, la risposta dei fautori del progresso tecnologico è sempre la solita: certi sviluppi porteranno all’eliminazione di attività banali e ripetitive, e costringeranno gli esseri umani a elaborare ulteriori loro capacità. Si tratta invece di fare in modo che, in questa sostituzione, non vengano meno alcune caratteristiche fondamentali della professione giornalistica. Sono quelle che richiamavo prima: l’interpretazione dei dati, la loro contestualizzazione, il loro collegamento ad altri ambiti d’interesse dei possibili lettori, la loro presentazione a pubblici di volta in volta differenziati.

    Riguardo al secondo punto, quello relativo ai cambiamenti nella qualità dell’informazione, non mi riferisco solamente alla correttezza delle notizie elaborate e proposte mediante un algoritmo. Sappiamo che non sempre tale correttezza è garantita, specialmente nelle prime fasi dell’utilizzo di un GPT: tanto che si è dovuto procedere già varie volte alla rettifica (compiuta dagli esseri umani) di informazioni rilasciate da un programma di IA. Sappiamo però, anche, che l’addestramento del programma porta di solito a un progressivo miglioramento della sua affidabilità. Mi riferisco invece, soprattutto, al tipo di notizia che viene diffuso e al modo in cui le informazioni sono presentate e veicolate. Rispetto a ciò è necessario intervenire preventivamente nell’elaborazione di certi programmi, inserendovi criteri che possano permettere di selezionare le informazioni secondo le differenti esigenze del dibattito pubblico. Ciò che va evitato, sia per quanto riguarda i contenuti che per quel che concerne le modalità della loro diffusione, è insomma che venga fatta una selezione sulla base di un criterio unilaterale: com’è ad esempio quello, d’impianto utilitaristico, che privilegia il numero dei contatti realizzati e realizzabili nel web. Già oggi, d’altronde, gli informatici sono in grado di elaborare programmi di IA anche inserendovi altri criteri per il loro funzionamento.

    Quanto all’ultimo aspetto menzionato, esso riguarda l’opinione pubblica, o ciò che oggi può essere detta tale. Ho già mostrato altrove che, nell’epoca dei Social, l’opinione pubblica si è trasformata in un pubblico di opinionisti. Adesso questo pubblico, dopo aver rinunciato alla possibilità di una costruttiva sintesi fra i vari gruppi di opinione, rischia di dover rinunciare anche a quella capacità d’interazione che si realizza tra le diverse posizioni e tra i vari portatori d’interesse che sono collocati all’interno dello spazio democratico, nella misura in cui tale spazio, grazie alle sue regole, consente di prendere una decisione comune. Ciò può accadere non solo perché non ci sono più unicamente soggetti umani a gestire le informazioni, ma soprattutto perché, in prospettiva, gli agenti artificiali che li sostituiscono sono in grado, grazie alla loro potenza, di occupare e d’indirizzare ogni dimensione del dibattito pubblico. Se ciò accadesse, però, dovremmo rinunciare a quelle forme di manifestazione democratica che proprio sulla libertà d’informazione e di espressione trovano il loro fondamento.

    L’ETICA DI CUI ABBIAMO BISOGNO

    In conclusione – e in parte correggendo quanto ho detto inizialmente – se pure è vero che ogni riflessione sugli sviluppi tecnologici rischia d’invecchiare precocemente, è altrettanto vero che, anche grazie alla capacità anticipativa e allo sguardo lungo che, sulla base delle esperienze passate, il pensiero umano può rivolgere al futuro, è bene riflettere fin da subito su certe situazioni che stanno maturando. È bene farlo non già con l’intenzione – ingenua e velleitaria – di bloccare immediatamente il loro procedere, bensì con la volontà di comprenderle, con l’idea di accompagnarle, con l’intenzione di evitare che certi esiti vengano acriticamente accolti: come in parte è avvenuto nel recente passato e come rischia ancora di accadere, per la tendenza umana ad accettare una sorta di “servitù volontaria”.

    E invece per il raggiungimento di questi scopi può essere d’aiuto l’etica. A ciò, più precisamente, può servire l’etica dell’interazione fra l’agire umano e l’agire dei dispositivi artificiali. È quanto tutti noi, sia nelle nostre professioni che nelle attività che fuoriescono dalla sfera professionale, è importante che impariamo fin d’ora a conoscere e a praticare.

  • Giornalisti alla ricerca della fiducia tra la gente

    All'indomani del la decisione di assegnare il Nobel per la Pace a due giornlisti, c'è un altro dato che mostra come il giornalismo stia recuperando un po' di quella fiducia persa nel tempo. Oggi, nella nostra rubrica #deskdelladomenica, offriamo un interessante contributo che Federico Badaloni aveva scritto per la nostra rivista Desk poche settimane prima drlla pandemia. Anche oggi però, come allora, il tema della 'fiducia' tra giornalisti e cittadini è centrale nel dibattito sulla nostra professione (ar)

  • Giornata dell'infanzia: gli occhi dei bambini negli occhi del cronista

    Siamo all'indomani della Giornata mondiale per i diritti dei bambini (20 novembre). E allora oggi, per #deskdelladomenica, vi ripoponiamo un bell'articolo del 2017 di Desk, scritto da Angela Caponnetto (giornalista di Rainews). Ci porta a considerare ancora una volta il fenomeno dei minori che raggiungono il nostro Paese e l'Europa.

  • Gli italiani e il complesso rapporto con la lettura e i libri. E l’informazione

    Ormai, da qualche tempo, si è acceso un dibattito importante su cui ho avuto modo di riflettere e su cui sono intervenuto. Il motivo di questa polemica riguarda il rapporto degli italiani con la lettura e i libri.

  • Gli italiani e il complesso rapporto con la lettura e i libri. E l’informazione

    Ormai, da qualche tempo, si è acceso un dibattito importante su cui ho avuto modo di riflettere e su cui sono intervenuto. Il motivo di questa polemica riguarda il rapporto degli italiani con la lettura e i libri.

  • Gli obiettivi per lo sviluppo sostenibile e l'etica globale del giornalismo

    Abbiamo attraversato la più grande crisi sanitaria (e, di riflesso, economica e sociale) dal dopoguerra. Oggi, per la nostra rubrica #deskdelladomenica, riproponiamo un bell'articolo di Luciano Larivera sugli obiettivi 'ambientali' della comunità internazionale. E' quanto mai attuale, indica una strada che adesso, dopo il Covid, dovremo percorrere con maggiore tenacia (ar)

  • Gli obiettivi per lo sviluppo sostenibile e l'etica globale del giornalismo (2)

    Stiamo attraversando ancorala più grande crisi sanitaria (e, di riflesso, economica e sociale) dal dopoguerra. Oggi riproponiamo dalla nostra rivista Desk un bell'articolo di Luciano Larivera sugli obiettivi 'ambientali' della comunità internazionale. E' quanto mai attuale, indica una strada che adesso, dopo il Covid, dovremo percorrere con maggiore tenacia, L'autore, Padre Luciano Larivera, gesuita, giornalista e uomo di cultura, è da pochi giorni il nuovo segretario per gli affari europei al Jesuit European Social Centre di Bruxelles (ar)

  • Gli occhi dei bambini negli occhi del cronista

    Ancora il fenomeno dell'immigrazione al centro del #deskdelladomenica di oggi. L'occhio attento di Angela Caponnetto (giornalista di Rainews) ci porta a considerare il fenomeno dei minori che raggiungono il nostro Paese e l'Europa.