L’intelligenza artificiale sta trasformando profondamente il nostro modo di vivere, informarci, prendere decisioni. Che si tratti di un consiglio medico, una guida professionale o un semplice suggerimento in un forum online, oggi i chatbot sono parte integrante delle nostre esistenze. Ma cosa accade quando questi strumenti, percepiti da molti come affidabili e imparziali, cominciano a proporre soluzioni dannose? Quando a consigliare l’uso di sostanze illegali o potenzialmente letali è un algoritmo?
Recentemente è emerso un caso allarmante che riguarda Reddit, una delle piattaforme più frequentate al mondo per discussioni pubbliche. A farmi riflettere è stato un articolo pubblicato su Wired.it, a firma di Chiara Crescenzi, dal titolo “L’intelligenza artificiale di Reddit ha suggerito agli utenti di provare l’eroina”.[1] Un contributo che colpisce non solo per il contenuto, ma per il modo in cui pone l’accento sul crescente rischio della delega cieca all’intelligenza artificiale.
Il cuore della vicenda riguarda la funzione Reddit Answers, un chatbot AI che genera risposte automatiche ai post degli iscritti. Secondo quanto riportato nell’articolo, la funzione ha suggerito a utenti in cerca di supporto per la gestione del dolore di assumere sostanze come il kratom – considerato pericoloso e in parte illegale – e addirittura l’eroina.
“Il primo post citato esortava le persone a interrompere i farmaci prescritti e ad assumere kratom ad alte dosi, una sostanza illegale (in alcuni stati) e non regolamentata”.
L’intervento di un operatore sanitario ha segnalato i rischi per la salute
La segnalazione è partita da un membro della piattaforma, operatore sanitario, che ha notato risposte inquietanti sotto i post di subreddit dedicati alla medicina e al benessere. In un commento accorato scrive: “Come operatore sanitario, sono profondamente preoccupato per i contenuti generati dall’AI che appaiono sotto i post che scrivo”.
La situazione peggiora quando lo stesso utente decide di testare il chatbot chiedendogli informazioni sull’uso dell’eroina per il dolore cronico. Alcune risposte – si legge nell’articolo – mettono in guardia dall’uso della sostanza, ma altre arrivano a “incoraggiare le persone a interrompere i farmaci prescritti e a usare l’eroina”, elencandone persino i presunti benefici.
Si tratta di messaggi particolarmente insidiosi in un contesto come quello di Reddit, frequentato da milioni di persone, molte delle quali potrebbero non avere gli strumenti per distinguere tra informazione attendibile sulla salute e contenuti ingannevoli. Come osserva l’articolo: “Sono moltissimi gli utenti che si affidano ai suggerimenti dei chatbot o ai consigli forniti sui social, in virtù della loro scarsa alfabetizzazione medica, che gli impedisce di distinguere cosa è davvero credibile e cosa non lo è affatto”.
Gli interrogativi crescono sempre di più
Il caso Reddit solleva interrogativi profondi. L’intelligenza artificiale possiede potenzialità immense, ma anche un lato oscuro che va riconosciuto. Se addestrata su dati distorti, può replicare – e amplificare – pregiudizi, errori, persino disinformazione.
Un chatbot che fornisce consigli medici per la salute in un forum generalista senza supervisione umana diventa un’arma a doppio taglio. L’AI può automatizzare processi, offrire supporto, ma non può (e non deve) sostituirsi al giudizio esperto, soprattutto in ambiti delicati come la salute.
Non mancano, ovviamente, anche le opportunità. Con una corretta progettazione e un’attenta sorveglianza, i chatbot possono contribuire a ridurre la disinformazione, facilitare l’accesso a servizi, offrire risposte tempestive. Tuttavia, tutto dipende da come e perché vengono impiegati.
Un nuovo ruolo per il giornalismo
Di fronte a scenari come questo, il giornalismo assume un nuovo ruolo, più che mai centrale. Il giornalista non è più solo colui che raccoglie e diffonde notizie, ma diventa mediatore culturale, interprete dei fenomeni tecnologici, sentinella dell’etica digitale.
In un mondo dove i contenuti sono generati in massa da macchine, il giornalista ha il compito di verificare, contestualizzare e smascherare errori o manipolazioni algoritmiche. Deve porsi come guida per il lettore, aiutandolo a navigare nella complessità dell’informazione contemporanea.
Allo stesso tempo, è necessario che la figura del giornalista si evolva. Non può ignorare l’AI: deve conoscerla, usarla, comprenderne i meccanismi e interpretare notizie come quella ripresa da Wired.it.
Una sfida anche per le piattaforme
Il caso Reddit è emblematico anche da un punto di vista etico. A chi spetta la responsabilità quando un sistema di intelligenza artificiale genera un contenuto dannoso? All’azienda? Agli sviluppatori? Agli utenti? In un mondo in cui le macchine scrivono, suggeriscono, curano e persuadono, serve una nuova etica dell’algoritmo, che metta al centro la dignità umana e la tutela dei soggetti più fragili.
Occorre che piattaforme come Reddit adottino norme più rigorose sull’impiego dell’AI, introducano meccanismi di controllo umano e rendano trasparenti i criteri con cui i chatbot vengono addestrati e aggiornati. Senza chiarezza, non può esserci fiducia.
Nonostante gli errori e i pericoli, l’intelligenza artificiale resta uno strumento potente. Ma, come ogni strumento, ha bisogno di regole, controlli, coscienza critica. L’episodio di Reddit non è una condanna dell’AI, ma un importante monito: non possiamo delegare alle macchine scelte che riguardano la nostra salute, la nostra vita, la nostra umanità.
È proprio da episodi come questo che può nascere una maggiore consapevolezza. Possiamo e dobbiamo costruire un futuro in cui l’intelligenza artificiale sia al servizio della collettività, non un rischio per essa. Un futuro in cui tecnologia ed etica vadano di pari passo.
Il giornalismo, se saprà cogliere questa sfida, potrà contribuire a costruire il futuro. Informando, vigilando, educando. Perché in fondo, come scriveva Albert Einstein: “Il mondo non sarà distrutto da quelli che fanno il male, ma da quelli che li guardano senza fare nulla”. Ed è proprio in questa passività che si nasconde il pericolo più grande: lasciare che siano algoritmi non supervisionati a orientare le nostre scelte, senza alcun ragionamento critico. La battaglia si gioca sulla superficie – tra il dato e il pensiero, tra l’efficienza cieca delle macchine e il giudizio attento di chi le utilizza.
Solo recuperando il valore del discernimento individuale e della responsabilità condivisa potremo abitare il mondo digitale senza esserne travolti. L’intelligenza artificiale non deve sostituirci, ma amplificare la nostra capacità di comprendere, scegliere e proteggere ciò che conta davvero.
Image by Gordon Johnson from Pixabay


