Gli assistenti IA faticano a riconoscere i fatti dalle opinioni, distorcendo le notizie: lo studio

Gli assistenti di intelligenza artificiale più diffusi presentano notevoli lacune nell’accuratezza quando si tratta di riassumere notizie, secondo uno studio condotto dalla BBC. L’emittente britannica ha sottoposto a test quattro importanti chatbot IA, ChatGPT di OpenAI, Copilot di Microsoft, Gemini di Google e Perplexity AI, analizzando la loro capacità di sintetizzare correttamente i contenuti giornalistici del sito web della BBC.

I risultati della ricerca hanno evidenziato problematiche importanti nelle risposte generate dagli assistenti IA. In particolare, il 51% di tutte le risposte fornite dai chatbot è stato giudicato come affetto da problemi rilevanti di varia natura. Ancora più preoccupante è il dato relativo alle imprecisioni fattuali: il 19% delle risposte che citavano contenuti della BBC conteneva errori sostanziali, come dichiarazioni inesatte, numeri e date errati.

Le aziende che si occupano di Gen AI stanno “giocando con il fuoco”

La ricerca ha messo in luce non solo errori fattuali, ma anche una serie di altre problematiche nella gestione delle informazioni da parte degli assistenti IA. Tra queste, spiccano la difficoltà nel distinguere tra opinioni e fatti, la tendenza a editorializzare i contenuti e l’omissione di contesti essenziali per una corretta comprensione delle notizie. Deborah Turness, CEO di BBC News, ha espresso forte preoccupazione per queste scoperte, sottolineando come le aziende che sviluppano strumenti basati sull’IA stiano “giocando con il fuoco”. La dirigente ha evidenziato il rischio concreto che titoli distorti dall’intelligenza artificiale possano causare danni significativi nel mondo reale, minando ulteriormente la già fragile fiducia del pubblico nei fatti e nelle informazioni verificate.

L’indagine della BBC ha rivelato esempi concreti di queste distorsioni. Gemini, ad esempio, ha erroneamente affermato che il NHS non avesse raccomandato la sigaretta elettronica come aiuto per smettere di fumare. ChatGPT e Copilot hanno indicato che Rishi Sunak e Nicola Sturgeon fossero ancora in carica, nonostante avessero già lasciato i loro incarichi. Perplexity, d’altra parte, ha attribuito erroneamente alla BBC News affermazioni su una presunta “moderazione” dell’Iran e “aggressività” di Israele in un articolo sul Medio Oriente, termini mai utilizzati nel reportage imparziale dell’emittente. La ricerca ha anche evidenziato come gli assistenti di nuova generazione tendano a mescolare indiscriminatamente fatti, opinioni e materiale d’archivio, creando un “cocktail confuso” di informazioni che si discosta notevolmente dai fatti verificati e dalla chiarezza che i consumatori di notizie cercano e meritano. In breve, per quanto Copilot e Gemini abbiano presentato problemi più complessi da risolvere rispetto a ChatGPT e Perplexity, tutte le piattaforme possono riportare informazioni fuorvianti o del tutto errate.

Pete Archer, direttore del programma per l’intelligenza artificiale generativa della BBC, ha sottolineato l’importanza del controllo editoriale sull’utilizzo dei contenuti giornalistici da parte delle aziende che si occupano di intelligenza artificiale: “Gli editori dovrebbero avere il controllo sul modo in cui vengono utilizzati i loro contenuti e le aziende di intelligenza artificiale dovrebbero mostrare come gli assistenti elaborano le notizie insieme alla portata degli errori e delle imprecisioni che producono”, le sue parole.

La BBC ha condotto questa ricerca aprendo eccezionalmente il proprio sito web ai chatbot IA per la durata dei test nel dicembre 2024, nonostante normalmente blocchi l’accesso ai suoi contenuti da parte di questi sistemi. L’obiettivo era proprio valutare in modo approfondito le capacità e i limiti degli assistenti IA nel gestire informazioni giornalistiche di alta qualità. La ricerca sottolinea diverse problematiche, ormai ben note da tempo, legate alle nuove tecnologie: da un lato, emerge la necessità di una maggiore collaborazione tra aziende tecnologiche ed editori per garantire l’integrità e l’accuratezza delle notizie elaborate dagli assistenti IA; dall’altro, si pone l’urgenza di sviluppare linee guida e regolamentazioni che possano tutelare il pubblico dalla diffusione di informazioni distorte o inaccurate.

La Turness ha lanciato un appello alle aziende tecnologiche, invitandole a seguire l’esempio di Apple, che ha recentemente sospeso la funzione IA di riassunto delle notifiche di notizie dopo essere stata avvertita di gravi problemi di distorsione: “Viviamo in tempi difficili”, ha dichiarato la CEO di BBC. “E quanto tempo ci vorrà prima che un titolo distorto dall’intelligenza artificiale causi danni significativi nel mondo reale?”