ChatGPT non sa fare il giornalista scientifico

Pubblicato: 21/09/2025, 15:50:00 ·

È in grado di emulare molte professioni, ma non questa. Ecco perché

18 Settembre 2025

Un giornalista scientifico si occupa di riassumere risultati scientifici complessi rendendoli alla portata di un pubblico di non esperti. Si tratta di un'attività molto delicata, che richiede un grande equilibrio nel dosare chiarezza e accuratezza. Eccedendo con la prima, si rischia di banalizzare, mentre la seconda è insidiosa in quanto il suo eccesso produce un testo poco divulgativo; tutto il contrario rispetto a quanto si vuole ottenere.

Ebbene, questa expertise non può essere (ancora) sostituita da un'intelligenza artificiale. Lo ha dimostrato l'American Association for the Advancement of Science (AAAS), che per un anno ha condotto uno studio informale su ChatGPT. In particolare, il chatbot più famoso è stato messo alla prova chiedendogli di scrivere brevi sintesi per la rivista Science e servizi come EurekAlert, un compito svolto normalmente dal team "SciPak" di AAAS.

Gli articoli di sintesi seguono un formato specifico e molto semplice per trasmettere le informazioni principali (premessa, metodi, contesto dello studio) ad altri giornalisti che potrebbero volerne scrivere. ChatGPT emula "passabilmente" la struttura di un briefing in stile SciPak, ma la sua prosa "tende a sacrificare l'accuratezza in favore della semplicità" e richiede ancora un grosso coinvolgimento da parte degli autori umani, poi chiamati a fare una verifica rigorosa del testo generato e ad apportare gli aggiustamenti del caso.

Queste tecnologie potrebbero rivelarsi strumenti utili per gli scrittori scientifici, ma al momento non sono ancora pronte per il 'prime time' per il team SciPak.

Chiaramente, a essere oggetto di test sono state le versioni "Plus" di GPT-4 e GPT-4o. E comunque i riassunti hanno ampiamente deluso anche per lo stile di scrittura: ad esempio, si è notato un abuso di termini come "nuovo" e "rivoluzionario", che portano chi legge a sopravvalutare i risultati dello studio. In generale, quando ci si addentra in metodologie, limitazioni o implicazioni generali, l'AI manca di senso critico e si vede.

Che il gioco non valesse la candela è stato chiaro fin da subito. Le "preoccupazioni circa l'accuratezza fattuale dei contenuti scritti da LLM" erano diffuse e, in un ambito dove l'accuratezza è tutto, questo non può passare in secondo piano. Usare i riassunti di ChatGPT come punto di partenza per la revisione umana "richiederebbe lo stesso impegno, se non maggiore, della stesura di riassunti da zero", per cui i ricercatori hanno preferito rinunciarvi.

Recensione Vivo X200 Ultra: il miglior cameraphone.. ma per pochissime persone.

Apollo A6000: l’Amiga più potente di sempre arriva a quasi 1.000 euro

Le nostre prime impressioni sui nuovi iPhone 17, 17 Pro ed Air | Video

Apple iPhone 17 Pro e Pro Max si graffiano troppo facilmente?