Chatwithme

Chatwithme

ChatGPT è un software che genera testi di qualsiasi tipo dalle traduzioni ai saggi agli abstract scientifici. Quali sono le potenzialità e quali i rischi? Ma soprattutto, è possibile riuscire a distinguere i testi scritti dall’ intelligenza artificiale con quelli scritti da un essere umano? Abbiamo provato a chiederlo agli studenti della magistrale in comunicazione scientifica biomedica della Sapienza.  

ChatGPT è un software di tipo chatbot che simula una conversazione con un essere umano. Questa tecnologia di intelligenza artificiale si basa su un modello linguistico di grandi dimensioni (LLM), un sistema di machine learning in grado apprendere autonomamente a partire da un enorme set di dati di testo e di produrre contenuti associati al linguaggio e alla scrittura. Nel pratico ChatGPT risponde alle domande che gli vengono poste e genera testi scritti, tra cui, traduzioni, articoli, riassunti e addirittura racconti. Non è l’unico modello di chatbot esistente ma ha suscitato più interesse degli altri perché è in grado di produrre testi precisi e in diverse lingue, è gratuito e di facile utilizzo. Proprio per via della sua accuratezza oltre all’entusiasmo ha suscitato anche polemiche e ha portato la società ad interrogarsi sulle potenzialità ma anche sui rischi dello sviluppo e dell’utilizzo di questo tipo di tecnologia. In ambito accademico, ad esempio, i professori hanno espresso le loro paure sul fatto che gli studenti potessero utilizzare ChatGPT per copiare gli esami. Allo stesso modo però in molti professori hanno colto l’occasione di discutere sul fatto che l’educazione scolastica è troppo indietro rispetto ad una società come la nostra in continuo sviluppo e che software di questo tipo potrebbero essere invece importanti risorse per gli studenti. Ad esempio, far scrivere agli studenti un tema con l’intelligenza artificiale e poi chiedere loro di analizzarlo, trovandone le criticità e modificando il testo di conseguenza potrebbe contribuire a sviluppare il pensiero critico dei giovani. Oltre alla formazione anche il mondo accademico e di ricerca sta sperimentando questo modello. I ricercatori hanno infatti già iniziato ad usare software come ChatGPT per scrivere saggi, discorsi, introduzioni oppure per migliorare i papers. In questo contesto, lo sviluppo di questo tipo di programmi potrebbe da un lato accelerare i tempi di pubblicazione aiutando i ricercatori nella scrittura di testi migliori dal punto di vista del linguaggio ma potrebbe anche portare a un peggioramento dei contenuti e alla diffusione di informazioni false. Spesso, infatti, capita che ChatGPT produca testi con fallacie argomentative oppure con informazioni scientifiche scorrette perché non è ancora in grado di discernere tra le migliaia di fonti a sua disposizione. Non è solo il mondo della ricerca e della formazione ad essere toccato dall’avvento dei chatbot ma in generale tutti i campi che riguardano il linguaggio e la produzione di testi, dal giornalismo all’editoria alle traduzioni.  

Anche noi della redazione di Star, come giornalisti e scienziati, ci siamo chiesti se ad oggi l’intelligenza artificiale è in grado di generare testi tanto credibili da essere indistinguibili da quelli scritti da un essere umano. Per questo abbiamo deciso di fare un test con gli studenti della magistrale di Comunicazione Scientifica Biomedica della Sapienza. Come prima cosa abbiamo generato con ChatGPT  tre documenti su tre argomenti: stem cells, aging e one health. Le domande che abbiamo posto a ChatGPT sono state “spiega l’argomento” e “produci un abstract scientifico di 500 caratteri”. Inoltre, abbiamo usato la funzione di ChatGPT che consente di generare più risposte a una stessa domanda. In questo modo per ciascun argomento, stem cells aging e one health, abbiamo generato 7 testi di cui 4 abstract scientifici e 3 introduzioni al tema. Quindi abbiamo consegnato i documenti agli student* e, senza rivelargli che erano tutti stati generati attraverso ChatGPT,  gli abbiamo chiesto di individuare quelli scritti dall’intelligenza artificiale e quelli invece scritti da noi.  

Secondo gli studenti il 59% dei testi erano stati scritti da ChatGPT. Questo vuol dire che i ragazz* non hanno riconosciuto il 41% dei testi generati da ChatGPT . Quasi la metà dei testi secondo loro  era stata scritta da un essere umano.

Ma quindi cosa differenzia un testo scritto da un umano da uno scritto dall’intelligenza artificiale? 

Quello che ChatGPT e altri software basati su modelli linguistici di grandi dimensioni sanno fare è produrre testi coerenti e fluidi. Capita però che le informazioni all’interno siano errate, tra queste soprattutto i dati numerici e statistici inoltre alcuni termini che utilizza non sono adeguati allo stile del testo da generare. Questa particolare tecnologia di intelligenza artificiale è ancora in fase di sviluppo ad oggi quindi è difficile predire che tipo di impatto avrà nel futuro. Quello che è certo è che è inevitabile che diventi uno strumento ad uso della comunità e che per questo impedirne l’utilizzo, oggi, è impensabile.

Sofia Gaudioso, biologa e comunicatrice della scienza, Sapienza Università di Roma