Chat GPT: vantaggi e rischi nel medical writing
L’ultima frontiera nell’ambito dell’intelligenza artificiale, che potrebbe rivoluzionare l’intero mondo dell’informazione scientifica, dalla scrittura alla divulgazione dei contenuti, generali e specifici, si chiama Chat GPT.
Chat GPT è una chatbot, software informatico di ultima generazione capace di “dialogare” con l’utente, restituendo risposte pertinenti e articolate adottando un linguaggio autorevole.
Le sue potenzialità sono tali da destare opinioni contrastanti nella comunità scientifica; all’entusiasmo mosso dalle eccezionali potenzialità di questa chatbot, già adottata in forma sperimentale in ambito accademico e di ricerca, si è affiancata la ragionevole preoccupazione che un mezzo così potente, ma non ancora totalmente perfezionato e affidabile, possa essere usato in modo poco trasparente e inappropriato.
Chiaramente non mancano le prospettive per futuri utilizzi; di particolare intesse risulta la sua applicazione nel campo del medical writing, che è già stata testata, generando non poche polemiche. Sfruttando l’efficienza di questo sistema, già nel 2022 parecchi ricercatori hanno “cooperato” con chat GPT al fine di realizzare articoli scientifici originali. A questo proposito, la società di ricerca farmaceutica Insilico Medicine, ha affermato di aver pubblicato più di 80 articoli scritti grazie al supporto di strumenti di intelligenza digitale, citando persino chat GPT come coautore in alcuni di essi.
La prova del nove
Per saggiare le effettive potenzialità di scrittura di questa chatbot, alcune ricerche hanno selezionato più di 50 articoli, redatti dalle più prestigiose riviste scientifiche, tra cui The Lancet e Nature Medicine, chiedendo a chat GPT di scrivere per ciascuno di essi un nuovo abstract, diverso dall’originale.
I risultati sono stati impressionanti; non solo il testo realizzato dal sistema di intelligenza artificiale risultava originale al 100%, ma più del 30% dei revisori, digitali e umani, hanno scambiato gli abstract realizzati da chat GPT per degli originali.
L’impossibilità di identificare chiaramente l’origine di un testo scientifico, come affermato da autorevoli esponenti dell’editoria scientifica, potrebbe avere “conseguenze disastrose”.
Come afferma Sandra Wachter, ricercatrice presso l’Università di Oxford, “Se ora ci troviamo in una situazione in cui gli esperti non sono in grado di determinare cosa sia vero o no, perdiamo l’intermediario di cui abbiamo disperatamente bisogno per guidarci attraverso argomenti complicati”.
Sino a quando, dunque, l’uso di questi strumenti digitali non verrà correttamente regolato, stabilendo regole chiare sul suo uso a scopi scientifico-divulgativi, l’uso delle chat bot dovrebbe essere limitato.
Di fatto, nonostante chat GPT possegga straordinarie capacità di scrittura e sia stato progettato per simulare e potenziare l’intelligenza umana, manca di capacità creativa e di pensiero critico, rendendo insostituibile il ruolo dei ricercatori e dei medical writer, che potrebbero però trovare in un prossimo futuro, quando le chatbot verranno perfezionate e il loro uso sarà regolamentato, un valido supporto in questo potente strumento.
Autore: Elisa Bella
Fonti
- O’Connor S, ChatGPT. Open artificial intelligence platforms in nursing education: Tools for academic progress or abuse? Nurse Educ Pract. 2023 Jan;66:103537. doi: 10.1016/j.nepr.2022.103537. Epub 2022 Dec 16. Erratum in: Nurse Educ Pract. 2023 Feb 6;:103572. PMID: 36549229.
- Tools such as ChatGPT threaten transparent science; here are our ground rules for their use. Nature. 2023 Jan;613(7945):612. doi: 10.1038/d41586-023-00191-1. PMID: 36694020.
- Stokel-Walker C. ChatGPT listed as author on research papers: many scientists disapprove. Nature. 2023 Jan;613(7945):620-621. doi: 10.1038/d41586-023-00107-z. PMID: 36653617
- Else H. Abstracts written by ChatGPT fool scientists. Nature. 2023 Jan;613(7944):423. doi: 10.1038/d41586-023-00056-7. PMID: 36635510