Dati Falsificati nei Test Clinici: Studio sulle Potenzialità di ChatGPT

Una recente pubblicazione di Giuseppe Giannaccare dell’Università di Cagliari, apparsa su JAMA Ophthalmology, mette in luce una potenziale problematica legata all’uso di ChatGPT nel campo della ricerca clinica. Lo studio ha esplorato come ChatGPT, utilizzando il modello GPT-4, possa essere impiegato per generare dati clinici non autentici. In particolare, i ricercatori hanno creato un set di dati fittizi relativi a un trattamento chirurgico oculare, dimostrando come l’intelligenza artificiale possa produrre risultati ingannevoli.

Nell’esperimento, Giannaccare e il suo team hanno chiesto a GPT-4 ADA di generare dati su pazienti affetti da cheratocono, una condizione che provoca un assottigliamento della cornea e può causare problemi visivi. La ricerca fittizia ha incluso dati su 300 pazienti, suddivisi in gruppi che avevano ricevuto due tipi diversi di trapianti di cornea: la cheratoplastica penetrante e la cheratoplastica lamellare anteriore profonda. I dati creati artificialmente suggerivano che i pazienti trattati con DALK avessero risultati superiori rispetto a quelli trattati con PK, un’affermazione in contrasto con le evidenze cliniche esistenti.

Il lavoro di Giannaccare evidenzia come, con pochi minuti di utilizzo di ChatGPT, sia possibile produrre un set di dati apparentemente credibili ma completamente falsi. Questo solleva preoccupazioni significative sulla possibilità di manipolazione dei dati nella ricerca scientifica, in quanto le informazioni false possono essere facilmente create e potenzialmente utilizzate per ingannare o trarre conclusioni errate. Sebbene gli autori riconoscano che una revisione attenta dei dati potrebbe rivelare la loro origine artificiale, la facilità con cui possono essere generati pone interrogativi sull’integrità e sull’affidabilità della ricerca scientifica.