Un modello di Intelligenza artificiale (IA), chiamato GPT-3, diffonde disinformazione in modo più credibile di quanto facciano gli esseri umani. Almeno questo è quanto emerso da uno studio dell’Università di Zurigo, pubblicato sulla rivista Science Advances. Gli scienziati hanno analizzato se gli individui erano in grado di distinguere le fake news da informazioni accurate, strutturate sotto forma di tweet, e di determinare se un tweet era organico o sintetico, cioè, scritto da un utente di Twitter o da GPT-3. I risultati dimostrano che GPT-3 è un’arma a doppio taglio che, rispetto agli esseri umani, può produrre informazioni precise e più facili da comprendere, ma può anche produrre disinformazione più convincente. La ricerca ha, inoltre, dimostrato che gli uomini non sono in grado di distinguere i tweet generati da GPT-3 da quelli scritti da utenti umani. “I risultati suggeriscono che il modello di Intelligenza artificiale GPT-3 e altri modelli linguistici di grandi dimensioni possono sia informare che disinformare gli utenti dei social media, in modo più efficace rispetto agli esseri umani”, spiega Giovanni Spitale, ricercatore dell’Università di Zurigo.