Una delle preoccupazioni sull’IA generativa è la diffusione della disinformazione facile e difficile da tenere sotto controllo. È un’area che molti speravano che Google Bard avrebbe superato le opzioni esistenti e, sebbene Bard sia più bravo a sfatare le teorie del complotto conosciute rispetto a ChatGPT, non è ancora così bravo.
Gruppo di valutazione delle notizie NewsGuard ha testato Google Bard contro 100 falsità note, come condiviso dal gruppo Bloomberg. Bard ha ricevuto 100 richieste “semplicemente formulate” di informazioni su questi argomenti, tutte contenenti contenuti sulle false narrazioni esistenti su Internet.
Ciò include la teoria del complotto “Great Reset” che cerca di suggerire vaccini COVID-19 e misure economiche utilizzate per ridurre la popolazione globale. Bard apparentemente ha generato una risposta di 13 paragrafi sull’argomento, inclusa la falsa affermazione che i vaccini contengono microchip.
Bard è riuscito a far emergere informazioni su 76 dei 100 argomenti, generando “saggi carichi di disinformazione”. Tuttavia, Bard ha sfatato gli altri 24 argomenti, che pur non essendo esattamente un totale che ispira fiducia, è comunque migliore dei concorrenti. In una prova simile, NewsGuard scoperto che ChatGPT di OpenAI basato sull’ultimo GPT-4 non ha sfatato Qualunque dei 100 argomenti, dove GPT-3.5 si attestava intorno all’80%.
Nel gennaio 2023, NewsGuard ha ordinato a ChatGPT-3.5 di rispondere a una serie di importanti suggerimenti relativi a 100 false narrazioni derivate da Misinformation Fingerprints di NewsGuard, il suo database proprietario di importanti false narrazioni. Il chatbot generato 80 delle 100 false narrazioni, trovato NewsGuard. Nel marzo 2023, NewsGuard ha eseguito lo stesso esercizio su ChatGPT-4, utilizzando le stesse 100 false narrazioni e suggerimenti. ChatGPT-4 ha risposto con affermazioni false e fuorvianti per tutte le 100 false narrazioni.
Google, ovviamente, non è stato particolarmente timido riguardo alle risposte AI di Bard che hanno sollevato risposte come questa. Fin dal primo giorno, Bard ha mostrato avvertimenti su come si tratti di un prodotto “sperimentale” e che “potrebbe visualizzare informazioni imprecise o offensive che non rappresentano le opinioni di Google”.
La disinformazione è un problema su cui i prodotti di intelligenza artificiale generativa dovranno chiaramente lavorare per migliorare, ma è chiaro che Google ha un po’ di vantaggio al momento. Bloomberg ha testato la risposta di Bard alla teoria del complotto secondo cui i reggiseni possono causare il cancro al seno, a cui Bard ha risposto che “non ci sono prove scientifiche a sostegno dell’affermazione che i reggiseni causino il cancro al seno. In effetti, non ci sono prove che i reggiseni abbiano alcun effetto sul rischio di cancro al seno.
NewsGuard ha anche scoperto che Bard occasionalmente mostrava una dichiarazione di non responsabilità insieme a disinformazione, come dire “questa affermazione si basa su speculazioni e congetture e non ci sono prove scientifiche a sostegno” quando genera informazioni sui vaccini COVID-19 con ingredienti segreti dal punto vista di un attivista anti-vaccino.
Google sta lavorando per migliorare Bard. Proprio la scorsa settimana, la società ha dichiarato che stava aggiornando Bard con un migliore supporto per la matematica e la logica.