domenica, Dicembre 22, 2024

Le fake news generate dall’IA: il report di NewsGuard sui 725 siti online

Intelligenza Artificiale GENERATIVA: IL PROBLEMA DELLA NORMATIVA E I RISCHI DELLE FAKE NEWS

L’intelligenza artificiale generativa, ossia produttrice di nuovi contenuti, è sulla bocca di tutti.

Un lungimirante volume che abbiamo recensito di recente si pone il problema di come l’IA dovrebbe essere normata, per un suo utilizzo virtuoso e sicuro. Inutile aggiungere che uno dei maggiori rischi è che l’intelligenza artificiale generativa di Immagini o di testi produca nuove e raffinate forme di fake news, sempre più difficili da sbugiardare.

È in questo senso impietoso l’ultimo report di NewsGuard, che individua ben 725 di Notizie generate dall’intelligenza artificiale, con poca o nessuna revisione umana.

Il report di NewsGuard

Nell’ultimo report NewsGuard ci dice di aver “identificato 725 siti di notizie e informazioni generati dall’intelligenza artificiale che operano con poca o nessuna supervisione umana, e sta monitorando le narrazioni false prodotte da strumenti basati sull’IA.”

I siti in questione operano in 15 lingue: arabo, cinese, ceco, coreano, francese, indonesiano, inglese, italiano, olandese, portoghese, spagnolo, tagalog, tedesco, thailandese e turco.

Scopriamo qualcosa di più sul report.

Siti di notizie generate dall’intelligenza artificiale: i quattro criteri

I 725 siti individuati da NewsGuard, che pubblicano notizie generate dall’intelligenza artificiale, soddisfano quattro requisiti.

Intanto, ci sono prove inconfutabili che una parte sostanziale dei contenuti dei siti è prodotta dall’IA.

Poi, “ci sono prove certe che i contenuti vengono pubblicati senza una significativa supervisione umana. Ad esempio, numerosi articoli contengono messaggi di errore o altre formule tipiche delle risposte dei chatbot, dimostrando dunque che il contenuto è stato prodotto da strumenti di IA senza un adeguato controllo.”

Inoltre, l’aspetto esteriore dei siti può indurre l’utente medio a credere che i contenuti siano prodotti da una redazione umana.

Infine, i siti in questione non rivelano apertamente che le notizie riportate sono Opera di intelligenza artificiale.

Come si presentano, e come guadagnano, questi siti

NewsGuard approfondisce il terzo dei tre criteri, quello per cui i siti di notizie generate dall’intelligenza artificiale hanno un aspetto ingannevole. “Hanno solitamente nomi generici – come iBusiness Day, Ireland Top News e Daily Time Update – che agli occhi di un lettore comune potrebbero sembrare quelli di siti di notizie legittimi. Eppure, tali fonti, anziché offrire contenuti giornalistici creati e curati in modo tradizionale, operano con poca o nessuna supervisione umana, e pubblicano articoli scritti in gran parte o interamente da bot.”

Si tratta di siti che hanno confezionato centinaia di articoli sui più svariati argomenti, spesso contenenti affermazioni palesemente false.

Leggiamo poi che in molti casi il guadagno di questi siti si basa sulla pubblicità programmatica. Ed è sorprendente come spesso gli inserzionisti non si assicurino sulla natura o la qualità del sito.

Dice giustamente NewsGuard: “Finché i brand non prenderanno provvedimenti per escludere le fonti non affidabili dalla lista di quelle autorizzate a pubblicare i loro annunci, le loro pubblicità continueranno a comparire su questo tipo di siti, creando un incentivo economico per il loro sviluppo su ampia scala.”

I siti di intelligenza artificiale e le bufale

È evidente che il maggior rischio nell’affidare quasi completamente la produzione e divulgazione di notizie all’intelligenza artificiale sia quello di moltiplicare la diffusione delle fake news.

Ecco che NewsGuard cita a titolo esemplificativo alcune false notizie generate dall’IA. Vediamone tre.

Tre esempi di fake news generate dall’IA

Un sito gestito dal governo cinese cita informazioni generate dall’intelligenza artificiale come fonte affidabile per sostenere la falsa teoria secondo cui gli Stati Uniti gestiscono un laboratorio di armi biologiche in Kazakistan. Secondo questa teoria, nel laboratorio verrebbero infettati dei cammelli per danneggiare la popolazione cinese.

Si cita poi il caso di un sito generato dall’intelligenza artificiale che ha diffuso la notizia del suicidio del presunto psichiatra di Netanyahu. Peccato che si tratti della rielaborazione (in tono serioso) di un articolo satirico pubblicato addirittura nel 2010.

Infine, già negli ultimi mesi del 2023 NewsGuard aveva analizzato 17 account di TikTok che creavano Video cospirazionisti grazie agli strumenti di sintesi vocale basati sull’intelligenza artificiale.

La diffusione delle fake news prodotte dall’intelligenza artificiale è dunque un serio problema che richiede una riflessione attenta e misure preventive da parte di tutte le parti coinvolte.

ARTICOLI COLLEGATI:

ULTIMI ARTICOLI: