giovedì, Dicembre 26, 2024

Le mappe satellitari deepfake potrebbero diventare un grosso problema

Le immagini satellitari che mostrano l’espansione di grandi campi di detenzione nello Xinjiang, in Cina, tra il 2016 e il 2018 hanno fornito alcune delle prove più evidenti di un giro di vite del governo su oltre un milione di musulmani, innescando condanne e sanzioni internazionali.

Altre immagini aeree, ad esempio di installazioni nucleari in Iran e siti missilistici in Corea del Nord, hanno avuto un impatto simile sugli eventi mondiali. Ora, gli strumenti di manipolazione delle immagini resi possibili dall’intelligenza artificiale possono rendere più difficile accettare tali immagini al valore nominale.

In un articolo pubblicato online il mese scorso, il professore dell’Università di Washington Bo Zhao ha impiegato tecniche di intelligenza artificiale simili a quelle utilizzate per creare i cosiddetti deepfake per alterare le immagini satellitari di diverse città. Zhao e colleghi hanno scambiato le caratteristiche tra le immagini di Seattle e Pechino per mostrare edifici dove non ce ne sono a Seattle e per rimuovere le strutture e sostituirle con il verde a Pechino.

Zhao ha utilizzato un algoritmo chiamato CycleGAN per manipolare le foto satellitari. L’algoritmo, sviluppato dai ricercatori della UC Berkeley, è stato ampiamente utilizzato per ogni tipo di inganno delle immagini. Addestra una rete neurale artificiale per riconoscere le caratteristiche chiave di determinate immagini, come uno stile di pittura o le caratteristiche su un particolare tipo di mappa. Un altro algoritmo aiuta quindi a perfezionare le prestazioni del primo cercando di rilevare quando un’immagine è stata manipolata.

Come con i video clip deepfake che pretendono di mostrare persone in situazioni compromettenti, tali immagini potrebbero fuorviare i governi o diffondersi sui social media, seminando disinformazione o dubbi su informazioni visive reali.

“Penso assolutamente che questo sia un grosso problema che potrebbe non avere un impatto sul cittadino medio domani, ma che svolgerà un ruolo molto più importante dietro le quinte nel prossimo decennio”, afferma Grant McKenzie , assistente professore di scienza dei dati spaziali presso la McGill University in Canada, chi non era coinvolto nell’opera.

“Immagina un mondo in cui un governo statale, o un altro attore, può manipolare realisticamente le immagini per non mostrare nulla o un layout diverso”, afferma McKenzie. “Non sono del tutto sicuro di cosa si possa fare per fermarlo a questo punto”.

Alcune immagini satellitari rozzamente manipolate si sono già diffuse in modo virale sui social media, tra cui una fotografia che pretende di mostrare l’India illuminata durante il festival indù di Diwali che è stata apparentemente ritoccata a mano. Potrebbe essere solo una questione di tempo prima che immagini satellitari “deepfake” molto più sofisticate vengano utilizzate, ad esempio, per nascondere installazioni di armi o giustificare erroneamente un’azione militare.

Gabrielle Lim , ricercatrice presso lo Shorenstein Center della Harvard Kennedy School che si concentra sulla manipolazione dei media, afferma che le mappe possono essere utilizzate per fuorviare senza l’intelligenza artificiale. Indica le immagini circolate online che suggeriscono che Alexandria Ocasio-Cortez non era dove affermava di essere durante l’insurrezione del Campidoglio il 6 gennaio, così come i passaporti cinesi che mostrano una regione contesa del Mar Cinese Meridionale come parte della Cina. “Nessuna tecnologia di fantasia, ma può raggiungere obiettivi simili”, afferma Lim.

Le immagini aeree manipolate potrebbero anche avere un significato commerciale, dato che tali immagini sono estremamente preziose per la mappatura digitale, il monitoraggio dei sistemi meteorologici e la guida degli investimenti .

L’intelligence statunitense ha riconosciuto che le immagini satellitari manipolate rappresentano una minaccia crescente. “Gli avversari possono utilizzare informazioni false o manipolate per influenzare la nostra comprensione del mondo”, afferma un portavoce della National Geospatial-Intelligence Agency , parte del Pentagono che sovrintende alla raccolta, all’analisi e alla distribuzione delle informazioni geospaziali.

Il portavoce afferma che l’analisi forense può aiutare a identificare le immagini contraffatte, ma riconosce che l’aumento dei falsi automatizzati potrebbe richiedere nuovi approcci. Il software potrebbe essere in grado di identificare segni rivelatori di manipolazione, come artefatti visivi o modifiche ai dati in un file. Ma l’intelligenza artificiale può imparare a rimuovere tali segnali, creando un gioco del gatto e del topo tra falsificatori e falsi osservatori.

“L’importanza di conoscere, convalidare e fidarsi delle nostre fonti sta solo aumentando e la tecnologia ha un ruolo importante nell’aiutare a raggiungere questo obiettivo”, afferma il portavoce.

L’individuazione di immagini manipolate con l’intelligenza artificiale è diventata un’area importante della ricerca accademica, industriale e governativa. Le grandi aziende tecnologiche come Facebook, preoccupate per la diffusione di disinformazione, stanno sostenendo gli sforzi per automatizzare l’identificazione dei video deepfake .

Zhao dell’Università di Washington ha in programma di esplorare modi per identificare automaticamente le immagini satellitari deepfake. Dice che studiare come i paesaggi cambiano nel tempo potrebbe aiutare a segnalare le caratteristiche sospette. “I modelli spazio-temporali saranno davvero importanti”, afferma.

Tuttavia, Zhao osserva che anche se il governo dispone della tecnologia necessaria per individuare tali falsi, il pubblico potrebbe essere colto di sorpresa. “Se c’è un’immagine satellitare ampiamente diffusa nei social media, potrebbe essere un problema”, afferma.

ARTICOLI COLLEGATI:

ULTIMI ARTICOLI: