domenica, Novembre 24, 2024

Intel ha ideato un rilevatore di video deepfake in tempo reale

Lunedì, Intel ha introdotto FakeCatcher , che si dice sia il primo rilevatore in tempo reale di deepfake, ovvero media sintetici in cui una persona in un’immagine o un video esistente viene sostituita con la somiglianza di qualcun altro.

Intel afferma che il prodotto ha un tasso di precisione del 96% e funziona analizzando il sottile “flusso sanguigno” nei pixel video per restituire risultati in millisecondi.

Ilke Demir, ricercatore senior presso gli Intel Labs, ha progettato FakeCatcher in collaborazione con Umur Ciftci della State University di New York a Binghamton. Il prodotto utilizza hardware e software Intel, funziona su un server e si interfaccia tramite una piattaforma basata sul web.

Il rilevatore di deepfake di Intel si basa sui segnali PPG

A differenza della maggior parte dei rilevatori di deepfake basati sul deep learning, che esaminano i dati grezzi per individuare l’inautenticità, FakeCatcher si concentra sugli indizi all’interno dei video reali. Si basa sulla fotopletismografia, o PPG, un metodo per misurare la quantità di luce assorbita o riflessa dai vasi sanguigni nei tessuti viventi. Quando il cuore pompa sangue, va nelle vene, che cambiano colore.

“Non puoi vederlo con i tuoi occhi, ma è computazionalmente visibile”, ha detto Demir a VentureBeat. “I segnali PPG erano noti, ma non erano mai stati applicati al problema del deepfake”.

Con FakeCatcher, i segnali PPG vengono raccolti da 32 posizioni sul viso, ha spiegato, e quindi le mappe PPG vengono create dalle componenti temporali e spettrali.

“Prendiamo quelle mappe e addestriamo una rete neurale convoluzionale sopra le mappe PPG per classificarle come false e reali”, ha detto Demir. “Quindi, grazie alle tecnologie Intel come [il] framework Deep Learning Boost per l’inferenza e Advanced Vector Extensions 512, possiamo eseguirlo in tempo reale e fino a 72 flussi di rilevamento simultanei”.

Rilevamento sempre più importante di fronte alle crescenti minacce

Il rilevamento di deepfake è diventato sempre più importante man mano che le minacce di deepfake incombono, secondo un recente documento di ricerca di Eric Horvitz, chief science officer di Microsoft. Questi includono deepfake interattivi, che offrono l’illusione di parlare con una persona reale, e deepfake compositivi, in cui i cattivi attori creano molti deepfake per compilare una “storia sintetica”.

E nel 2020 , Forrester Research ha previsto che i costi associati alle truffe deepfake avrebbero superato i 250 milioni di dollari.

Più di recente, sono proliferate le notizie sui deepfake delle celebrità. C’è la copertura del Wall Street Journal di Tom Cruise, Elon Musk e Leonardo DiCaprio deepfake che appaiono non autorizzati nelle pubblicità, così come le voci su Bruce Willis che ha ceduto i diritti alla sua somiglianza deepfake (non vero).

Il rovescio della medaglia, ci sono molti casi d’uso responsabili e autorizzati per i deepfake. Aziende come Hour One e Synthesia offrono deepfake per ambienti aziendali aziendali, ad esempio per la formazione dei dipendenti, l’istruzione e l’e-commerce. Oppure, i deepfake possono essere creati da utenti come celebrità e leader aziendali che desiderano sfruttare i media sintetici per “esternalizzare” a un gemello virtuale. In questi casi, c’è la speranza che emerga un modo per fornire piena trasparenza e provenienza dei media sintetici.

Demir ha affermato che Intel sta conducendo ricerche, ma è solo nelle fasi iniziali. “FakeCatcher fa parte di un gruppo di ricerca più grande di Intel chiamato Trusted Media, che sta lavorando al rilevamento di contenuti manipolati – deepfake – generazione responsabile e provenienza dei media”, ha affermato. “A breve termine, il rilevamento è in realtà la soluzione ai deepfake e stiamo sviluppando molti rilevatori diversi basati su diversi indizi di autenticità, come il rilevamento dello sguardo”.

Il passo successivo sarà il rilevamento della fonte, o la ricerca del modello GAN che sta dietro ogni deepfake, ha detto: “Il punto d’oro di ciò che immaginiamo è avere un insieme di tutti questi modelli di intelligenza artificiale, in modo da poter fornire un consenso algoritmico su ciò che è falso e ciò che è reale.

Le sfide con il rilevamento di deepfake

Sfortunatamente, rilevare i deepfake è stato impegnativo su diversi fronti. Secondo una ricerca del 2021 della University of Southern California, alcuni dei set di dati utilizzati per addestrare i sistemi di rilevamento dei deepfake potrebbero sottorappresentare persone di un certo genere o con specifici colori della pelle. Questo pregiudizio può essere amplificato nei rilevatori di deepfake, hanno affermato i coautori, con alcuni rilevatori che mostrano una differenza fino al 10,7% nel tasso di errore a seconda del gruppo razziale.

E nel 2020 , i ricercatori di Google e dell’Università della California a Berkeley hanno dimostrato che anche i migliori sistemi di intelligenza artificiale addestrati a distinguere tra contenuti reali e sintetici erano suscettibili di attacchi contraddittori che li portano a classificare immagini false come reali.

Inoltre, c’è il continuo gioco del gatto e del topo tra creatori e rilevatori di deepfake. Ma Demir ha affermato che al momento FakeCatcher di Intel non può essere ingannato.

“Poiché l’estrazione PPG che stiamo usando non è differenziabile, non puoi semplicemente collegarla alla funzione di perdita di una rete avversaria, perché non funziona e non puoi retropropagare se non è differenziabile”, ha detto. “Se non vuoi conoscere l’esatta estrazione PPG, ma vuoi approssimarla, hai bisogno di enormi set di dati PPG, che al momento non esistono – ci sono [set di dati di] 30-40 persone che non sono generalizzabili al totale.”

Ma Rowan Curran, analista AI/ML presso Forrester Research, ha dichiarato a VentureBeat via e-mail che “siamo in una lunga corsa agli armamenti evolutiva” intorno alla capacità di determinare se un pezzo di testo, audio o video è generato dall’uomo o meno.

“Mentre siamo ancora nelle primissime fasi di questo, il rilevatore di deepfake di Intel potrebbe essere un significativo passo avanti se è accurato come affermato, e in particolare se tale accuratezza non dipende dal fatto che l’essere umano nel video abbia caratteristiche specifiche ( ad esempio tonalità della pelle, condizioni di illuminazione, quantità di pelle che si può vedere nel video), ha detto.

ARTICOLI COLLEGATI:

ULTIMI ARTICOLI: