venerdì, Dicembre 27, 2024

3 pericoli reali di questa tecnologia in evoluzione

I segni rivelatori di un’immagine deepfake erano facili da individuare, ma l’IA generativa ci sta facendo mettere in discussione quasi tutto ciò che vediamo e sentiamo ora. Con ogni nuovo modello di intelligenza artificiale che viene rilasciato, i segni rivelatori di un’immagine falsa stanno diminuendo e, per aumentare la confusione, ora puoi creare video deepfake, cloni vocali dei tuoi cari e fabbricare articoli falsi in pochi secondi.

Per evitare di essere ingannati dai deepfake di intelligenza artificiale, vale la pena sapere che tipo di pericoli rappresentano.

L’evoluzione dei deepfake

Un deepfake mostra una persona che fa qualcosa che non è mai successo nella vita reale. È completamente falso. Ridiamo dei deepfake quando vengono condivisi su Internet come meme o scherzi, ma pochissime persone trovano divertente quando vengono utilizzati per ingannarci.

In passato, i deepfake venivano creati scattando una foto esistente e modificandola in un software di modifica delle immagini come Photoshop. Ma ciò che distingue un deepfake AI è che può essere generato da zero utilizzando algoritmi di deep learning.

IL Dizionario Merriam-Webster definisce un deepfake come:

Un’immagine o una registrazione che è stata alterata e manipolata in modo convincente per rappresentare erroneamente qualcuno che fa o dice qualcosa che non è stato effettivamente fatto o detto.

Ma con i progressi della tecnologia AI, questa definizione comincia a sembrare obsoleta. Con l’uso di strumenti di intelligenza artificiale, i deepfake ora includono immagini, testo, video e clonazione vocale. A volte, tutte e quattro le modalità di generazione dell’IA vengono utilizzate contemporaneamente.

Poiché è un processo automatizzato incredibilmente rapido ed economico da utilizzare, è lo strumento perfetto per sfornare deepfake a una velocità che non abbiamo mai visto prima, il tutto senza bisogno di sapere una sola cosa su come modificare foto, video o audio .

I grandi pericoli dei deepfake AI

Esiste già una serie di generatori di video AI, insieme a numerosi generatori vocali AI. Aggiungi un modello linguistico di grandi dimensioni come GPT-4 e hai una ricetta per creare i deepfake più credibili che abbiamo visto finora nella storia moderna.

Essere consapevoli dei diversi tipi di deepfake di intelligenza artificiale e di come potrebbero essere utilizzati per ingannarti è un modo per evitare di essere fuorviati. Ecco solo alcuni esempi seri di come la tecnologia deepfake AI rappresenti una vera minaccia.

1. Furto di identità tramite intelligenza artificiale

Potresti averli visti. Tra i primi deepfake AI veramente virali a diffondersi in tutto il mondo c’erano un’immagine di Donald Trump arrestato e una di Papa Francesco con un piumino bianco.

Mentre uno sembra un’innocente rivisitazione di ciò che una famosa figura religiosa potrebbe indossare in una fredda giornata a Roma; l’altra immagine, che mostra un personaggio politico in una grave situazione con la giustizia, ha conseguenze molto maggiori se presa per reale.

Finora, le persone hanno preso di mira principalmente celebrità, personaggi politici e altri personaggi famosi durante la creazione di deepfake AI. In parte, questo è dovuto al fatto che personaggi famosi hanno molte foto di loro su Internet che probabilmente hanno aiutato ad addestrare il modello in primo luogo.

Nel caso di un generatore di immagini AI come Midjourney, utilizzato sia nel deepfake di Trump che del Papa, un utente deve semplicemente inserire un testo che descriva ciò che vuole vedere. Le parole chiave possono essere utilizzate per specificare lo stile artistico, come una fotografia o il fotorealismo, e i risultati possono essere ottimizzati aumentando la risoluzione.

Puoi altrettanto facilmente imparare a usare Midjourney e provarlo tu stesso, ma per ovvi motivi morali e legali, dovresti evitare di pubblicare queste immagini pubblicamente.

Sfortunatamente, essere un essere umano medio e non famoso non garantisce nemmeno che tu sia al sicuro dai deepfake di intelligenza artificiale.

Il problema risiede in una caratteristica chiave offerta dai generatori di immagini AI: la possibilità di caricare la propria immagine e manipolarla con l’IA. E uno strumento come Outpainting in DALL-E 2 può estendere un’immagine esistente oltre i suoi confini inserendo un prompt di testo e descrivendo cos’altro vorresti generare.

Se qualcun altro dovesse farlo con le tue foto, i pericoli potrebbero essere significativamente maggiori rispetto al deepfake del Papa in giacca bianca: possono usarlo ovunque, fingendo di essere te. Mentre la maggior parte delle persone generalmente usa l’intelligenza artificiale con buone intenzioni, ci sono pochissime restrizioni che impediscono alle persone di usarla per causare danni, specialmente nei casi di furto di identità.

2. Truffe Deepfake Voice Clone

Con l’aiuto dell’intelligenza artificiale, i deepfake hanno superato un limite a cui la maggior parte di noi non era preparata: falsi cloni vocali. Con solo una piccola quantità di audio originale, forse da un video TikTok che hai pubblicato una volta o da un video di YouTube in cui appari, un modello AI può replicare la tua unica voce.

È sia inquietante che spaventoso immaginare di ricevere una telefonata che suona proprio come un familiare, un amico o un collega. I cloni vocali di Deepfake sono una preoccupazione abbastanza seria che il Commissione federale per il commercio (FTC) ha emesso un avviso al riguardo.

Non fidarti della voce. Chiama la persona che presumibilmente ti ha contattato e verifica la storia. Usa un numero di telefono che sai essere il loro. Se non riesci a raggiungere la persona amata, prova a metterti in contatto con loro tramite un altro membro della famiglia o i suoi amici.

Lo riferisce il Washington Post un caso di una coppia sulla settantina che ha ricevuto una telefonata da qualcuno che sembrava proprio il loro nipote. Era in prigione e aveva urgente bisogno di soldi per la cauzione. Non avendo altri motivi per dubitare con chi stessero parlando, sono andati avanti e hanno consegnato i soldi al truffatore.

Non è solo la vecchia generazione a essere a rischio, Lo riferisce il Guardian un altro esempio di un direttore di banca che ha approvato una transazione da 35 milioni di dollari dopo una serie di “chiamate profondamente false” da parte di qualcuno che credevano essere un direttore di banca.

3. Notizie false prodotte in serie

Modelli linguistici di grandi dimensioni, come ChatGPT sono molto, molto bravi a produrre testi che suonano proprio come quelli di un essere umano e al momento non disponiamo di strumenti efficaci per individuare la differenza. Nelle mani sbagliate, notizie false e teorie del complotto saranno economiche da produrre e ci vorrà più tempo per sfatarle.

Diffondere disinformazione non è niente di nuovo ovviamente, ma un documento di ricerca pubblicato su arXiv nel gennaio 2023 spiega che il problema sta nella facilità con cui è possibile aumentare l’output con gli strumenti di intelligenza artificiale. Si riferiscono ad esso come “campagne di influenza generate dall’intelligenza artificiale”, che secondo loro potrebbero, ad esempio, essere utilizzate dai politici per esternalizzare le loro campagne politiche.

La combinazione di più di una fonte generata dall’intelligenza artificiale crea un deepfake di alto livello. Ad esempio, un modello di intelligenza artificiale può generare una notizia ben scritta e convincente da affiancare all’immagine falsa dell’arresto di Donald Trump. Ciò gli conferisce maggiore legittimità rispetto a se l’immagine fosse condivisa da sola.

Le notizie false non si limitano nemmeno alle immagini e alla scrittura, gli sviluppi nella generazione di video AI significano che stiamo vedendo spuntare più video deepfake. Eccone uno di Robert Downey Jr. innestato su un video di Elon Musk, postato dal Canale YouTube Deepfaker.

Creare un deepfake può essere semplice come scaricare un’app. Puoi utilizzare un’app come TokkingHeads per trasformare le immagini fisse in avatar animati, che ti consentono di caricare la tua immagine e il tuo audio per far sembrare che la persona stia parlando.

Per la maggior parte, è divertente e divertente, ma c’è anche il rischio di guai. Ci mostra quanto sia facile usare l’immagine di qualcuno per far sembrare che quella persona abbia pronunciato parole che non ha mai pronunciato.

Non lasciarti ingannare da un deepfake AI

I deepfake possono essere implementati rapidamente a un costo molto basso e con un basso livello di competenza o potenza di calcolo richiesta. Possono assumere la forma di un’immagine generata, un clone vocale o una combinazione di immagini, audio e testo generati dall’intelligenza artificiale.

In passato era molto più difficile e laborioso produrre un deepfake, ma ora, con un sacco di app di intelligenza artificiale là fuori, praticamente chiunque ha accesso agli strumenti utilizzati per creare deepfake. Man mano che la tecnologia AI deepfake diventa sempre più avanzata, vale la pena tenere d’occhio i pericoli che pone.

ARTICOLI COLLEGATI:

ULTIMI ARTICOLI: