Gli attori delle minacce stanno mostrando un crescente interesse per gli strumenti di intelligenza artificiale generativa, con centinaia di migliaia di credenziali OpenAI in vendita sul dark web e l’accesso a un’alternativa dannosa per ChatGPT.
Sia i criminali informatici meno esperti che quelli esperti possono utilizzare gli strumenti per creare e-mail di phishing più convincenti, personalizzate per il pubblico previsto, per aumentare le possibilità di un attacco riuscito.
Gli hacker sfruttano l’intelligenza artificiale di GPT
In sei mesi gli utenti del dark web e di Telegram hanno citato ChatGPT, il chatbot di intelligenza artificiale di OpenAI, più di 27.000 volte, mostra i dati di Baglioreuna società di gestione dell’esposizione alle minacce, condivisa con BleepingComputer.
Analizzando i forum e i mercati del dark web, i ricercatori di Flare hanno notato che le credenziali OpenAI sono tra le ultime merci disponibili.
I ricercatori hanno identificato più di 200.000 credenziali OpenAI in vendita sul dark web sotto forma di registri stealer.
Rispetto ai 100 milioni di utenti attivi stimati a gennaio, il conteggio sembra insignificante, ma mostra che gli attori delle minacce vedono negli strumenti di intelligenza artificiale generativa un potenziale per attività dannose.
Un rapporto di giugno della società di sicurezza informatica Group-IB ha affermato che i mercati illeciti sul web oscuro scambiavano registri da malware che rubavano informazioni contenenti più di 100.000 account ChatGPT.
L’interesse dei criminali informatici per queste utilità è stato stuzzicato al punto che uno di loro ha sviluppato un clone di ChatGPT chiamato WormGPT e lo ha addestrato su dati incentrati sul malware.
Lo strumento è pubblicizzato come la “migliore alternativa GPT per blackhat” e un’alternativa ChatGPT “che ti consente di fare ogni sorta di cose illegali”.
Lo sviluppatore di WormGPT ha promosso lo strumento sul forum dei criminali informatici
fonte: SlashNext
WormGPT si basa sul modello di linguaggio di grandi dimensioni open source GPT-J sviluppato nel 2021 per produrre testo simile a quello umano. Il suo sviluppatore afferma di aver addestrato lo strumento su una serie diversificata di dati, con particolare attenzione ai dati relativi al malware, ma non ha fornito alcun suggerimento sui set di dati specifici.
WormGPT mostra il potenziale per gli attacchi BEC
Il provider di sicurezza e-mail SlashNext è stato in grado di ottenere l’accesso a WormGPT e ha effettuato alcuni test per determinare il potenziale pericolo che rappresenta.
L’attenzione dei ricercatori si è concentrata sulla creazione di messaggi adatti agli attacchi BEC (Business Email Compromise).
“In un esperimento, abbiamo incaricato WormGPT di generare un’e-mail intesa a fare pressione su un account manager ignaro affinché pagasse una fattura fraudolenta”, i ricercatori spiegare.
“I risultati sono stati inquietanti. WormGPT ha prodotto un’e-mail non solo straordinariamente persuasiva, ma anche strategicamente astuta, mostrando il suo potenziale per sofisticati attacchi di phishing e BEC”, hanno concluso.
Analizzando il risultato, i ricercatori di SlashNext hanno individuato i vantaggi che l’IA generativa può portare a un attacco BEC: oltre alla “grammatica impeccabile” che garantisce legittimità al messaggio, può anche consentire agli attaccanti meno abili di eseguire attacchi al di sopra del loro livello di sofisticazione.
Anche se difendersi da questa minaccia emergente può essere difficile, le aziende possono prepararsi formando i dipendenti su come verificare i messaggi che richiedono un’attenzione urgente, soprattutto quando è presente una componente finanziaria.
Il miglioramento dei processi di verifica della posta elettronica dovrebbe anche dare i suoi frutti con avvisi per i messaggi al di fuori dell’organizzazione o contrassegnando le parole chiave tipicamente associate a un attacco BEC.