domenica, Novembre 24, 2024

5 modi in cui l’intelligenza artificiale può aiutare i criminali informatici

Molti appassionati di tecnologia sono entusiasti delle potenziali prese dell’intelligenza artificiale, ma anche i criminali informatici stanno cercando questa tecnologia per aiutarli nei loro exploit.

L’intelligenza artificiale è un campo affascinante, ma può anche darci motivo di preoccupazione. Quindi, in che modo l’IA può aiutare i criminali informatici?

1. Scrivere malware

L’intelligenza artificiale è un tipo avanzato di tecnologia, quindi alcuni potrebbero non trovare sorprendente che possa essere utilizzata per scrivere malware. Malware è un termine utilizzato per i programmi dannosi (una combinazione delle parole “dannoso” e “software”) nell’hacking e può presentarsi in molte forme. Ma per utilizzare il malware, deve prima essere scritto.

Non tutti i criminali informatici hanno esperienza nella codifica, con altri che semplicemente non vogliono perdere tempo a scrivere nuovi programmi. È qui che l’intelligenza artificiale può tornare utile.

All’inizio del 2023, è stato notato che ChatGPT poteva essere utilizzato per scrivere malware per attacchi illeciti. Il popolarissimo ChatGPT di OpenAI è alimentato da un’infrastruttura AI. Questo chatbot può fare molte cose utili, ma viene anche sfruttato da individui illeciti.

In un caso specifico, un utente ha postato su un forum di hacking affermando di aver scritto un programma malware basato su Python utilizzando ChatGPT.

ChatGPT potrebbe automatizzare efficacemente il processo di scrittura di programmi dannosi. Questo apre la porta ai criminali informatici alle prime armi che non hanno molta esperienza tecnica.

ChatGPT (o almeno la sua ultima versione) può scrivere solo programmi malware di base e talvolta difettosi, piuttosto che codice sofisticato che pone gravi minacce. Tuttavia, questo non vuol dire che l’intelligenza artificiale non possa essere utilizzata per scrivere malware. Dato che un attuale chatbot di intelligenza artificiale può creare programmi dannosi di base, potrebbe non passare molto tempo prima che vediamo malware più atroci provenire dai sistemi di intelligenza artificiale.

2. Cracking delle password

Le password spesso rappresentano l’unica riga di dati che protegge i nostri account e dispositivi. Quindi, non sorprende che molti criminali informatici cerchino di decifrare le password per ottenere l’accesso ai nostri dati privati.

Il cracking delle password è già popolare nel crimine informatico e ci sono varie tecniche che un attore malintenzionato può utilizzare per scoprire la password di un bersaglio. Tecniche diverse hanno tassi di successo diversi, ma l’intelligenza artificiale potrebbe aumentare notevolmente la possibilità di decifrare una password.

Il concetto di cracker di password AI non è affatto fantascienza. Infatti, ZDNet ha riferito che gli esperti di sicurezza informatica hanno scoperto che oltre la metà delle password comunemente utilizzate potrebbe essere violata in meno di un minuto. L’articolo fa riferimento a Rapporto sugli eroi della sicurezza domesticache affermava che uno strumento di cracking basato sull’intelligenza artificiale chiamato PassGAN potrebbe violare il 51% delle password comuni in meno di un minuto e il 71% in meno di un giorno.

Queste cifre mostrano quanto possa essere pericoloso il cracking delle password AI. Con la capacità di decifrare la maggior parte delle password regolari in meno di 24 ore, non si sa cosa potrebbe fare un criminale informatico utilizzando uno strumento del genere.

3. Condurre ingegneria sociale

La tattica del crimine informatico nota come ingegneria sociale miete orde di vittime ogni settimana ed è un grave problema in ogni parte del mondo. Questo metodo utilizza la manipolazione per costringere le vittime a soddisfare le richieste dell’aggressore, spesso senza nemmeno rendersi conto di essere prese di mira

L’intelligenza artificiale potrebbe aiutare negli attacchi di ingegneria sociale formulando il contenuto utilizzato in comunicazioni dannose, come e-mail e messaggi di phishing. Anche con l’attuale livello di avanzamento dell’IA, non sarebbe difficile chiedere a un chatbot di formulare uno script convincente o persuasivo, che il criminale informatico potrebbe quindi utilizzare contro le proprie vittime. Questa minaccia non è passata inosservata e le persone sono già preoccupate per i pericoli in arrivo.

In questo senso, l’intelligenza artificiale potrebbe anche aiutare a rendere le comunicazioni dannose più professionali e ufficiali, eliminando errori di ortografia e grammatica. Si dice spesso che tali errori siano possibili segni di attività dannose, quindi potrebbe aiutare i criminali informatici se possono scrivere i loro contenuti di ingegneria sociale in modo più pulito ed efficace.

4. Trovare le vulnerabilità del software

Per hackerare i programmi software, i criminali informatici spesso devono trovare e sfruttare una vulnerabilità di sicurezza. Queste vulnerabilità spesso derivano da bug nel codice del software. Se un bug non viene corretto o se un individuo non aggiorna regolarmente i propri programmi software (cosa che spesso risolve i difetti di sicurezza), le vulnerabilità possono rappresentare un grave rischio.

I criminali informatici lo sanno ed è per questo che sono alla ricerca di difetti. Esistono già strumenti che è possibile utilizzare per trovare vulnerabilità, come un exploit kit. Ma utilizzando l’intelligenza artificiale, un attore malintenzionato potrebbe essere in grado di evidenziare molte più vulnerabilità, alcune delle quali potrebbero essere utilizzate per causare molti danni.

Tuttavia, questa applicazione AI potrebbe anche essere utile per i fornitori di sicurezza informatica, in quanto potrebbe aiutare a trovare le vulnerabilità prima che vengano sfruttate. Essere in grado di correggere rapidamente un difetto può impedire agli attori malintenzionati di sfruttarlo, mitigando gli attacchi in generale.

5. Analisi dei dati rubati

I dati valgono quanto l’oro. Oggi, i dati sensibili vengono venduti costantemente sui mercati del dark web, con alcuni malintenzionati disposti a pagare un prezzo molto alto se le informazioni sono abbastanza utili.

Ma affinché questi dati siano disponibili su questi mercati, devono prima essere rubati. I dati possono certamente essere rubati in piccole quantità, specialmente quando l’attaccante prende di mira vittime sole. Ma gli hack più grandi possono portare al furto di enormi database. A questo punto, il criminale informatico deve determinare quali informazioni in questo database sono preziose.

Utilizzando l’intelligenza artificiale, il processo di evidenziazione di informazioni preziose potrebbe essere semplificato, riducendo il tempo necessario a un attore malintenzionato per determinare cosa vale la pena vendere o, d’altra parte, sfruttare direttamente con le proprie mani. L’intelligenza artificiale, al suo interno, è incentrata sull’apprendimento, quindi un giorno potrebbe diventare facile utilizzare uno strumento basato sull’intelligenza artificiale per raccogliere preziosi dati sensibili.

L’intelligenza artificiale è promettente, ma pone anche molte minacce

Come nel caso della maggior parte dei tipi di tecnologia, l’intelligenza artificiale è stata e continuerà ad essere sfruttata dai criminali informatici. Con l’intelligenza artificiale che dispone già di alcune capacità illecite, non si sa davvero come i criminali informatici saranno in grado di far avanzare i loro attacchi utilizzando questa tecnologia nel prossimo futuro. Le aziende di sicurezza informatica possono anche lavorare sempre più con l’intelligenza artificiale per combattere tali minacce, ma il tempo dirà come andrà a finire.

ARTICOLI COLLEGATI:

ULTIMI ARTICOLI: