Nel gennaio 2023, appena due mesi dopo il lancio, ChatGPT (Generative Pre-trained Transformer) è diventata l’applicazione in più rapida crescita di tutti i tempi, accumulando oltre 100 milioni di utenti.
Il chatbot avanzato di OpenAI potrebbe aver rinvigorito l’interesse del pubblico per l’intelligenza artificiale, ma pochi hanno preso seriamente in considerazione i potenziali rischi per la sicurezza associati a questo prodotto.
ChatGPT: minacce e problemi di sicurezza
La tecnologia alla base di ChatGPT e di altri chatbot potrebbe essere simile, ma ChatGPT appartiene a una categoria a sé stante. Questa è un’ottima notizia se intendi usarlo come una sorta di assistente personale, ma preoccupante se consideri che anche gli attori delle minacce lo usano.
I criminali informatici possono utilizzare ChatGPT per scrivere malware, creare siti Web di truffa, generare e-mail di phishing, creare notizie false e così via. Per questo motivo, ChatGPT potrebbe rappresentare un rischio per la sicurezza informatica più grande che un vantaggio, come Computer che suona mettilo in un’analisi.
Allo stesso tempo, ci sono serie preoccupazioni sul fatto che ChatGPT stesso abbia alcune vulnerabilità non affrontate. Ad esempio, nel marzo 2023, sono emerse segnalazioni secondo cui alcuni utenti potevano visualizzare i titoli delle conversazioni di altri. COME Il limite riportato all’epoca, il CEO di OpenAI Sam Altman ha spiegato che “un bug in una libreria open source” aveva causato il problema.
Questo sottolinea quanto sia importante limitare ciò che condividi con ChatGPT, che raccoglie una quantità impressionante di dati per impostazione predefinita. Il colosso tecnologico Samsung lo ha imparato nel modo più duro, quando un gruppo di dipendenti che utilizzava il chatbot come assistente gli ha accidentalmente fatto trapelare informazioni riservate.
ChatGPT è una minaccia per la tua privacy?
Sicurezza e privacy non sono la stessa cosa, ma sono strettamente correlate e spesso si intersecano. Se ChatGPT è una minaccia alla sicurezza, allora è anche una minaccia alla privacy e viceversa. Ma cosa significa questo in termini più pratici? Come sono le politiche di sicurezza e privacy di ChatGPT?
Miliardi di parole sono state estratte da Internet per creare il vasto database di ChatGPT. Questo database è in continuo stato di espansione, poiché ChatGPT memorizza tutto ciò che gli utenti condividono. L’organizzazione no-profit con sede negli Stati Uniti Buon senso ha assegnato a ChatGPT un punteggio di valutazione della privacy del 61%, osservando che il chatbot raccoglie informazioni di identificazione personale (PII) e altri dati sensibili. La maggior parte di questi dati viene archiviata o condivisa con determinate terze parti.
In ogni caso, dovresti fare attenzione quando usi ChatGPT, soprattutto se lo usi per lavoro o per elaborare informazioni sensibili. Come regola generale, non dovresti condividere con il bot ciò che non vorresti che il pubblico sapesse.
Affrontare i rischi per la sicurezza associati a ChatGPT
L’intelligenza artificiale sarà regolamentata prima o poi, ma è difficile immaginare un mondo in cui non rappresenti una minaccia per la sicurezza. Come tutta la tecnologia, può e sarà oggetto di abusi.
In futuro, i chatbot diventeranno parte integrante dei motori di ricerca, degli assistenti vocali e dei social network Malwarebytes. E avranno un ruolo da svolgere in vari settori, dalla sanità all’istruzione, dalla finanza all’intrattenimento.
Questo trasformerà radicalmente la sicurezza così come la conosciamo. Ma come ha notato anche Malwarebytes, ChatGPT e strumenti simili possono essere utilizzati anche dai professionisti della sicurezza informatica; ad esempio per cercare bug nel software o “modelli sospetti” nell’attività di rete.
Aumentare la consapevolezza è fondamentale
Di cosa sarà capace ChatGPT tra cinque o 10 anni? Possiamo solo ipotizzare, ma quello che sappiamo per certo è che l’intelligenza artificiale non andrà da nessuna parte.
Man mano che emergono chatbot ancora più avanzati, interi settori dovranno adattarsi e imparare a usarli in modo responsabile. Ciò include il settore della sicurezza informatica, che è già stato modellato dall’IA. Aumentare la consapevolezza sui rischi per la sicurezza associati all’intelligenza artificiale è fondamentale e contribuirà a garantire che queste tecnologie siano sviluppate e utilizzate in modo etico.