venerdì, Dicembre 20, 2024

Tranquilli, c’è solo una minima possibilità che ChatGPT aiuti a creare armi biologiche

Secondo uno studio condotto dalla stessa azienda, GPT-4 di OpenAI ha offerto alle persone solo un leggero vantaggio rispetto a Internet normale quando si trattava di ricercare armi biologiche. ha riferito che la ricerca è stata condotta dal nuovo team di preparazione di OpenAI, lanciato lo scorso autunno per valutare i rischi e i potenziali usi impropri dei modelli di Intelligenza Artificiale di frontiera dell’azienda.

I risultati di OpenAI sembrano contrastare le preoccupazioni di scienziati, legislatori ed esperti di etica dell’intelligenza artificiale secondo cui potenti modelli di intelligenza artificiale come GPT-4 possono essere di aiuto significativo a terroristi, criminali e altri attori malintenzionati. Numero studi hanno messo in guardia sul fatto che l’intelligenza artificiale può dare a coloro che creano armi biologiche un vantaggio in più. Lo studio comprendeva 100 partecipanti, metà dei quali erano esperti di biologia avanzata e l’altra metà erano studenti che avevano frequentato il corso di biologia a livello universitario. I partecipanti sono stati quindi suddivisi in modo casuale in due gruppi: a uno è stato concesso l’accesso a una versione speciale e senza restrizioni del chatbot avanzato AI di OpenAI GPT-4, mentre l’altro gruppo ha avuto accesso solo a Internet normale.

Gli scienziati hanno poi chiesto ai gruppi di completare cinque compiti di ricerca relativi alla realizzazione di armi biologiche. Lo studio ha concluso che il gruppo che ha utilizzato GPT-4 aveva in media un punteggio di precisione leggermente più alto sia per il gruppo di studenti che per quello di esperti. Ma i ricercatori di OpenAI hanno scoperto che l’aumento non era “statisticamente significativo”. I ricercatori hanno anche scoperto che i partecipanti che si affidavano a GPT-4 avevano risposte più dettagliate.

Oltre a ciò, gli studenti che hanno utilizzato GPT-4 erano competenti quasi quanto il gruppo di esperti in alcuni compiti. Secondo , il gruppo di preparazione sta anche lavorando a studi per esplorare il potenziale dell’intelligenza artificiale per le minacce alla Sicurezza informatica e il suo potere di cambiare le convinzioni. Dato che il team di preparazione di OpenAI sta ancora lavorando per conto di OpenAI, è importante prendere la loro ricerca con le pinze. Anche se il fondatore di OpenAI, Sam Altman, ha riconosciuto che l’intelligenza artificiale può rappresentare un pericolo, il suo stesso studio sembra minimizzare la forza del suo chatbot più avanzato.

Tuttavia, gli autori dello studio affermano successivamente in una nota a piè di pagina che, nel complesso, GPT-4 ha dato a tutti i partecipanti un vantaggio “statisticamente significativo” in termini di precisione totale. Sebbene, se valutassimo solo l’accuratezza totale, e quindi non aggiustassimo per confronti multipli, questa differenza sarebbe statisticamente significativa”, hanno osservato gli autori.

ARTICOLI COLLEGATI:

ULTIMI ARTICOLI: