ChatGPT e IL FUTURO DELL’Intelligenza Artificiale GENERATIVA
Non vi ripeteremo quanto l’intelligenza artificiale generativa di Software come ChatGPT, lanciato nel novembre del 2022, abbia cambiato e stia cambiando le nostre vite.
POTENZIALI USI PERVERSI DEI CHATBOT CHE PRODUCONO TESTO E Immagini
Poi c’è il discorso dei potenziali usi perversi dei chatbot che producono testo e immagini. Si pensi (per prendere solo un esempio tra i tanti possibili) al deepfake, con cui i volti di diverse attrici famose sono stati sovrapposti a brevi Video porno. Ma con l’ultimo aggiornamento della policy di OpenAI si potrebbero prospettare scenari ben più cupi.
ChatGPT e gli scopi militari
Nella policy d’uso del suo software di IA pubblicata nel marzo del 2023 da OpenAI, un passaggio recitava esplicitamente che “l’uso militare o legato alla guerra” di ChatGPT era vietato. Poi è successo qualcosa. E quel qualcosa coincide con l’apertura del ChatGPT store. L’azienda ha modificato la policy il 10 gennaio, ufficialmente per renderla più snella e facilmente fruibile, e per “offrire delle linee guida più specifiche per il servizio.” Niko Felix, portavoce di OpenAI, ha infatti dichiarato: “Abbiamo cercato di creare un insieme di principi universali che fossero facili da ricordare e da applicare.” Tuttavia, a leggere il nuovo testo si scopre che quell’importante passaggio sul fatto che ChatGPT non potrà essere utilizzata per scopi militari è scomparso. O meglio, al suo posto appare adesso una frase che spiega come il software non concorrerà a “qualsiasi azione che possa causare danni a terzi” o per “lo sviluppo e l’uso delle armi”.
OpenAI e la collaborazione con la Difesa
Un altro portavoce dell’azienda di Sam Altman ha poi detto che “la nostra policy non consente di utilizzare i nostri strumenti per sviluppare armi, sorvegliare le comunicazioni, ferire altre persone o distruggere proprietà. Esistono tuttavia casi di utilizzo per la Sicurezza nazionale che sono in linea con la nostra missione.” E, per fugare dubbi, il portavoce ha chiarito che OpenAI sta già collaborando con la Difesa. Nello specifico, con la Darpa, agenzia governativa del Dipartimento della Difesa degli Stati Uniti che sviluppa nuove tecnologie per uso militare.
ChatGPT, gli scopi bellici e il rischio allucinazioni
Un eventuale utilizzo di ChatGPT per scopi bellici non riguarderebbe dunque lo sviluppo di armamenti. Ma potrebbe magari riguardare, ad esempio, la redazione di documenti testuali. E visto il noto rischio di “allucinazioni” dei chatbot (ossia la possibilità che il software risponda in maniera del tutto incongrua rispetto alla domanda posta, o che inventi informazioni imprecise se non inesistenti), le paure di un uso di ChatGPT per scopi militari non sono illegittime. Come spiega Heidy Khlaaf, esperta di sicurezza informatica: “Considerati i casi noti di allucinazioni presenti nei large language models e la loro generale mancanza di accuratezza, l’uso nella guerra non può che portare a operazioni imprecise e distorte a per colpa dei bias che rischiano di aggravare i danni collaterali e le vittime civili”.
Parole e fatti
Sarah Myers, Managing Director dell’AI Now Institute, è stata interpellata da The Intercept, che per primo ha dato la notizia della modifica della policy di OpenAI. Myers ha spiegato che “visto l’utilizzo di sistemi IA per il targeting dei civili a Gaza, quello attuale è un momento decisamente delicato per rimuovere quelle parole dalle policy di servizio di OpenAI”. D’altro canto, come già accennato, OpenAI ha fatto sapere che la nuova versione del documento “mira a creare una serie di principi universali facili da ricordare e da applicare, e un principio come ‘non fare del male agli altri’ può essere compreso più facilmente di una frase in cui citiamo apertamente le armi e l’industria bellica”. Al di là dei diversi punti di vista sulle parole, ci sono i fatti. Resta insomma da capire (e speriamo che ciò avvenga il più tardi possibile) quali conseguenze potrebbe avere l’ingresso dell’intelligenza artificiale nell’industria bellica.