sabato, Settembre 21, 2024

Un ricercatore di intelligenza artificiale dice che dovremmo “chiudere tutto”

Un ricercatore di intelligenza artificiale che ha messo in guardia sui pericoli della tecnologia sin dai primi anni 2000 ha affermato che dovremmo “chiudere tutto”, in modo allarmante editoriale pubblicato da Time mercoledì.

Eliezer Yudkowsky, ricercatore e autore che si occupa di Intelligenza Artificiale Generale dal 2001, ha scritto l’articolo in risposta a una lettera aperta di molti grandi nomi del mondo tecnologico, che chiedevano una moratoria sullo sviluppo dell’IA per sei mesi.

La lettera, firmata da 1.125 persone tra cui Elon Musk e il co-fondatore di Apple Steve Wozniak, richiedeva una pausa nell’addestramento della tecnologia AI più potente del GPT-4 recentemente lanciato da OpenAI.

L’articolo di Yudkowsy, intitolato “Pausare gli sviluppi dell’IA non è sufficiente. Dobbiamo chiudere tutto”, afferma che si è astenuto dal firmare la lettera perché sottostimava la “gravità della situazione” e chiedeva “troppo poco per risolverlo. ”

Ha scritto: “Molti ricercatori immersi in questi problemi, incluso me stesso, si aspettano che il risultato più probabile della costruzione di un’intelligenza artificiale sovrumana, in qualcosa di lontanamente simile alle circostanze attuali, sia che letteralmente tutti sulla Terra moriranno”.

Ha spiegato che l’intelligenza artificiale “non si prende cura di noi né della vita senziente in generale” e al momento siamo ben lungi dall’instillare questo tipo di principi nella tecnologia.

Yudkowsky ha invece suggerito un divieto “a tempo indeterminato e mondiale” senza eccezioni per governi o militari.

“Se l’intelligence dice che un paese al di fuori dell’accordo sta costruendo un cluster GPU, sii meno spaventato da un conflitto a fuoco tra le nazioni che dalla violazione della moratoria; sii disposto a distruggere un data center canaglia con un attacco aereo”, ha detto Yudkowsky.

Yudkowsky da molti anni lancia magniloquenti avvertimenti sulle possibili conseguenze catastrofiche dell’IA. All’inizio di marzo è stato descritto da Bloomberg come un “AI Doomer”, con autore Elena Huet notando che ha avvertito a lungo della possibilità di una “apocalisse dell’IA”.

Anche il co-fondatore e CEO di Open AI, Sam Altman twittato che Yudkowksy ha “fatto di più per accelerare l’AGI di chiunque altro” e merita “il premio Nobel per la pace”, per il suo lavoro in quello che Huet ha teorizzato è un colpo al ricercatore secondo cui i suoi avvertimenti sulla tecnologia hanno solo accelerato il suo sviluppo.

Da quando OpenAI ha lanciato il suo chatbot ChatGPT a novembre ed è diventata l’app consumer in più rapida crescita nella storia di Internet, Google, Microsoft e altri giganti della tecnologia hanno gareggiato per lanciare i propri prodotti di intelligenza artificiale.

Henry Ajder, un esperto di intelligenza artificiale e presentatore che siede nel Consiglio consultivo europeo per i Reality Labs di Meta, in precedenza aveva dichiarato a Insider che le aziende tecnologiche sono bloccate in un “ambiente competitivo di corsa agli armamenti” nel tentativo di essere viste come “primi motori”, il che potrebbe portare a trascurare le preoccupazioni relative all’etica e alla sicurezza nell’IA.

Anche Altman ha riconosciuto i timori sull’intelligenza artificiale, dicendo in un podcast la scorsa settimana che “sarebbe folle non avere un po’ di paura, e mi immedesimo con le persone che hanno molta paura”.

Ha aggiunto, tuttavia, che OpenAI sta adottando misure per affrontare nodi e problemi con la sua tecnologia, dicendo: “Ridurremo al minimo il male e massimizzeremo il bene”.

ARTICOLI COLLEGATI:

ULTIMI ARTICOLI: