Con la crescita dell’intelligenza artificiale , le scoperte tecnologiche sembrano aumentare di giorno in giorno. Una delle preoccupazioni, tuttavia, è che le macchine un giorno svilupperanno la propria sensibilità e decideranno di rovesciare l’umanità, qualcosa del genere.
Anche se non è detto che ciò accadrebbe mai, un articolo pubblicato negli Atti della National Academy of Sciences a novembre ha l’inizio di quel sentimento.
Un gruppo di ricercatori del MIT dietro questo studio si è concentrato su compiti basati sul linguaggio, poiché è stato detto prima che l’IA funziona in modo simile al cervello umano quando si tratta di compiti legati al linguaggio.cognizioni. In particolare, predizione delle parole.
Nelle loro indagini, il team ha confrontato i dati di 43 modelli linguistici di reti neurali artificiali con le registrazioni del cervello in soggetti umani mentre ascoltavano o leggevano parole.
La scoperta più eccezionale è il fatto che alcuni dei modelli di intelligenza artificiale sono in grado di prevedere i dati neurali, in modo simile alla meccanica del cervello quando si tratta di elaborazione del linguaggio, nonostante non siano stati addestrati specificamente per farlo.
Un’altra scoperta importante è che più un modello è “simile al cervello”, più è in grado di replicare un comportamento umano, come i tempi di lettura. Inoltre, un modello in grado di prevedere la parola successiva è anche in grado di rispecchiare i punteggi cerebrali dei soggetti.
Questo, a sua volta, ha il potenziale per essere utilizzato per prevedere il comportamento umano.
Nel documento, il team ipotizza che la comunità di elaborazione del linguaggio naturale potrebbe armeggiare in “qualcosa come l’evoluzione della comunità”, dice il primo autore Martin Schrimpf a Interesting Engineering .
“Se prendi un’architettura [AI] e funziona bene, allora prendi le parti che funzionano, la ‘muta’, la ricombina con altre architetture che funzionano bene e ne costruisci di nuove. Non è molto diverso [dall’evoluzione] in senso lato, almeno.”
Il prossimo passo dei ricercatori è costruire varianti di questi modelli di elaborazione del linguaggio, in modo che possano studiare gli effetti di piccoli cambiamenti nella loro architettura.