domenica, Dicembre 22, 2024

Facebook ha un nuovo gigantesco supercomputer per plasmare il metaverso

Meta, il gigante tecnologico precedentemente noto come Facebook, ha rivelato lunedì di aver costruito uno dei supercomputer più veloci del mondo, un colosso chiamato Research SuperCluster, o RSC.

Con 6.080 unità di elaborazione grafica confezionate in 760 moduli Nvidia A100 , è la macchina più veloce costruita per le attività di intelligenza artificiale, afferma l’amministratore delegato Mark Zuckerberg.

Quella potenza di elaborazione è allo stesso livello del supercomputer Perlmutter , che utilizza più di 6.000 delle stesse GPU Nvidia e attualmente si classifica come il quinto supercomputer più veloce del mondo . E in una seconda fase, Meta prevede di aumentare le prestazioni di un fattore 2,5 con un’espansione a 16.000 GPU quest’anno.

Meta utilizzerà RSC per una serie di progetti di ricerca che richiedono prestazioni di livello successivo, come l’IA “multimodale” che basa le conclusioni su una combinazione di suoni, immagini e azioni anziché su un solo tipo di dati di input. Ciò potrebbe essere utile per affrontare le sottigliezze di uno dei grandi problemi di Facebook, individuare contenuti dannosi.

Meta, un importante ricercatore di intelligenza artificiale, spera che l’investimento ripaghi utilizzando RSC per aiutare a costruire l’ultima priorità dell’azienda: il regno virtuale che chiama metaverso . RSC potrebbe essere abbastanza potente da tradurre simultaneamente il parlato per un grande gruppo di persone che parlano ciascuna una lingua diversa.

“Le esperienze che stiamo costruendo per il metaverso richiedono un’enorme potenza di calcolo”, ha affermato il CEO di Meta Mark Zuckerberg in una nota. “RSC consentirà nuovi modelli di intelligenza artificiale in grado di imparare da trilioni di esempi, comprendere centinaia di lingue e altro ancora”.

Quando si tratta di uno dei principali usi dell’IA – addestrare un sistema di intelligenza artificiale per riconoscere cosa c’è in una foto – RSC è circa 20 volte più veloce della sua precedente macchina Nvidia dell’era 2017, hanno affermato i ricercatori Meta Kevin Lee e Shubho Sengupta in un post sul blog . Per la decodifica del linguaggio umano, è circa tre volte più veloce.

Il termine intelligenza artificiale oggi si riferisce in genere a un metodo chiamato machine learning o deep learning che elabora i dati in modo simile a come funzionano i cervelli umani. È rivoluzionario perché i modelli di intelligenza artificiale vengono addestrati attraverso l’esposizione ai dati del mondo reale. Ad esempio, l’IA può imparare che aspetto hanno le facce dei gatti analizzando migliaia di foto di gatti, rispetto alla programmazione tradizionale in cui uno sviluppatore proverebbe a descrivere l’intera varietà felina di pelliccia, baffi, occhi e orecchie.

RSC potrebbe anche aiutare un problema di intelligenza artificiale particolarmente spinoso che Meta chiama apprendimento auto-supervisionato. I modelli di IA vengono addestrati oggi sulla base di dati accuratamente annotati. Ad esempio, i segnali di stop sono etichettati nelle foto utilizzate per addestrare l’IA dei veicoli autonomi e una trascrizione accompagna l’audio utilizzato per addestrare l’IA del riconoscimento vocale. Il compito più difficile della formazione autocontrollata utilizza invece dati grezzi e senza etichetta. Finora, questa è un’area in cui gli umani hanno ancora un vantaggio sui computer.

Meta e altri sostenitori dell’IA hanno dimostrato che l’addestramento di modelli di IA con set di dati sempre più grandi produce risultati migliori. L’addestramento dei modelli di intelligenza artificiale richiede molta più potenza di calcolo rispetto all’esecuzione di tali modelli, motivo per cui gli iPhone possono sbloccarsi quando riconoscono il tuo viso senza richiedere una connessione a un data center pieno di server.

I progettisti di supercomputer personalizzano le loro macchine scegliendo il giusto equilibrio tra memoria, prestazioni della GPU, prestazioni della CPU, consumo energetico e percorsi dati interni. Nell’IA di oggi, la star dello spettacolo è spesso la GPU, un tipo di processore originariamente sviluppato per accelerare la grafica ma ora utilizzato per molti altri compiti di elaborazione.

I chip A100 all’avanguardia di Nvidia sono progettati specificamente per l’intelligenza artificiale e altre attività di data center pesanti. Grandi aziende come Google, così come una miriade di startup, stanno lavorando su processori AI dedicati , alcuni dei quali i più grandi chip mai costruiti. Facebook preferisce la base relativamente flessibile della GPU A100 perché, se combinata con il software AI PyTorch di Facebook , è l’ambiente più produttivo per gli sviluppatori, ritiene l’azienda.

ARTICOLI COLLEGATI:

ULTIMI ARTICOLI: