sabato, Dicembre 21, 2024

Codestral Mamba: Intelligenza Artificiale per codice di programmazione

CODISTRAL MAMBA: UN MODELLO IA PER LA GENERAZIONE DI CODICE DI Programmazione

Quando si utilizzano i moderni modelli generativi, spesso ci si accorge che non sono così aperti come vengono presentati. Un recente studio accademico ha dimostrato quali Large Language Models (LLM) non sono open source, a dispetto delle descrizioni. Codestral Mamba è un modello per la generazione di codice di programmazione che ha un vantaggio non di poco conto: la licenza ne autorizza l’utilizzo anche per scopi commerciali.

Mistral AI, azienda fondata da ex dipendenti di Meta e Google DeepMind, ha annunciato il rilascio del nuovo modello di Intelligenza Artificiale specificando che Codestral Mamba è disponibile sotto licenza Apache 2.0.

QUALI NOVITÀ INTRODUCE CODESTRAL MAMBA PER LO SVILUPPO Software

Con 7 miliardi di parametri, Codestral Mamba si posiziona al vertice tra i modelli di dimensioni simili. Sebbene perda in termini di prestazioni complessive rispetto al modello Codestral 22B con 22 miliardi di parametri, eccelle in alcuni indicatori, dimostrando l’alto potenziale dell’architettura Mamba.

Il tempo di inferenza lineare si riferisce a una caratteristica di alcuni modelli di intelligenza artificiale in cui il tempo necessario per generare una risposta o eseguire un’operazione è proporzionale alla lunghezza dell’input. In altre parole, se l’input raddoppia in lunghezza, anche il tempo di elaborazione raddoppia, anziché crescere in maniera esponenziale o quadratica.

Diventa così possibile gestire input di lunghezza variabile in modo più efficiente, fornire risposte rapide ed elaborare sequenze molto lunghe senza compromettere la velocità.

COMPRESIONE DEL CONTESTO

Il team di Mistral AI ha verificato la capacità di Codestral Mamba di “comprendere il contesto” e rispondere in modo coerente basandosi su una grande quantità di informazioni ricevute in ingresso.

Il modello è stato messo alla prova con sequenze molto lunghe, fino a 256.000 token dimostrandosi particolarmente efficace nel gestire grandi volumi di dati senza perdere coerenza o efficienza.

Come abbiamo visto nell’articolo dedicato al funzionamento dei LLM, un token può essere una parola, una parte di una parola o un simbolo (ad esempio la punteggiatura).

Ecco quindi che Codestral Mamba può diventare un valido assistente locale per la generazione di codice: gli sviluppatori possono utilizzarlo sui loro dispositivi per scrivere, completare e correggere il codice di programmazione.

UN TRIBUTO A CLEOPATRA

Il nome Codestral Mamba è un omaggio a Cleopatra, l’ultima regina d’Egitto. Secondo la tradizione, Cleopatra si tolse la vita facendosi mordere da un serpente velenoso, probabilmente un’aspide (un tipo di vipera). Mamba è un tipo di serpente velenoso: il riferimento, a detta di Mistral AI, vuole enfatizzare la potenza e la precisione del nuovo modello, che promette di cambiare il modo in cui gli sviluppatori interagiscono con la generazione di codice.

DISPONIBILITÀ E DISTRIBUZIONE

Il modello Codestral Mamba è disponibile per il download su Hugging Face e può essere implementato utilizzando il pacchetto SDK mistral-inference, che si basa sulle implementazioni di riferimento pubblicate nel repository GitHub di Mamba.

È anche possibile distribuire il modello tramite TensorRT-LLM; per l’inferenza locale, è previsto il supporto llama.cpp.

Per facilitare il test, Codestral Mamba è disponibile sulla piattaforma Mistral AI, insieme con il “fratello maggiore” Codestral 22B. Mentre Codestral Mamba è rilasciato sotto licenza Apache 2.0, Codestral 22B utilizza una licenza commerciale.

In conclusione, Codestral Mamba si pone come un modello rivoluzionario per la generazione di codice di programmazione, offrendo prestazioni elevate, gestione efficiente del contesto e disponibilità per un ampio uso commerciale. Grazie alla sua licenza aperta, si prospetta un futuro promettente per l’integrazione di questa Tecnologia nei processi di sviluppo software.

ARTICOLI COLLEGATI:

ULTIMI ARTICOLI: