Era il 29 giugno 2021 che GitHub, di proprietà di Microsoft, ha annunciato per la prima volta il suo strumento di completamento automatico basato sull’intelligenza artificiale per programmatori, addestrato su repository GitHub e altro codice sorgente disponibile pubblicamente.
Ma dopo un anno di “anteprima tecnica”, GitHub Copilot ha raggiunto un nuovo traguardo, riferisce Info-Q: ora dovrai pagare per usarlo dopo 60 giorni di prova :Il passaggio alla disponibilità generale significa principalmente che Copilot cessa di essere disponibile gratuitamente. Gli sviluppatori interessati dovranno pagare 10 USD/mese o $ 100 USD/anno per utilizzare il servizio, con una prova gratuita di 60 giorni… Secondo GitHub, sebbene non sia frequente, c’è sicuramente la possibilità che Copilot produca frammenti di codice che corrispondono a quelli nel set di allenamento.
Info-Q cita anche le statistiche di GitHub che mostrano che oltre 1,2 milioni di sviluppatori hanno utilizzato Copilot negli ultimi 12 mesi “con una cifra scioccante del 40% di codice scritto da Copilot nei file in cui è abilitato”. Questo è in aumento rispetto al 35% all’inizio dell’anno, riferisce TechCrunch, che ha maggiori informazioni sul lancio :Sarà gratuito per gli studenti e per i contributori open source “verificati”, a partire da circa 60.000 sviluppatori selezionati dalla comunità e studenti nel programma GitHub Education … Una nuova funzionalità che coincide con la versione generale di Copilot è Copilot Explain, che traduce il codice in descrizioni in linguaggio naturale. Descritto come un progetto di ricerca, l’obiettivo è aiutare gli sviluppatori alle prime armi o coloro che lavorano con una base di codice sconosciuta.
Ryan J. Salva, vicepresidente del prodotto presso GitHub, ha dichiarato a TechCrunch via e-mail… “Come esempio dell’impatto che abbiamo osservato, vale la pena condividere i primi risultati di uno studio che stiamo conducendo. Nell’esperimento, chiediamo agli sviluppatori per scrivere un server HTTP, metà usando Copilot e metà senza. I dati preliminari suggeriscono che gli sviluppatori non solo hanno maggiori probabilità di completare il loro compito quando usano Copilot, ma lo fanno anche in circa la metà del tempo.”
A causa della natura complicata dei modelli di intelligenza artificiale, Copilot rimane un sistema imperfetto. GitHub ha affermato di aver implementato filtri per bloccare le e-mail quando vengono visualizzate in formati standard e parole offensive e che è in corso la creazione di un filtro per rilevare e sopprimere il codice ripetuto dai repository pubblici. Ma l’azienda riconosce che Copilot può produrre modelli di codifica non sicuri, bug e riferimenti ad API obsolete o idiomi che riflettono il codice tutt’altro che perfetto nei suoi dati di addestramento.
The Verge riflette su dove sta andando e come siamo arrivati qui :”Proprio come l’ascesa dei compilatori e dell’open source, crediamo che la codifica assistita dall’intelligenza artificiale cambierà radicalmente la natura dello sviluppo del software, offrendo agli sviluppatori un nuovo strumento per scrivere codice in modo più semplice e veloce in modo che possano essere più felici nelle loro vite”, afferma il CEO di GitHub Thomas Dohmke.
L’investimento di 1 miliardo di dollari di Microsoft in OpenAI, la società di ricerca ora guidata dall’ex presidente di Y Combinator Sam Altman, ha portato alla creazione di GitHub Copilot. È basato su OpenAI Codex, un discendente dell’algoritmo di generazione del linguaggio GPT-3 di punta di OpenAI.
Tuttavia, GitHub Copilot è stato controverso. Pochi giorni dopo il suo lancio in anteprima, c’erano domande sulla legalità dell’addestramento di Copilot sul codice disponibile pubblicamente pubblicato su GitHub. Problemi di copyright a parte, uno studio ha anche rilevato che circa il 40 percento dell’output di Copilot conteneva vulnerabilità di sicurezza.