venerdì, Settembre 20, 2024

Qual è il limite di token ChatGPT e puoi superarlo?

ChatGPT ha preso d’assalto il mondo tecnologico e non mancano progressi e aggiornamenti. Ma nonostante l’uso della tecnologia avanzata, ci sono alcuni fattori limitanti all’interno della versione attuale.

Uno di questi fattori è il sistema di token, che continua a interrompere il ciclo evolutivo, mettendo in ginocchio l’utilità dell’app. Se usi ChatGPT, potresti voler conoscere i token di ChatGPT e cosa fare quando finisci i token.

Facciamo un passo indietro e ti diamo un’idea di tutto ciò che c’è da sapere sui meccanismi di funzionamento alla base dell’app.

Cos’è un token ChatGPT?

Se segui la facciata dell’app, tutto ciò che vedi è un linguaggio informatico che obbedisce ai tuoi comandi e ti dà le risposte che cerchi. Tuttavia, il back-end è solo un sacco di codice, che impara ogni minuto e si aggiorna con le domande a cui risponde.

ChatGPT converte ogni parola in un token leggibile ogni volta che fai una domanda. Per scomporlo ulteriormente, i token sono frammenti di testo e ogni linguaggio di programmazione utilizza un diverso set di valori token per comprendere i requisiti.

Poiché i computer non comprendono direttamente i valori del testo, li scompongono in una combinazione di numeri, spesso chiamati incorporamenti. Puoi anche considerare incorporamenti come elenchi Python, che assomigliano a un elenco di numeri correlati, come (1.1,2.1,3.1,4.1…n).

Una volta che ChatGPT prende l’input iniziale, cerca di prevedere il prossimo input possibile in base alle informazioni precedenti. Seleziona l’intero elenco di token precedenti e, utilizzando la sua sintesi di codifica, tenta di anticipare l’input successivo da parte dell’utente. Utilizza e prevede un token alla volta per semplificare la comprensione dell’utilizzo da parte del linguaggio.

Per migliorare le previsioni e migliorare la precisione, raccoglie l’intero elenco di incorporamenti e lo passa attraverso i livelli di trasformazione per stabilire associazioni tra le parole. Ad esempio, quando fai una domanda come “Chi è Thomas Edison?”, ChatGPT raccoglie le parole più preziose nell’elenco: Chi E Edison.

Gli strati del trasformatore hanno il loro ruolo da svolgere nell’intero processo. Questi livelli sono una forma di architettura di rete neurale addestrata a raccogliere le parole chiave più rilevanti da una stringa di parole. Tuttavia, il processo di addestramento non è così semplice come sembra, poiché richiede molto tempo per addestrare i livelli del trasformatore su gigabyte di dati.

Anche se ChatGPT prevede solo un token alla volta, la sua tecnologia di regressione automatica è programmata per prevedere e alimentare il modello primario per rilasciare l’output. Il modello è ottimizzato per essere eseguito solo una volta per ogni token, quindi il risultato viene stampato una parola alla volta. L’output si interrompe automaticamente quando l’applicazione incontra un comando stop token.

Ad esempio, se guardi il calcolatore di token sul sito Web di ChatGPT, puoi calcolare l’utilizzo del token in base alle tue domande.

Inseriamo un testo di esempio, ad esempio:

How do I explain the use of tokens in ChatGPT?

Secondo la calcolatrice, ci sono 46 caratteri in questa stringa, che consumerà 13 token. Se lo scomponi in Token ID, è simile a questo:

(2437, 466, 314, 4727, 262, 779, 286, 16326, 287, 24101, 38, 11571, 30)
Calcolo del tokenizer dal sito web di OpenAI

Come per il Calcolatore di token OpenAI:

Una regola empirica utile è che un token generalmente corrisponde a ~4 caratteri di testo per il testo inglese comune. Questo si traduce in circa ¾ di una parola (quindi 100 token ~= 75 parole).

Token gratuiti e a pagamento

Per darti un’idea di cosa c’è all’interno dell’applicazione ChatGPT, OpenAI ti offre un abbonamento token limitato gratuito. Se desideri sperimentare l’API ChatGPT, utilizza il credito gratuito di $ 5, valido per tre mesi. Una volta esaurito il limite (o il periodo di prova è scaduto), puoi pagare in base al consumo, che aumenta la quota massima a $ 120.

Dashboard OpenAI con grafico sull'utilizzo del credito

ChatGPT Plus: vale la pena l’abbonamento a pagamento?

Per fare un salto di qualità, puoi persino iscriverti all’offerta ChatGPT Plus, che ti riporta indietro di $ 20 al mese. Dato l’ampio utilizzo e la popolarità dell’intero modello AI, ecco le caratteristiche principali del modello di abbonamento a pagamento:

  • Accesso a ChatGPT, anche quando il sito Web sta subendo tempi di inattività a causa di un afflusso di utenti
  • Tassi di risposta migliorati
  • Accesso diretto a nuove funzionalità e versioni

Se ritieni che queste funzionalità valgano la pena e siano all’altezza, puoi iscriverti all’abbonamento a pagamento e trarne vantaggio immediatamente.

Struttura dei prezzi dei token ChatGPT

Set di busta aperta nera e dollari in contanti

Sono disponibili diversi modelli di applicazione, che puoi scegliere in base alle tue esigenze:

Modello Prezzo per 1000 token (prompt) Prezzo per 1000 token (completamento)
Ada $ 0,0004 $ 0,0004
Babbage $ 0,0005 $ 0,0005
Curie $ 0,0020 $ 0,0020
Da Vinci $ 0,0200 $ 0,0200
ChatGPT $ 0,0020 $ 0,0020
Contesto GPT-4 8k $ 0,0300 $ 0,0600
Contesto GPT-4 32k $ 0,0600 $ 0,1200

Ada è il più veloce, mentre DaVinci è il modello più potente di questo elenco di modelli. Il prompt è la domanda, mentre il completamento si occupa delle risposte.

Limiti massimi dei token

Ogni modello consente di impostare il numero massimo di token all’interno di ciascuna query. Questo metodo controlla il numero massimo di token che l’applicazione genera in una singola chiamata, limitando l’output. La funzione max_token è piuttosto utile, soprattutto quando si desidera controllare la lunghezza dell’output evitando di utilizzare in modo eccessivo l’utilizzo e i crediti del token. La lunghezza predefinita è fissata a 2048 token, mentre il massimo può essere impostato a 4096 token.

Limitare l’utilizzo del token può comportare risposte brevi, che potrebbero limitare l’output e rovinare la tua esperienza di utilizzo.

ChatGPT3 ha un limite massimo di 4096; tuttavia, con l’introduzione di ChatGPT4, i limiti dei token sono aumentati, come segue:

Modello Prezzo per 1000 token (prompt)
Ada 2048
Babbage 2048
Curie 2048
Da Vinci 4096
ChatGPT 4096
Contesto GPT-4 8k 8192
Contesto GPT-4 32k 32768

Se l’output viene troncato, devi aumentare il limite massimo specificato dalla tua dashboard. Ricorda, la somma del tuo prompt e dei token massimi dovrebbe essere sempre inferiore al limite massimo di token del modello.

Ad esempio, all’interno del modello ChatGPT, il prompt_token + max_token <= 4096 gettoni.

Impara a controllare il tuo ChatGPT richiede i migliori risultati

Non importa come utilizzi l’applicazione guidata dall’intelligenza artificiale, è probabile che dovrai escogitare modi per giocare in modo intelligente con le tue domande e frasi. A seconda dei tuoi modelli di utilizzo, probabilmente utilizzerai ampiamente ChatGPT per ogni attività.

Per ottenere i migliori risultati, devi imparare a lavorare con la metodologia dei token e migliorare le tue abilità per garantire che i tuoi limiti di utilizzo rimangano intatti, dandoti le migliori risposte possibili.

ARTICOLI COLLEGATI:

ULTIMI ARTICOLI: