L'endpoint count-tokens ti consente di determinare il numero di token in un messaggio prima di inviarlo a Claude, aiutandoti a prendere decisioni informate sui prompt e sull'utilizzo.
L'utilizzo dell'endpoint count-tokens non comporta costi.
Modelli Claude supportati
I seguenti modelli supportano i token di conteggio:
- Claude Opus 4.1
 - Claude Opus 4
 - Claude Sonnet 4.5
 - Claude Sonnet 4
 - Claude 3.7 Sonnet
 - Claude 3.5 Sonnet v2
 - Claude Haiku 4.5
 - Claude 3.5 Haiku
 - Claude 3.5 Sonnet
 - Claude 3 Opus
 - Claude 3 Haiku
 
Aree geografiche supportate
Le seguenti regioni supportano i token di conteggio:
us-east5europe-west1asia-east1asia-southeast1us-central1europe-west4
Contare i token nei messaggi di base
Per conteggiare i token, invia una richiesta rawPredict all'endpoint count-tokens. Il corpo della richiesta deve contenere l'ID modello del modello rispetto al quale vuoi conteggiare i token.
REST
Prima di utilizzare i dati della richiesta, apporta le seguenti sostituzioni:
- LOCATION: una regione che supporta i modelli Anthropic Claude. Per utilizzare l'endpoint globale, consulta Specificare l'endpoint globale.
 - MODEL: il modello su cui conteggiare i token.
 - ROLE: Il ruolo associato a un
    messaggio. Puoi specificare un 
usero unassistant. Il primo messaggio deve utilizzare il ruolouser. I modelli Claude operano con turni alternatiusereassistant. Se il messaggio finale utilizza il ruoloassistant, il contenuto della risposta continua immediatamente dal contenuto di quel messaggio. Puoi utilizzare questo parametro per vincolare una parte della risposta del modello. - CONTENT: i contenuti, ad esempio il testo, del messaggio 
useroassistant. 
Metodo HTTP e URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/anthropic/models/count-tokens:rawPredict
Corpo JSON della richiesta:
{
  "model": "MODEL",
  "messages": [
    {
      "role": "user",
      "content":"how many tokens are in this request?"
    }
  ],
}
Per inviare la richiesta, scegli una di queste opzioni:
curl
      Salva il corpo della richiesta in un file denominato request.json,
      ed esegui questo comando:
    
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/anthropic/models/count-tokens:rawPredict"
PowerShell
      Salva il corpo della richiesta in un file denominato request.json,
      ed esegui questo comando:
    
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/anthropic/models/count-tokens:rawPredict" | Select-Object -Expand Content
Dovresti ricevere una risposta JSON simile alla seguente.
Per informazioni su come conteggiare i token nei messaggi con strumenti, immagini e PDF, consulta la documentazione di Anthropic.
Quote
Per impostazione predefinita, la quota per l'endpoint count-tokens è di 2000 richieste al minuto.