Para obtener una guía detallada sobre cómo contar tokens con la API de Gemini, incluida la forma en que se cuentan las imágenes, el audio y los videos, consulta la Guía de recuento de tokens y la receta del libro de recetas que la acompaña.
Método: models.countTokens
- Extremo
- Parámetros de ruta de acceso
- Cuerpo de la solicitud
- Cuerpo de la respuesta
- Permisos de autorización
- Ejemplo de solicitud
Ejecuta el analizador de un modelo en la entrada Content
y muestra el recuento de tokens. Consulta la guía de tokens para obtener más información.
Extremo
publicaciónhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:countTokens
Parámetros de ruta
model
string
Obligatorio. Es el nombre del recurso del modelo. Este ID sirve como ID para que lo use el modelo.
Este nombre debe coincidir con un nombre de modelo que devuelva el método models.list
.
Formato: models/{model}
Tiene el formato models/{model}
.
Cuerpo de la solicitud
El cuerpo de la solicitud contiene datos con la siguiente estructura:
contents[]
object (Content
)
Opcional. La entrada que se le proporciona al modelo como una instrucción. Este campo se ignora cuando se establece generateContentRequest
.
generateContentRequest
object (GenerateContentRequest
)
Opcional. Es la entrada general que se le proporciona a Model
. Esto incluye la instrucción, así como otra información de dirección del modelo, como instrucciones del sistema o declaraciones de funciones para llamadas a función. Los Model
, Content
y generateContentRequest
son mutuamente excluyentes. Puedes enviar Model
+ Content
o generateContentRequest
, pero nunca ambos.
Ejemplo de solicitud
Texto
Python
Node.js
Go
Almeja
Kotlin
Swift
Dart
Java
Chat
Python
Node.js
Go
Almeja
Kotlin
Swift
Dart
Java
Contenido multimedia intercalado
Python
Node.js
Go
Almeja
Kotlin
Swift
Dart
Java
Video
Python
Node.js
Go
Almeja
Python
Caché
Python
Node.js
Go
Instrucción del sistema
Kotlin
Swift
Dart
Java
Herramientas
Kotlin
Swift
Dart
Java
Cuerpo de la respuesta
Una respuesta de models.countTokens
.
Muestra el tokenCount
del modelo para el prompt
.
Si se ejecuta correctamente, el cuerpo de la respuesta contendrá datos con la siguiente estructura:
totalTokens
integer
Es la cantidad de tokens en los que Model
divide prompt
. Siempre es un número no negativo.
cachedContentTokenCount
integer
Cantidad de tokens en la parte almacenada en caché de la instrucción (el contenido almacenado en caché).
promptTokensDetails[]
object (ModalityTokenCount
)
Solo salida. Es la lista de modalidades que se procesaron en la entrada de la solicitud.
cacheTokensDetails[]
object (ModalityTokenCount
)
Solo salida. Es la lista de modalidades que se procesaron en el contenido almacenado en caché.
Representación JSON |
---|
{ "totalTokens": integer, "cachedContentTokenCount": integer, "promptTokensDetails": [ { object ( |