Servicio, créditos y precios
Servicios de modelos
Actualmente, GPTBots ofrece dos modos de servicio de modelos. Se puede elegir entre usar una «clave de GPTBots» o una «clave propia» según las necesidades. Los distintos modos generan cargos de créditos distintos como tarifas de servicio al invocar servicios de modelos. Se puede seleccionar y configurar el modo de servicio preferido en Organization - LLMs.
- GPTBots Key: Servicio proporcionado directamente por GPTBots. Los desarrolladores pueden utilizar servicios de plataformas como OpenAI y Claude directamente a través de GPTBots sin necesidad de registrar sus propias claves en dichas plataformas.
- Own Key: Si los desarrolladores ya disponen de sus propias claves de plataformas como OpenAI, pueden utilizarlas directamente en la plataforma GPTBots. GPTBots cobrará una pequeña cantidad de créditos como tarifas de servicio.
Precios de créditos de servicio
Todos los servicios dentro de GPTBots se tarifican y su uso se registra mediante «créditos». Las diferentes versiones de LLM consumen diferentes cantidades de créditos. Para conocer los cálculos detallados de consumo, se pueden consultar las secciones siguientes.
Nota: Los créditos no se pueden reembolsar ni canjear.
Tipos de consumo de créditos
La plataforma GPTBots diferencia los precios en función de los tipos de servicio (consulte este apartado para más información), y descuenta créditos de acuerdo con diferentes tarifas de servicio. Existen 10 tipos de facturación específicos. Al utilizar agentes de IA y flujos de trabajo (workflows), diferentes tipos de servicios consumirán los créditos correspondientes. Los desarrolladores pueden consultar las estadísticas de consumo de créditos en Organization - Usage.
| Tipo de facturación | Definición | Ejemplo |
|---|---|---|
| Chat de texto LLM | Llamada a LLM con entrada/salida de texto e imagen | Cuando se invocan componentes de LLM, Classifier o componentes de evaluación de condiciones |
| Chat de audio LLM | Llamada a LLM de audio para entrada/salida de audio | Cuando se invoca un LLM de audio |
| Reconocimiento ASR | Uso de ASR Service para convertir audio a texto |
Al cargar archivos de audio en el modo de reconocimiento del sistema |
| Generación TTS | Uso de TTS Service para convertir texto a audio |
Al hacer clic en el botón de reproducción de sonido de mensajes de texto en la ventana de chat |
| Indexación de conocimiento | Uso de Knowledge Index para realizar embeddings en preguntas de usuarios y datos de conocimiento |
Al realizar recuperación de conocimiento |
| Almacenamiento de conocimiento | Carga y almacenamiento de datos de conocimiento en la base de conocimiento | Cálculo diario de la capacidad de almacenamiento actual de la base de conocimiento |
| Invocación de herramientas | Llamada correcta a Paid Tools |
Al usar herramientas de pago como Google search |
| Reordenación de conocimiento | Uso de Rerank Service para reordenar resultados recuperados de la base de conocimiento |
Cuando se habilita la función de reordenación de conocimiento para la base de conocimiento |
| Procesamiento de base de datos | Conversión de documentos cargados a valores de campos de base de datos y ejecución de consultas de Database para generar gráficos |
Al extraer documentos a la base de datos y usar funciones de base de datos en conversaciones |
| Reconocimiento de preguntas | Uso de Question Recognition para clasificación de preguntas y análisis de sentimiento |
Cuando se habilita la función de clasificación de preguntas en los registros |
Precios del servicio LLM
Nota: Los siguientes precios se expresan en «créditos / 1K Tokens».
Marca |
Modelo |
Entrada (GPTBots Key) | Salida (GPTBots Key) | Entrada (Own Key) | Salida (Own Key) |
|---|---|---|---|---|---|
| OpenAI | GPT-5.1-400k | 0.1375 | 1.1000 | 0.0100 | 0.1000 |
| OpenAI | GPT-5.1-Chat-400k | 0.1375 | 1.1000 | 0.0025 | 0.1000 |
| OpenAI | GPT-5.0-400k | 0.1375 | 1.1000 | 0.0100 | 0.1000 |
| OpenAI | GPT-5.0-Chat-400k | 0.1375 | 1.1000 | 0.0025 | 0.1000 |
| OpenAI | GPT-5.0-Mini-400k | 0.0275 | 0.2200 | 0.0025 | 0.0200 |
| OpenAI | GPT-5.0-Nano-400k | 0.0055 | 0.0440 | 0.0005 | 0.0040 |
| OpenAI | GPT-4.1-1M | 0.22 | 0.88 | 0.02 | 0.08 |
| OpenAI | GPT-4.1-mini-1M | 0.044 | 0.176 | 0.004 | 0.016 |
| OpenAI | GPT-4.1-nano-1M | 0.011 | 0.044 | 0.001 | 0.004 |
| OpenAI | GPT-4o-mini-128k | 0.0165 | 0.0665 | 0.0015 | 0.006 |
| OpenAI | GPT-4o-128k | 0.225 | 1.1 | 0.0225 | 0.11 |
| OpenAI | GPT-o3 | 1.1 | 4.4 | 0.1 | 0.4 |
| OpenAI | GPT-o4-mini | 0.121 | 0.484 | 0.011 | 0.044 |
| OpenAI | GPT-4o-Audio-128k | 4.4 | 8.8 | 0.4 | 0.8 |
| OpenAI | GPT-4o-mini-Audio-128k | 1.1 | 2.2 | 0.1 | 0.2 |
| DeepSeek | V3 | 0.0157 | 0.0314 | 0.0014 | 0.0029 |
| DeepSeek | R1 | 0.0629 | 0.2514 | 0.0057 | 0.0229 |
| Gemini-3.0-Pro | 0.44 | 1.98 | 0.01 | 0.10 | |
| Gemini-3.0-Pro-Image | 0.22 | 13.2 | 0.01 | 0.10 | |
| Gemini-3.0-Flash | 0.055 | 0.33 | 0.005 | 0.03 | |
| Gemini-3.0-Flash-Thinking | 0.055 | 0.33 | 0.005 | 0.03 | |
| Gemini-2.5-Pro | 0.275 | 1.65 | 0.025 | 0.15 | |
| Anthropic | Claude-4.5-Opus-200k | 1.65 | 2.75 | 0.01 | 0.10 |
| Anthropic | Claude-4.5-Sonnet-200k | 0.33 | 1.65 | 0.01 | 0.10 |
| Anthropic | Claude-4.5-Haiku-200k | 0.11 | 0.55 | 0.01 | 0.05 |
| Anthropic | Claude-4.0-Sonnet-200k | 0.33 | 1.65 | 0.01 | 0.10 |
| Anthropic | Claude-4.0-Sonnet-Thinking-200k | 0.33 | 1.65 | 0.01 | 0.10 |
| xAI | Grok-4.1-Fast-128k | 0.022 | 0.055 | 0.002 | 0.005 |
| xAI | Grok-4.1-Fast-Thinking-128k | 0.022 | 0.055 | 0.002 | 0.005 |
| xAI | Grok-4.1-Fast-2M | 0.044 | 0.11 | 0.004 | 0.01 |
| xAI | Grok-4.1-Fast-Thinking-2M | 0.044 | 0.11 | 0.004 | 0.01 |
| xAI | Grok-4.0-256K | 0.33 | 1.65 | 0.01 | 0.10 |
| Azure | GPT-5.0-400k | 0.1375 | 1.1000 | 0.012500 | 0.1000 |
| Azure | GPT-5.0-Chat-400k | 0.1375 | 1.1000 | 0.0025 | 0.1000 |
| Azure | GPT-5.0-Mini-400k | 0.0275 | 0.2200 | 0.0025 | 0.0200 |
| Azure | GPT-5.0-Nano-400k | 0.0055 | 0.0440 | 0.0005 | 0.0040 |
| Azure | GPT-4.1-1M | 0.22 | 0.88 | 0.02 | 0.08 |
| Azure | GPT-4.1-mini-1M | 0.044 | 0.176 | 0.004 | 0.016 |
| Azure | GPT-4.1-nano-1M | 0.011 | 0.044 | 0.001 | 0.004 |
| Azure | GPT-4o-128k | 0.225 | 1.1 | 0.0225 | 0.11 |
| Azure | GPT-4o-mini-128k | 0.0165 | 0.0665 | 0.0015 | 0.006 |
| Azure | GPT-4o-Audio-128k | 4.4 | 8.8 | 0.4 | 0.8 |
| Azure | GPT-4o-mini-Audio-128k | 1.1 | 2.2 | 0.1 | 0.2 |
| Meta | llama-3.0-8b-8k | 0.022 | 0.022 | 0.002 | 0.002 |
| Meta | llama-3.0-70b-8k | 0.099 | 0.099 | 0.009 | 0.009 |
| Meta | llama-3.1-8b-turbo-128k | 0.022 | 0.022 | 0.002 | 0.002 |
| Meta | llama-3.1-70b-turbo-128k | 0.099 | 0.099 | 0.009 | 0.009 |
| Meta | llama-3.1-405b-turbo-4k | 0.099 | 0.099 | 0.009 | 0.009 |
| Seed | Seed-1.6-256K | 0.055 | 0.44 | 0.005 | 0.04 |
| Seed | Seed-1.6-Thinking-256K | 0.055 | 0.44 | 0.005 | 0.04 |
| Seed | Seed-1.6-Flash-256K | 0.0083 | 0.033 | 0.0008 | 0.003 |
| Seed | Seed-1.6-Flash-Thinking-256K | 0.0083 | 0.033 | 0.0008 | 0.003 |
| Mixtral | open-mistral-7b | 0.028 | 0.028 | 0.003 | 0.003 |
| Mixtral | open-mixtral-8x7b | 0.077 | 0.077 | 0.007 | 0.007 |
| Mixtral | mistral-small-latest | 0.220 | 0.660 | 0.020 | 0.060 |
| Mixtral | mistral-medium-latest | 0.297 | 0.891 | 0.027 | 0.081 |
| Mixtral | mistral-large-latest | 0.880 | 2.640 | 0.080 | 0.10 |
| Tencent | Hunyuan-standard-32k | 0.0707 | 0.0786 | 0.0064 | 0.0071 |
| Tencent | Hunyuan-standard-256k | 0.2357 | 0.9429 | 0.0214 | 0.0857 |
| Tencent | Hunyuan-pro-32k | 0.472 | 1.572 | 0.042 | 0.142 |
| Ali | Qwen-3.0-Plus-128k | 0.0126 | 0.0314 | 0.0011 | 0.0029 |
| Ali | Qwen-3.0-Plus-Thinking-128k | 0.0126 | 0.2514 | 0.0011 | 0.0229 |
| Ali | Qwen-3.0-turbo-1M | 0.0047 | 0.0094 | 0.0004 | 0.0009 |
| Ali | Qwen-2.5-Max-32k | 0.3143 | 0.9429 | 0.0286 | 0.0857 |
| Ali | Qwen-vl-max-32k | 0.3143 | 0.3143 | 0.0286 | 0.0286 |
| Ali | Qwen2.5-72b-128k | 0.0629 | 0.1886 | 0.0057 | 0.0171 |
| Ali | Qwen2.0-32b-128k | 0.055 | 0.11 | 0.005 | 0.01 |
| Ali | Qwen2.0-7b-128k | 0.0314 | 0.0943 | 0.0029 | 0.0086 |
| Ali | Qwen2.0-audio | 0.1 | 0.1 | 0.01 | 0.01 |
| 百度 | ERNIE-4.0-8K | 1.76 | 1.76 | 0.16 | 0.16 |
| 百度 | ERNIE-3.5-8K | 0.18 | 0.18 | 0.02 | 0.02 |
| 智谱 | GLM-4.5-128K | 0.0314 | 0.0029 | 0.1257 | 0.0114 |
| 智谱 | GLM-4.5-Air-128K | 0.0094 | 0.0009 | 0.0629 | 0.0057 |
| 智谱 | GLM-4.5-X-128K | 0.1257 | 0.0114 | 0.5029 | 0.0457 |
| 智谱 | GLM-4V-Plus-8K | 0.017 | 0.017 | 0.0015 | 0.0015 |
| 智谱 | GLM-4.0-9b-8K | 0.095 | 0.095 | 0.008 | 0.008 |
| 月之暗面 | Kimi-K2-Turbo-256K | 0.1257 | 0.9114 | 0.0114 | 0.0829 |
| 月之暗面 | Kimi-K2-Thinking-256k | 0.0629 | 0.2514 | 0.0057 | 0.0229 |
| 月之暗面 | Moonshot-128K | 0.9429 | 0.9429 | 0.0857 | 0.0857 |
| 月之暗面 | Moonshot-32K | 0.3771 | 0.3771 | 0.0343 | 0.0343 |
| 月之暗面 | Moonshot-8K | 0.1886 | 0.1886 | 0.01 | 0.0171 |
Al utilizar su Own Key, el consumo máximo de créditos es de 0.01 créditos / 1K Tokens para la entrada y de 0.1 créditos / 1K Tokens para la salida.
Precios del servicio de embeddings
Nota: Los siguientes precios se expresan en «créditos / 1K Tokens».
Marca |
Modelo |
GPTBots Key |
Own Key |
|---|---|---|---|
| OpenAI | text-embedding-ada-002 | 0.0120 | 0.0010 |
| OpenAI | text-embedding-3-large | 0.0156 | 0.0013 |
| OpenAI | text-embedding-3-small | 0.0024 | 0.0002 |
Precios del servicio de rerank
Nota: Los siguientes precios se expresan en «créditos / 1K Tokens».
Marca |
Modelo |
GPTBots Key |
Own Key |
|---|---|---|---|
| Jina | reranker-v1-base-en | 0.0022 | 0.0001 |
| Jina | reranker-v1-turbo-en | 0.0022 | 0.0001 |
| Jina | reranker-v1-tiny-en | 0.0022 | 0.0001 |
| Baai | bce-rerank | 0.0022 | 0.0001 |
| NteEase | bgep-rerank | 0.0022 | 0.0001 |
Precios del servicio ASR
Nota: Los siguientes precios se expresan en «créditos / 60 s».
Marca |
Modelo |
GPTBots Key |
Own Key |
|---|---|---|---|
| OpenAI | Whisper Large-V2 | 0.66 | 0.06 |
| OpenAI | Whisper Large-V3 | 0.88 | 0.08 |
Precios del servicio TTS
Nota: Los siguientes precios se expresan en «créditos / 1000 caracteres».
Marca |
Modelo |
Clave de la plataforma |
Own Key |
|---|---|---|---|
| OpenAI | TTS | 1.65 | 0.15 |
| Azure | Speech | 1.65 | 0.15 |
| Ali | CosyVoice | 0.44 | 0.044 |
| Ali | Sambert | 0.22 | 0.022 |
| Minimax | Voice | 0.44 | 0.044 |
Almacenamiento de vectores
Nota: Los siguientes precios se expresan en «créditos / 1K Tokens / día».
Servicio |
Cargo |
|---|---|
| Vector Storage | 0.001 |
Preguntas frecuentes
¿Cómo convertir entre créditos de GPTBots y tokens?
Tomando como ejemplo el servicio LLM de OpenAI GPT-4.1-1M, al utilizar GPTBots Key, introducir 1000 tokens consume 0.22 créditos.$10 = 1000 credits = 4,545,454 Tokens (1000 credits / 0.22 credits * 1000 tokens)
| Idioma | Entrada ≈ caracteres | Entrada ≈ palabras |
|---|---|---|
| Inglés | 18,000,000 caracteres | 3,500,000 |
| Chino | 3,000,000~4,500,000 | - |
| Japonés | 3,000,000~4,500,000 | - |
| Coreano | 3,000,000~4,500,000 | - |
| Francés | - | 3,800,000 |
| Alemán | - | 3,800,000 |
| Tailandés | 3,000,000~4,500,000 | - |
| Ruso | - | 3,800,000 |
| Árabe | - | 3,800,000 |
Nota:
Estas cifras son estimaciones aproximadas y los valores reales pueden variar en función del contenido del texto y del método de tokenización.
El recuento de palabras es más fácil de estimar en inglés y otros idiomas basados en el alfabeto latino, mientras que el recuento de caracteres es más relevante para chino, japonés, coreano, tailandés, etc.
¿Cómo se calculan los tokens?
Tomando como ejemplo las reglas de cálculo de tokens del servicio LLM de OpenAI:
| Idioma/caracter | 1 token ≈ caracteres |
|---|---|
| Inglés | 4 caracteres |
| Chino | 1 carácter chino |
| Japonés | 1 kana o kanji |
| Coreano | 1 carácter hangul |
| Francés/español/alemán, etc. | 3~4 caracteres |
| Ruso | 3~4 caracteres |
| Árabe/hebreo | 3~4 caracteres |
- Inglés: 1 palabra en inglés ≈ 1.3 tokens, 1 token ≈ 4 caracteres en inglés (incluidos espacios y signos de puntuación)
- Chino: 1 carácter chino ≈ 1 token (en ocasiones 1.5 tokens, en promedio)
- Japonés: 1 token ≈ 1 kana/kanji japonés
- Coreano: 1 token ≈ 1 letra coreana (los bloques silábicos pueden ser más largos)
- Francés: 1 palabra en francés ≈ 1.2 tokens
- Alemán: 1 palabra en alemán ≈ 1.2 tokens
- Tailandés: 1 token ≈ 1 letra tailandesa (el tailandés no tiene espacios; el recuento de tokens puede ser mayor tras la tokenización)
- Ruso: 1 palabra en ruso ≈ 1.2 tokens
- Árabe: 1 palabra en árabe ≈ 1.2 tokens
Para necesidades específicas de recuento de tokens, se puede utilizar la herramienta tiktoken de OpenAI para realizar pruebas.
¿Cómo se calculan los tokens para entradas de imágenes?
Tomando como ejemplo las reglas de cálculo de tokens del servicio LLM de OpenAI, los tokens para imágenes se calculan de la siguiente manera:
- Obtener el alto y el ancho de la imagen en «px», por ejemplo, «1024px * 1024px».
- Calcular el valor de
tilesde la imagen dividiendo tanto elwidthcomo elheightentre 512, redondeando al alza, y multiplicando los resultados. - Calcular los
tokensde la imagen con la fórmula «85+170*tiles».
Fórmula completa de cálculo:
Ejemplo de código en Python:
import math
def calculate_tokens(width, height):
tiles = math.ceil(width/512) * math.ceil(height/512)
tokens = 85 + 170 * tiles
return tokens
# Test
print(calculate_tokens(2000, 500))
Por ejemplo, si las dimensiones de la imagen de entrada son 2000px * 500px, su valor de tiles sería 4*1=4, por lo que los tokens de entrada para esta imagen serían 85+170*4=765.
