Service, Crédit & Tarification
Services de Modèles
GPTBots propose actuellement deux modes de service de modèles différents. Les clients peuvent choisir entre l'utilisation d'une « clé GPTBots » ou de leur « propre clé » selon leurs besoins. Différents modes entraînent des frais de service différents sous forme de crédits lors de l'appel des services de modèles. Vous pouvez sélectionner et configurer votre mode de service préféré sous « Organisation - LLMs ».
- Clé GPTBots : Il s'agit d'un service fourni directement par GPTBots officiel. Les développeurs peuvent utiliser les services de plateformes telles qu'OpenAI et Claude directement via GPTBots sans avoir à enregistrer leurs propres clés sur ces plateformes.
- Propre clé : Si les développeurs disposent déjà de leurs propres clés provenant de plateformes comme OpenAI, ils peuvent les utiliser directement sur la plateforme GPTBots. GPTBots prélèvera une petite quantité de crédits comme frais de service.
Tarification des Crédits de Service
Tous les services au sein de GPTBots sont tarifés et leur utilisation est suivie à l'aide de « crédits ». Différentes versions de LLM consomment des montants de crédits différents. Pour des calculs détaillés de consommation, veuillez vous référer aux sections suivantes.
Remarque : Les crédits ne peuvent pas être remboursés ou échangés.
Types de Consommation de Crédits
La plateforme GPTBots différencie la tarification selon les types de service (voir Service, Crédit & Tarification pour plus de détails), avec des crédits déduits selon différents taux de service. Il existe 10 types de facturation spécifiques. Lors de l'utilisation des Agents IA et des Workflows, différents types de services consommeront les crédits correspondants. Les développeurs peuvent consulter les statistiques de consommation de crédits sous « Organisation - Utilisation ».
| Type de Facturation | Définition | Exemple |
|---|---|---|
| Chat Texte LLM | Appel d'un LLM avec entrée/sortie texte et image | Lorsqu'un composant LLM, un Classificateur ou un composant de jugement de condition est invoqué |
| Chat Audio LLM | Appel d'un LLM Audio pour entrée/sortie audio | Lorsqu'un LLM Audio est invoqué |
| Reconnaissance ASR | Utilisation du Service ASR pour convertir l'audio en texte |
Lors du téléchargement de fichiers audio en mode de reconnaissance système |
| Génération TTS | Utilisation du Service TTS pour convertir le texte en audio |
Lors du clic sur le bouton de lecture sonore pour les messages texte dans la fenêtre de chat |
| Indexation de Connaissances | Utilisation de l'Index de Connaissances pour effectuer un embedding sur les questions des utilisateurs et les données de connaissances |
Lors de la récupération de connaissances |
| Stockage de Connaissances | Téléchargement et stockage de données de connaissances dans la base de connaissances | Calcul quotidien de la capacité de stockage actuelle de la base de connaissances |
| Invocation d'Outils | Appel réussi d'Outils Payants |
Lors de l'utilisation d'outils payants comme la recherche Google |
| Reranking de Connaissances | Utilisation du Service de Rerank pour reranker les résultats de la base de connaissances récupérée |
Lorsque la fonction de reranking est activée pour la base de connaissances |
| Traitement de Base de Données | Conversion de documents téléchargés en valeurs de champs de base de données et appel de requêtes Base de Données pour générer des graphiques |
Lors de l'extraction de documents vers la base de données et de l'utilisation des fonctionnalités de base de données dans les conversations |
| Reconnaissance de Questions | Utilisation de la Reconnaissance de Questions pour la classification des questions et l'analyse de sentiment |
Lors de l'activation de la fonction de classification des questions dans les journaux |
Tarification des Services LLM
Remarque : Les prix suivants sont exprimés en « crédits / 1K Tokens ».
Marque |
Modèle |
Entrée (Clé GPTBots) | Sortie (Clé GPTBots) | Entrée (Propre Clé) | Sortie (Propre Clé) |
|---|---|---|---|---|---|
| OpenAI | GPT-5.2-400k | 0.1375 | 1.1000 | 0.012500 | 0.1000 |
| OpenAI | GPT-5.2-Chat-400k | 0.1375 | 1.1000 | 0.0025 | 0.1000 |
| OpenAI | GPT-5.0-400k | 0.1375 | 1.1000 | 0.012500 | 0.1000 |
| OpenAI | GPT-5.0-Chat-400k | 0.1375 | 1.1000 | 0.0025 | 0.1000 |
| OpenAI | GPT-5.0-Mini-400k | 0.0275 | 0.2200 | 0.0025 | 0.0200 |
| OpenAI | GPT-5.0-Nano-400k | 0.0055 | 0.0440 | 0.0005 | 0.0040 |
| OpenAI | GPT-4.1-1M | 0.22 | 0.88 | 0.02 | 0.08 |
| OpenAI | GPT-4.1-mini-1M | 0.044 | 0.176 | 0.004 | 0.016 |
| OpenAI | GPT-4.1-nano-1M | 0.011 | 0.044 | 0.001 | 0.004 |
| OpenAI | GPT-4o-mini-128k | 0.0165 | 0.0665 | 0.0015 | 0.006 |
| OpenAI | GPT-4o-128k | 0.225 | 1.1 | 0.0225 | 0.11 |
| OpenAI | GPT-o3 | 1.1 | 4.4 | 0.1 | 0.4 |
| OpenAI | GPT-o4-mini | 0.121 | 0.484 | 0.011 | 0.044 |
| OpenAI | GPT-4o-Audio-128k | 4.4 | 8.8 | 0.4 | 0.8 |
| OpenAI | GPT-4o-mini-Auido-128k | 1.1 | 2.2 | 0.1 | 0.2 |
| DeepSeek | V3 | 0.0157 | 0.0314 | 0.0014 | 0.0029 |
| DeepSeek | R1 | 0.0629 | 0.2514 | 0.0057 | 0.0229 |
| Gemini-3.0-Pro | 0.44 | 1.98 | 0.04 | 0.18 | |
| Gemini-3.0-Pro-Image | 0.22 | 13.2 | 0.02 | 1.2 | |
| Gemini-3.0-Flash | 0.055 | 0.33 | 0.005 | 0.03 | |
| Gemini-3.0-Flash-Thinking | 0.055 | 0.33 | 0.005 | 0.03 | |
| Gemini-2.5-Pro | 0.275 | 1.65 | 0.025 | 0.15 | |
| Anthropic | Claude-4.5-Opus-200k | 1.65 | 2.75 | 0.15 | 0.25 |
| Anthropic | Claude-4.5-Sonnet-200k | 0.33 | 1.65 | 0.03 | 0.15 |
| Anthropic | Claude-4.5-Haiku-200k | 0.11 | 0.55 | 0.01 | 0.05 |
| Anthropic | Claude-4.0-Sonnet-200k | 0.33 | 1.65 | 0.03 | 0.15 |
| Anthropic | Claude-4.0-Sonnet-Thinking-200k | 0.33 | 1.65 | 0.03 | 0.15 |
| xAI | Grok-4.1-Fast-128k | 0.022 | 0.055 | 0.002 | 0.005 |
| xAI | Grok-4.1-Fast-Thinking-128k | 0.022 | 0.055 | 0.002 | 0.005 |
| xAI | Grok-4.1-Fast-2M | 0.044 | 0.11 | 0.004 | 0.01 |
| xAI | Grok-4.1-Fast-Thinking-2M | 0.044 | 0.11 | 0.004 | 0.01 |
| xAI | Grok-4.0-256K | 0.33 | 1.65 | 0.03 | 0.15 |
| Azure | GPT-5.0-400k | 0.1375 | 1.1000 | 0.012500 | 0.1000 |
| Azure | GPT-5.0-Chat-400k | 0.1375 | 1.1000 | 0.0025 | 0.1000 |
| Azure | GPT-5.0-Mini-400k | 0.0275 | 0.2200 | 0.0025 | 0.0200 |
| Azure | GPT-5.0-Nano-400k | 0.0055 | 0.0440 | 0.0005 | 0.0040 |
| Azure | GPT-4.1-1M | 0.22 | 0.88 | 0.02 | 0.08 |
| Azure | GPT-4.1-mini-1M | 0.044 | 0.176 | 0.004 | 0.016 |
| Azure | GPT-4.1-nano-1M | 0.011 | 0.044 | 0.001 | 0.004 |
| Azure | GPT-4o-128k | 0.225 | 1.1 | 0.0225 | 0.11 |
| Azure | GPT-4o-mini-128k | 0.0165 | 0.0665 | 0.0015 | 0.006 |
| Azure | GPT-4o-Audio-128k | 4.4 | 8.8 | 0.4 | 0.8 |
| Azure | GPT-4o-mini-Auido-128k | 1.1 | 2.2 | 0.1 | 0.2 |
| Meta | llama-3.0-8b-8k | 0.022 | 0.022 | 0.002 | 0.002 |
| Meta | llama-3.0-70b-8k | 0.099 | 0.099 | 0.009 | 0.009 |
| Meta | llama-3.1-8b-turbo-128k | 0.022 | 0.022 | 0.002 | 0.002 |
| Meta | llama-3.1-70b-turbo-128k | 0.099 | 0.099 | 0.009 | 0.009 |
| Meta | llama-3.1-405b-turbo-4k | 0.099 | 0.099 | 0.009 | 0.009 |
| Seed | Seed-1.6-256K | 0.055 | 0.44 | 0.005 | 0.04 |
| Seed | Seed-1.6-Thinking-256K | 0.055 | 0.44 | 0.005 | 0.04 |
| Seed | Seed-1.6-Flash-256K | 0.0083 | 0.033 | 0.0008 | 0.003 |
| Seed | Seed-1.6-Flash-Thinking-256K | 0.0083 | 0.033 | 0.0008 | 0.003 |
| Mixtral | open-mistral-7b | 0.028 | 0.028 | 0.003 | 0.003 |
| Mixtral | open-mixtral-8x7b | 0.077 | 0.077 | 0.007 | 0.007 |
| Mixtral | mistral-small-latest | 0.220 | 0.660 | 0.020 | 0.060 |
| Mixtral | mistral-medium-latest | 0.297 | 0.891 | 0.027 | 0.081 |
| Mixtral | mistral-large-latest | 0.880 | 2.640 | 0.080 | 0.240 |
| Tencent | Hunyuan-standard-32k | 0.0707 | 0.0786 | 0.0064 | 0.0071 |
| Tencent | Hunyuan-standard-256k | 0.2357 | 0.9429 | 0.0214 | 0.0857 |
| Tencent | Hunyuan-pro-32k | 0.472 | 1.572 | 0.042 | 0.142 |
| Ali | Qwen-3.0-Plus-128k | 0.0126 | 0.0314 | 0.0011 | 0.0029 |
| Ali | Qwen-3.0-Plus-Thinking-128k | 0.0126 | 0.2514 | 0.0011 | 0.0229 |
| Ali | Qwen-3.0-turbo-1M | 0.0047 | 0.0094 | 0.0004 | 0.0009 |
| Ali | Qwen-2.5-Max-32k | 0.3143 | 0.9429 | 0.0286 | 0.0857 |
| Ali | Qwen-vl-max-32k | 0.3143 | 0.3143 | 0.0286 | 0.0286 |
| Ali | Qwen2.5-72b-128k | 0.0629 | 0.1886 | 0.0057 | 0.0171 |
| Ali | Qwen2.0-32b-128k | 0.055 | 0.11 | 0.005 | 0.01 |
| Ali | Qwen2.0-7b-128k | 0.0314 | 0.0943 | 0.0029 | 0.0086 |
| Ali | Qwen2.0-audio | 0.1 | 0.1 | 0.01 | 0.01 |
| Baidu | ERNIE-4.0-8K | 1.76 | 1.76 | 0.16 | 0.16 |
| Baidu | ERNIE-3.5-8K | 0.18 | 0.18 | 0.02 | 0.02 |
| ZhiPu | GLM-4.5-128K | 0.0314 | 0.0029 | 0.1257 | 0.0114 |
| ZhiPu | GLM-4.5-Air-128K | 0.0094 | 0.0009 | 0.0629 | 0.0057 |
| ZhiPu | GLM-4.5-X-128K | 0.1257 | 0.0114 | 0.5029 | 0.0457 |
| ZhiPu | GLM-4V-Plus-8K | 0.017 | 0.017 | 0.0015 | 0.0015 |
| ZhiPu | GLM-4.0-9b-8K | 0.095 | 0.095 | 0.008 | 0.008 |
| Moonshot | Kimi-K2-Turbo-256K | 0.1257 | 0.9114 | 0.0114 | 0.0829 |
| Moonshot | Kimi-K2-Thinking-256k | 0.0629 | 0.2514 | 0.0057 | 0.0229 |
| Moonshot | Moonshot-128K | 0.9429 | 0.9429 | 0.0857 | 0.0857 |
| Moonshot | Moonshot-32K | 0.3771 | 0.3771 | 0.0343 | 0.0343 |
| Moonshot | Moonshot-8K | 0.1886 | 0.1886 | 0.0171 | 0.0171 |
Tarification du Service Embedding
Remarque : Les prix suivants sont exprimés en « crédits / 1K Tokens ».
Marque |
Modèle |
Clé GPTBots |
Propre Clé |
|---|---|---|---|
| OpenAI | text-embedding-ada-002 | 0.0120 | 0.0010 |
| OpenAI | text-embedding-3-large | 0.0156 | 0.0013 |
| OpenAI | text-embedding-3-small | 0.0024 | 0.0002 |
Tarification du Service Rerank
Remarque : Les prix suivants sont exprimés en « crédits / 1K Tokens ».
Marque |
Modèle |
Clé GPTBots |
Propre Clé |
|---|---|---|---|
| Jina | reranker-v1-base-en | 0.0022 | 0.0001 |
| Jina | reranker-v1-turbo-en | 0.0022 | 0.0001 |
| Jina | reranker-v1-tiny-en | 0.0022 | 0.0001 |
| Baai | bce-rerank | 0.0022 | 0.0001 |
| NteEase | bgep-rerank | 0.0022 | 0.0001 |
Tarification du Service ASR
Remarque : Les prix suivants sont exprimés en « crédits / 60 sec ».
Marque |
Modèle |
Clé GPTBots |
Propre Clé |
|---|---|---|---|
| OpenAI | Whisper Large-V2 | 0.66 | 0.06 |
| OpenAI | Whisper Large-V3 | 0.88 | 0.08 |
Tarification du Service TTS
Remarque : Les prix suivants sont exprimés en « crédits / 1000 caractères ».
Marque |
Modèle |
Clé Plateforme |
Propre Clé |
|---|---|---|---|
| OpenAI | TTS | 1.65 | 0.15 |
| Azure | Speech | 1.65 | 0.15 |
| Ali | CosyVoice | 0.44 | 0.044 |
| Ali | Sambert | 0.22 | 0.022 |
| Minimax | Voice | 0.44 | 0.044 |
Stockage de Vecteurs
Remarque : Les prix suivants sont exprimés en « crédits / 1K Tokens/ jour ».
Service |
Tarif |
|---|---|
| Stockage de Vecteurs | 0.001 |
FAQ
Comment convertir entre les crédits GPTBots et les tokens ?
En prenant comme exemple le service LLM GPT-4.1-1M d'OpenAI, lors de l'utilisation de la « Clé GPTBots », l'entrée de 1000 tokens consomme 0,22 crédit.10 $ = 1000 crédits = 4 545 454 Tokens (1000 crédits / 0,22 crédit * 1000 tokens)
| Langue | Entrée ≈ Caractères | Entrée ≈ Mots |
|---|---|---|
| Anglais | 18 000 000 caractères | 3 500 000 |
| Chinois | 3 000 000~4 500 000 | - |
| Japonais | 3 000 000~4 500 000 | - |
| Coréen | 3 000 000~4 500 000 | - |
| Français | - | 3 800 000 |
| Allemand | - | 3 800 000 |
| Thaï | 3 000 000~4 500 000 | - |
| Russe | - | 3 800 000 |
| Arabe | - | 3 800 000 |
Remarque :
Ce sont des estimations approximatives et les valeurs réelles peuvent varier selon le contenu du texte et la méthode de tokenisation.
Le nombre de mots est plus facile à estimer pour l'anglais et les autres langues à base latine, tandis que le nombre de caractères est plus pertinent pour le chinois, le japonais, le coréen, le thaï, etc.
Comment les tokens sont-ils calculés ?
En prenant comme exemple les règles de calcul des tokens du service LLM d'OpenAI :
| Langue/Caractère | 1 Token ≈ Caractères |
|---|---|
| Anglais | 4 caractères |
| Chinois | 1 caractère chinois |
| Japonais | 1 kana ou kanji |
| Coréen | 1 caractère hangul |
| Français/Espagnol/Allemand etc. | 3~4 caractères |
| Russe | 3~4 caractères |
| Arabe/Hébreu | 3~4 caractères |
- Anglais : 1 mot anglais ≈ 1,3 token, 1 token ≈ 4 caractères anglais (espaces et ponctuation inclus)
- Chinois : 1 caractère chinois ≈ 1 token (parfois 1,5 tokens en moyenne)
- Japonais : 1 token ≈ 1 kana/kanji japonais
- Coréen : 1 token ≈ 1 lettre coréenne (les blocs de syllabes peuvent être plus longs)
- Français : 1 mot français ≈ 1,2 token
- Allemand : 1 mot allemand ≈ 1,2 token
- Thaï : 1 token ≈ 1 lettre thaïlandaise (le thaï n'a pas d'espaces, le nombre de tokens peut donc être plus élevé après tokenisation)
- Russe : 1 mot russe ≈ 1,2 token
- Arabe : 1 mot arabe ≈ 1,2 token
Pour des besoins spécifiques de comptage de tokens, vous pouvez utiliser l'outil tiktoken d'OpenAI pour des tests réels.
Comment les tokens sont-ils calculés pour les entrées d'images ?
En prenant comme exemple les règles de calcul des tokens du service LLM d'OpenAI, voici comment les tokens sont calculés pour les images :
- Obtenez la longueur et la largeur de l'image en « px », par exemple « 1024px * 1024px ».
- Calculez la valeur « Tiles » de l'image en divisant la « largeur » et la « hauteur » par 512, en arrondissant au supérieur, puis en multipliant les résultats.
- Calculez les « Tokens » de l'image avec la formule « 85+170*Tiles ».
Formule complète de calcul :
Exemple de code Python :
import math
def calculate_tokens(width, height):
tiles = math.ceil(width/512) * math.ceil(height/512)
tokens = 85 + 170 * tiles
return tokens
# Test
print(calculate_tokens(2000, 500))
Par exemple, si les dimensions de l'image d'entrée sont 2000px * 500px, sa valeur Tiles sera 4*1=4, donc les Tokens d'entrée pour cette image seront 85+170*4=765.
