服务、积分与定价
模型服务
GPTBots当前提供两种不同的模型调用服务模式,客户可根据自身的需要选择使用「GPTBots key」或者「自有 key」,不同的模式在调用模型服务时,会收取不同额度积分作为服务费。您可以在「组织 - LLMs」内,选择并设置自己需要使用的服务模式。
- GPTBots Key:即 GPTBots 官方直接提供服务,开发者无需自己再去注册 OpenAI、Claude 等平台的 Key,即可直接在 GPTBots 使用它们的服务;
- 自有 Key:若开发者自己有 OpenAI 等平台的 Key,也可以直接在 GPTBots 平台上使用,GPTBots 将收取少量积分作为服务费。
服务积分定价
GPTBots 内的所有服务,均以「积分」进行定价和统计消耗。不同的 LLM 版本服务,对积分的消耗量也不一样,具体的消耗计算,详见下文。
注意:积分不提供退还或兑换等服务。
积分消耗项
GPTBots 平台根据服务类型的不同而区分定价(详见服务、积分与定价),根据不同的服务定价按量扣除,具体包含 10 个扣费类型。在使用 AI Agengt、Workflow 时,调用到不同类型的服务将会产生相应的积分消耗,开发者可以在「组织-用量」分类查看积分消耗统计数据。
扣费类型 | 定义 | 示例 |
---|---|---|
LLM 文本对话 | 调用 LLM 输入文字和图片,输出文字和图片 | LLM 组件、分支组件、条件判断组件被调用时 |
LLM 音频对话 | 调用 音频LLM 输入和输出音频 | 调用 音频LLM 时 |
ASR 识别 | 调用ASR服务 将音频识别为文字 |
系统识别模式下,附件上传音频时 |
TTS 生成 | 调用TTS服务 将文字生成为音频 |
对话窗口文字消息点击声音播放按钮时 |
知识索引 | 调用知识索引 将用户问题和知识数据进行Embedding |
进行知识检索时 |
知识存储 | 在知识库上传知识数据并存储 | 按天计算当前知识库存储容量 |
Tools 调用 | 调用付费Tools 成功 |
调用Google search积分付费工具时 |
知识重排 | 调用Rerank服务 对检索到的知识库进行重排 |
知识库开启知识重排功能时 |
数据库处理 | 在数据库上传文档转换为数据库字段值和调用数据库 查询生成图表 |
上传文档抽取为数据库和对话中调用数据库功能时 |
问题识别 | 调用问题识别 将用户问题进行分类和情绪识别 |
在日志中启用问题分类功能时 |
LLM 服务定价
注意:以下价格计量单位为「积分 / 1K Tokens」。
模型品牌 |
模型版本 |
Input(GPTBots key) | Output(GPTBots key) | Input(自有 Key) | Output(自有 Key) |
---|---|---|---|---|---|
OpenAI | GPT-4.1-1M | 0.22 | 0.88 | 0.02 | 0.08 |
OpenAI | GPT-4.1-mini-1M | 0.044 | 0.176 | 0.004 | 0.016 |
OpenAI | GPT-4.1-nano-1M | 0.011 | 0.044 | 0.001 | 0.004 |
OpenAI | GPT-4o-mini-128k | 0.0165 | 0.0665 | 0.0015 | 0.006 |
OpenAI | GPT-4o-128k | 0.225 | 1.1 | 0.0225 | 0.11 |
OpenAI | GPT-o3 | 1.1 | 4.4 | 0.1 | 0.4 |
OpenAI | GPT-o4-mini | 0.121 | 0.484 | 0.011 | 0.044 |
OpenAI | GPT-4o-Audio-128k | 4.4 | 8.8 | 0.4 | 0.8 |
OpenAI | GPT-4o-mini-Auido-128k | 1.1 | 2.2 | 0.1 | 0.2 |
OpenAI | GPT-3.5-turbo-16k | 0.055 | 0.165 | 0.005 | 0.015 |
OpenAI | GPT-4-8k | 3.3 | 6.6 | 0.3 | 0.6 |
OpenAI | GPT-4-turbo-128k | 1.1 | 3.3 | 0.1 | 0.3 |
DeepSeek | V3 | 0.0157 | 0.0314 | 0.0014 | 0.0029 |
DeepSeek | R1 | 0.0629 | 0.2514 | 0.0057 | 0.0229 |
Gemini-2.5-Flash | 0.011 | 0.066 | 0.0015 | 0.006 | |
Gemini-2.5-Flash(audio input) | 0.11 | 0.066 | 0.01 | 0.006 | |
Gemini-2.5-Flash-Thinking | 0.011 | 0.385 | 0.0015 | 0.035 | |
Gemini-2.5-Pro | 0.275 | 1.65 | 0.025 | 0.15 | |
Anthropic | Claude-3.5-Haiku-200k | 0.028 | 0.138 | 0.003 | 0.003 |
Anthropic | Claude-4.0-Sonnet-200k | 0.33 | 1.65 | 0.03 | 0.15 |
Anthropic | Claude-4.0-Sonnet-Thinking-200k | 0.33 | 1.65 | 0.03 | 0.15 |
Anthropic | Claude-4.0-Opus-200k | 1.65 | 8.25 | 0.15 | 0.75 |
Anthropic | Claude-4.0-Opus-Thinking-200k | 1.65 | 8.25 | 0.15 | 0.75 |
Azure | GPT-4o-mini-128k | 0.0165 | 0.0665 | 0.0015 | 0.006 |
Azure | GPT-4o-128k | 0.225 | 1.1 | 0.0225 | 0.11 |
Azure | GPT-4o-Audio-128k | 4.4 | 8.8 | 0.4 | 0.8 |
Azure | GPT-4o-mini-Auido-128k | 1.1 | 2.2 | 0.1 | 0.2 |
Azure | GPT-3.5-turbo-4k | 0.055 | 0.165 | 0.005 | 0.015 |
Azure | GPT-3.5-turbo-16k | 0.055 | 0.165 | 0.005 | 0.015 |
Azure | GPT-4-8k | 3.3 | 6.6 | 0.3 | 0.6 |
Azure | GPT-4-32k | 6.6 | 13.2 | 0.6 | 1.2 |
Azure | GPT-4-turbo-128k | 1.1 | 3.3 | 0.1 | 0.3 |
Meta | llama-3.0-8b-8k | 0.022 | 0.022 | 0.002 | 0.002 |
Meta | llama-3.0-70b-8k | 0.099 | 0.099 | 0.009 | 0.009 |
Meta | llama-3.1-8b-turbo-128k | 0.022 | 0.022 | 0.002 | 0.002 |
Meta | llama-3.1-70b-turbo-128k | 0.099 | 0.099 | 0.009 | 0.009 |
Meta | llama-3.1-405b-turbo-4k | 0.099 | 0.099 | 0.009 | 0.009 |
Mixtral | open-mistral-7b | 0.028 | 0.028 | 0.003 | 0.003 |
Mixtral | open-mixtral-8x7b | 0.077 | 0.077 | 0.007 | 0.007 |
Mixtral | mistral-small-latest | 0.220 | 0.660 | 0.020 | 0.060 |
Mixtral | mistral-medium-latest | 0.297 | 0.891 | 0.027 | 0.081 |
Mixtral | mistral-large-latest | 0.880 | 2.640 | 0.080 | 0.240 |
Tencent | Hunyuan-lite- 4k | 免费 | 免费 | 免费 | 免费 |
Tencent | Hunyuan-standard-32k | 0.0707 | 0.0786 | 0.0064 | 0.0071 |
Tencent | Hunyuan-standard-256k | 0.2357 | 0.9429 | 0.0214 | 0.0857 |
Tencent | Hunyuan-pro-32k | 0.472 | 1.572 | 0.042 | 0.142 |
Ali | Qwen-3.0-Plus-128k | 0.0126 | 0.0314 | 0.0011 | 0.0029 |
Ali | Qwen-3.0-Plus-Thinking-128k | 0.0126 | 0.2514 | 0.0011 | 0.0229 |
Ali | Qwen-3.0-turbo-1M | 0.0047 | 0.0094 | 0.0004 | 0.0009 |
Ali | Qwen-2.5-Max-32k | 0.3143 | 0.9429 | 0.0286 | 0.0857 |
Ali | Qwen-vl-max-32k | 0.3143 | 0.3143 | 0.0286 | 0.0286 |
Ali | Qwen2.5-72b-128k | 0.0629 | 0.1886 | 0.0057 | 0.0171 |
Ali | Qwen2.0-32b-128k | 0.055 | 0.11 | 0.005 | 0.01 |
Ali | Qwen2.0-7b-128k | 0.0314 | 0.0943 | 0.0029 | 0.0086 |
Ali | Qwen2.0-audio | 0.1 | 0.1 | 0.01 | 0.01 |
百度 | ERNIE-4.0-8K | 1.76 | 1.76 | 0.16 | 0.16 |
百度 | ERNIE-3.5-8K | 0.18 | 0.18 | 0.02 | 0.02 |
百度 | ERNIE-Speed-128K | 免费 | 免费 | 免费 | 免费 |
智谱 | GLM-4.0-Plus-128K | 0.7857 | 0.7857 | 0.0714 | 0.0714 |
智谱 | GLM-4V-Plus-8K | 0.017 | 0.017 | 0.0015 | 0.0015 |
智谱 | GLM-4-FlashX | 0.0016 | 0.0016 | 0.0001 | 0.0001 |
智谱 | GLM-4.0-9b-8K | 0.095 | 0.095 | 0.008 | 0.008 |
月之暗面 | Moonshot-128K | 0.9429 | 0.9429 | 0.0857 | 0.0857 |
月之暗面 | Moonshot-32K | 0.3771 | 0.3771 | 0.0343 | 0.0343 |
月之暗面 | Moonshot-8K | 0.1886 | 0.1886 | 0.0171 | 0.0171 |
DeepSeek | DeepSeek-V3-64K | 0.0157 | 0.0314 | 0.0014 | 0.0029 |
DeepSeek | DeepSeek-R1-64K | 0.0629 | 0.2514 | 0.0057 | 0.0229 |
Embedding 服务定价
注意:以下价格计量单位为「积分 / 1K Tokens」。
模型品牌 模型版本 平台 Key 自有 KeyOpenAI text-embedding-ada-002 0.0120 0.0010 OpenAI text-embedding-3-large 0.0156 0.0013 OpenAI text-embedding-3-small 0.0024 0.0002
Rerank 服务定价
注意:以下价格计量单位为「积分 / 1K Tokens」。
模型品牌 模型版本 平台 Key 自有 KeyJina reranker-v1-base-en 0.0022 0.0001 Jina reranker-v1-turbo-en 0.0022 0.0001 Jina reranker-v1-tiny-en 0.0022 0.0001 Baai bce-rerank 0.0022 0.0001 NteEase bgep-rerank 0.0022 0.0001
ASR 服务定价
注意:以下价格计量单位为「积分 / 60 秒」。
模型品牌 模型版本 平台 Key 自有 KeyOpenAI Whisper Large-V2 0.66 0.06 OpenAI Whisper Large-V3 0.88 0.08
TTS 服务定价
注意:以下价格计量单位为「积分 / 1000 字符」。
模型品牌 模型版本 平台 Key 自有 KeyOpenAI TTS 1.65 0.15 Azure Speech 1.65 0.15 Ali CosyVoice 0.44 0.044 Ali Sambert 0.22 0.022 Minimax Voice 0.44 0.044
向量数据存储服务定价
注意:以下价格计量单位为「积分 / 1K Tokens / 天」。
服务类型 计费标准向量存储 0.001
FAQ
GPTBots 积分 与 Tokens 如何换算?
以 OpenAI 提供的大语言模型(LLM)服务 GPT-4.1-1M 为例,在使用GPTBots Key
情况下 GPT-4.1-1M 输入 1000 tokens 共消耗 0.22 积分。$10 = 1000 积分 = 4,545,454 Tokens( 1000 积分 / 0.22 积分 * 1000 tokens )
语言 | 输入约等于字符/汉字 | 输入约等于单词数 |
---|---|---|
英文 | 18,000,000 字符 | 3,500,000 |
中文 | 3,000,000~4,500,000 | - |
日文 | 3,000,000~4,500,000 | - |
韩文 | 3,000,000~4,500,000 | - |
法语 | - | 3,800,000 |
德语 | - | 3,800,000 |
泰语 | 3,000,000~4,500,000 | - |
俄语 | - | 3,800,000 |
阿拉伯语 | - | 3,800,000 |
注意:
以上为大致估算,实际会有一定浮动,取决于文本内容和分词方式。
英文与其他拉丁语系单词数较易估算,汉字、日文、韩文、泰文等以字符为主。
Tokens 如何计算?
以 OpenAI 提供的大语言模型(LLM)服务的token计算规则为例:
语言/字符 | 1 个 token 约等于多少字符 |
---|---|
英文 | 4 个字符 |
中文 | 1 个汉字 |
日文 | 1 个假名或汉字 |
韩文 | 1 个谚文 |
法语/西班牙语/德语等 | 3~4 个字符 |
俄语 | 3~4 个字符 |
阿拉伯语/希伯来语 | 3~4 个字符 |
- 英文(English):1 个英文单词 ≈ 1.3 tokens,1 个 token ≈ 4 个英文字符(含空格和标点)
- 汉字(Chinese):1 个汉字 ≈ 1 个 token(有时1.5个token,取平均)
- 日文(Japanese):1 个 token ≈ 1 个日文假名/汉字
- 韩文(Korean):1 个 token ≈ 1 个韩文字母(音节块可能更长)
- 法语(French):1 个法语单词 ≈ 1.2 tokens
- 德语(German):1 个德语单词 ≈ 1.2 tokens
- 泰语(Thai):1 个 token ≈ 1 个泰文字母(泰语无空格,分词后token数可能更多)
- 俄语(Russian):1 个俄语单词 ≈ 1.2 tokens
- 阿拉伯语(Arabic):1 个阿拉伯语单词 ≈ 1.2 tokens
如果你有具体的 token 计数需求,可以用 OpenAI 的 tiktoken 工具实际测试。
当使用图片输入时,Tokens 如何计算?
以 OpenAI 提供的大语言模型(LLM)服务的token计算规则为例,图片的 Token 计算方法如下:
- 获取图片的长和宽的 「px」 值,如:「1024px * 1024px」。
- 计算图片的 「Tiles」值,即用「width」和「height」分别除以 512 后,向上取整,再将得到的两个值求积。
- 计算图片的 「Tokens」,公式为「85+170*Tiles」。
完整计算公式如下:
Python 代码如下:
import math
def calculate_tokens(width, height):
tiles = math.ceil(width/512) * math.ceil(height/512)
tokens = 85 + 170 * tiles
return tokens
# Test
print(calculate_tokens(2000, 500))
例如,输入图片长宽为2000px * 500px
,则其Tiles
值为4*1=4
,则该图片的输入Tokens
为85+170*4=765
。