Service, Credit & Pricing
Modell-Services
GPTBots bietet aktuell zwei verschiedene Modi für Modell-Services an. Kund:innen können je nach Bedarf zwischen der Nutzung eines „GPTBots-Schlüssels“ oder eines „eigenen Schlüssels“ wählen. Je nach Modus fallen unterschiedliche Credit-Gebühren als Serviceentgelt bei der Nutzung von Modell-Services an. Die bevorzugte Service-Variante kann unter „Organisation – LLMs“ ausgewählt und konfiguriert werden.
- GPTBots-Schlüssel: Dies ist ein direkt von GPTBots offiziell bereitgestellter Service. Entwickler:innen können Dienste von Plattformen wie OpenAI und Claude direkt über GPTBots nutzen, ohne eigene Schlüssel auf diesen Plattformen registrieren zu müssen.
- Eigener Schlüssel: Wenn Entwickler:innen bereits eigene Schlüssel von Plattformen wie OpenAI besitzen, können sie diese direkt auf der GPTBots-Plattform verwenden. GPTBots berechnet hierfür eine geringe Anzahl an Credits als Servicegebühr.
Service Credit Pricing
Alle Services innerhalb von GPTBots werden mit „Credits“ abgerechnet und deren Nutzung entsprechend erfasst. Verschiedene LLM-Versionen verbrauchen unterschiedlich viele Credits. Detaillierte Informationen zur Berechnung des Verbrauchs finden Sie in den folgenden Abschnitten.
Hinweis: Credits können weder erstattet noch umgetauscht werden.
Arten des Credit-Verbrauchs
Die GPTBots-Plattform unterscheidet die Abrechnung nach Service-Typen (siehe Service, Credit & Pricing), wobei Credits gemäß den jeweiligen Service-Tarifen abgezogen werden. Es gibt 10 spezifische Abrechnungstypen. Bei der Nutzung von KI-Agent:innen und Workflows verbrauchen verschiedene Service-Typen die entsprechenden Credits. Entwickler:innen können die Credit-Verbrauchsstatistiken unter „Organisation – Nutzung“ einsehen.
| Abrechnungstyp | Definition | Beispiel |
|---|---|---|
| LLM Text-Chat | Aufruf eines LLM mit Text- und Bildeingabe/-ausgabe | Beim Aufruf von LLM-Komponenten, Klassifizierer oder Komponenten zur Bedingungsprüfung |
| LLM Audio-Chat | Aufruf eines Audio-LLM für Audio-Ein-/Ausgabe | Beim Aufruf eines Audio-LLM |
| ASR-Erkennung | Nutzung des ASR-Service zur Umwandlung von Audio in Text |
Beim Hochladen von Audiodateien im System-Erkennungsmodus |
| TTS-Generierung | Nutzung des TTS-Service zur Umwandlung von Text in Audio |
Beim Klicken auf die Sound-Wiedergabetaste für Textnachrichten im Chatfenster |
| Knowledge Indexing | Nutzung des Knowledge Index zur Einbettung von Nutzerfragen und Wissensdaten |
Bei der Wissensabfrage |
| Knowledge Storage | Hochladen und Speichern von Wissensdaten in der Wissensdatenbank | Tägliche Berechnung der aktuellen Speicherkapazität der Wissensdatenbank |
| Tools-Aufruf | Erfolgreicher Aufruf von kostenpflichtigen Tools |
Beim Einsatz kostenpflichtiger Tools wie Google-Suche |
| Knowledge Reranking | Nutzung des Rerank-Service zur Neusortierung der Ergebnisse der Wissensdatenbank |
Bei aktivierter Wissens-Neusortierung für die Wissensdatenbank |
| Datenbankverarbeitung | Umwandlung hochgeladener Dokumente in Datenbank-Feldwerte und Aufruf von Datenbank-Abfragen zur Diagrammerstellung |
Beim Extrahieren von Dokumenten in die Datenbank und Nutzung von Datenbankfunktionen im Chat |
| Frageerkennung | Nutzung der Frageerkennung für Frageklassifizierung und Sentimentanalyse |
Bei aktivierter Frageklassifizierungsfunktion in Protokollen |
LLM-Service-Preise
Hinweis: Die folgenden Preise werden in „Credits / 1.000 Tokens“ angegeben.
Anbieter |
Modell |
Eingabe (GPTBots-Schlüssel) | Ausgabe (GPTBots-Schlüssel) | Eingabe (eigener Schlüssel) | Ausgabe (eigener Schlüssel) |
|---|---|---|---|---|---|
| OpenAI | GPT-5.1-400k | 0,1375 | 1,1000 | 0,012500 | 0,1000 |
| OpenAI | GPT-5.1-Chat-400k | 0,1375 | 1,1000 | 0,0025 | 0,1000 |
| OpenAI | GPT-5.0-400k | 0,1375 | 1,1000 | 0,012500 | 0,1000 |
| OpenAI | GPT-5.0-Chat-400k | 0,1375 | 1,1000 | 0,0025 | 0,1000 |
| OpenAI | GPT-5.0-Mini-400k | 0,0275 | 0,2200 | 0,0025 | 0,0200 |
| OpenAI | GPT-5.0-Nano-400k | 0,0055 | 0,0440 | 0,0005 | 0,0040 |
| OpenAI | GPT-4.1-1M | 0,22 | 0,88 | 0,02 | 0,08 |
| OpenAI | GPT-4.1-mini-1M | 0,044 | 0,176 | 0,004 | 0,016 |
| OpenAI | GPT-4.1-nano-1M | 0,011 | 0,044 | 0,001 | 0,004 |
| OpenAI | GPT-4o-mini-128k | 0,0165 | 0,0665 | 0,0015 | 0,006 |
| OpenAI | GPT-4o-128k | 0,225 | 1,1 | 0,0225 | 0,11 |
| OpenAI | GPT-o3 | 1,1 | 4,4 | 0,1 | 0,4 |
| OpenAI | GPT-o4-mini | 0,121 | 0,484 | 0,011 | 0,044 |
| OpenAI | GPT-4o-Audio-128k | 4,4 | 8,8 | 0,4 | 0,8 |
| OpenAI | GPT-4o-mini-Auido-128k | 1,1 | 2,2 | 0,1 | 0,2 |
| DeepSeek | V3 | 0,0157 | 0,0314 | 0,0014 | 0,0029 |
| DeepSeek | R1 | 0,0629 | 0,2514 | 0,0057 | 0,0229 |
| Gemini-3.0-Pro | 0,44 | 1,98 | 0,04 | 0,18 | |
| Gemini-2.5-Pro | 0,275 | 1,65 | 0,025 | 0,15 | |
| Gemini-2.5-Flash | 0,011 | 0,066 | 0,0015 | 0,006 | |
| Gemini-2.5-Flash (Audio-Eingabe) | 0,11 | 0,066 | 0,01 | 0,006 | |
| Gemini-2.5-Flash-Thinking | 0,011 | 0,385 | 0,0015 | 0,035 | |
| Gemini-2.5-Pro | 0,275 | 1,65 | 0,025 | 0,15 | |
| Anthropic | Claude-4.5-Opus-200k | 1,65 | 2,75 | 0,15 | 0,25 |
| Anthropic | Claude-4.5-Sonnet-200k | 0,33 | 1,65 | 0,03 | 0,15 |
| Anthropic | Claude-4.5-Haiku-200k | 0,11 | 0,55 | 0,01 | 0,05 |
| Anthropic | Claude-4.0-Sonnet-200k | 0,33 | 1,65 | 0,03 | 0,15 |
| Anthropic | Claude-4.0-Sonnet-Thinking-200k | 0,33 | 1,65 | 0,03 | 0,15 |
| xAI | Grok-4.1-Fast-2M | 0.022 | 0.055 | 0.002 | 0.005 |
| xAI | Grok-4.1-Fast-Thinking-2M | 0.022 | 0.055 | 0.002 | 0.005 |
| xAI | Grok-4.0-256K | 0.33 | 1.65 | 0.03 | 0.15 |
| Azure | GPT-5.0-400k | 0.1375 | 1.1000 | 0.012500 | 0.1000 |
| Azure | GPT-5.0-Chat-400k | 0.1375 | 1.1000 | 0.0025 | 0.1000 |
| Azure | GPT-5.0-Mini-400k | 0.0275 | 0.2200 | 0.0025 | 0.0200 |
| Azure | GPT-5.0-Nano-400k | 0.0055 | 0.0440 | 0.0005 | 0.0040 |
| Azure | GPT-4.1-1M | 0.22 | 0.88 | 0.02 | 0.08 |
| Azure | GPT-4.1-mini-1M | 0.044 | 0.176 | 0.004 | 0.016 |
| Azure | GPT-4.1-nano-1M | 0.011 | 0.044 | 0.001 | 0.004 |
| Azure | GPT-4o-128k | 0.225 | 1.1 | 0.0225 | 0.11 |
| Azure | GPT-4o-mini-128k | 0.0165 | 0.0665 | 0.0015 | 0.006 |
| Azure | GPT-4o-Audio-128k | 4.4 | 8.8 | 0.4 | 0.8 |
| Azure | GPT-4o-mini-Auido-128k | 1.1 | 2.2 | 0.1 | 0.2 |
| Meta | llama-3.0-8b-8k | 0.022 | 0.022 | 0.002 | 0.002 |
| Meta | llama-3.0-70b-8k | 0.099 | 0.099 | 0.009 | 0.009 |
| Meta | llama-3.1-8b-turbo-128k | 0.022 | 0.022 | 0.002 | 0.002 |
| Meta | llama-3.1-70b-turbo-128k | 0.099 | 0.099 | 0.009 | 0.009 |
| Meta | llama-3.1-405b-turbo-4k | 0.099 | 0.099 | 0.009 | 0.009 |
| Seed | Seed-1.6-256K | 0.055 | 0.44 | 0.005 | 0.04 |
| Seed | Seed-1.6-Thinking-256K | 0.055 | 0.44 | 0.005 | 0.04 |
| Seed | Seed-1.6-Flash-256K | 0.0083 | 0.033 | 0.0008 | 0.003 |
| Seed | Seed-1.6-Flash-Thinking-256K | 0.0083 | 0.033 | 0.0008 | 0.003 |
| Mixtral | open-mistral-7b | 0,028 | 0,028 | 0,003 | 0,003 |
| Mixtral | open-mixtral-8x7b | 0,077 | 0,077 | 0,007 | 0,007 |
| Mixtral | mistral-small-latest | 0,220 | 0,660 | 0,020 | 0,060 |
| Mixtral | mistral-medium-latest | 0,297 | 0,891 | 0,027 | 0,081 |
| Mixtral | mistral-large-latest | 0,880 | 2,640 | 0,080 | 0,240 |
| Tencent | Hunyuan-standard-32k | 0,0707 | 0,0786 | 0,0064 | 0,0071 |
| Tencent | Hunyuan-standard-256k | 0,2357 | 0,9429 | 0,0214 | 0,0857 |
| Tencent | Hunyuan-pro-32k | 0,472 | 1,572 | 0,042 | 0,142 |
| Ali | Qwen-3.0-Plus-128k | 0,0126 | 0,0314 | 0,0011 | 0,0029 |
| Ali | Qwen-3.0-Plus-Thinking-128k | 0,0126 | 0,2514 | 0,0011 | 0,0229 |
| Ali | Qwen-3.0-turbo-1M | 0,0047 | 0,0094 | 0,0004 | 0,0009 |
| Ali | Qwen-2.5-Max-32k | 0,3143 | 0,9429 | 0,0286 | 0,0857 |
| Ali | Qwen-vl-max-32k | 0,3143 | 0,3143 | 0,0286 | 0,0286 |
| Ali | Qwen2.5-72b-128k | 0,0629 | 0,1886 | 0,0057 | 0,0171 |
| Ali | Qwen2.0-32b-128k | 0,055 | 0,11 | 0,005 | 0,01 |
| Ali | Qwen2.0-7b-128k | 0,0314 | 0,0943 | 0,0029 | 0,0086 |
| Ali | Qwen2.0-audio | 0,1 | 0,1 | 0,01 | 0,01 |
| Baidu | ERNIE-4.0-8K | 1,76 | 1,76 | 0,16 | 0,16 |
| Baidu | ERNIE-3.5-8K | 0,18 | 0,18 | 0,02 | 0,02 |
| ZhiPu | GLM-4.5-128K | 0,0314 | 0,0029 | 0,1257 | 0,0114 |
| ZhiPu | GLM-4.5-Air-128K | 0,0094 | 0,0009 | 0,0629 | 0,0057 |
| ZhiPu | GLM-4.5-X-128K | 0,1257 | 0,0114 | 0,5029 | 0,0457 |
| ZhiPu | GLM-4V-Plus-8K | 0,017 | 0,017 | 0,0015 | 0,0015 |
| ZhiPu | GLM-4.0-9b-8K | 0,095 | 0,095 | 0,008 | 0,008 |
| Moonshot | Kimi-K2-Turbo-256K | 0,1257 | 0,9114 | 0,0114 | 0,0829 |
| Moonshot | Kimi-K2-Thinking-256k | 0,0629 | 0,2514 | 0,0057 | 0,0229 |
| Moonshot | Moonshot-128K | 0,9429 | 0,9429 | 0,0857 | 0,0857 |
| Moonshot | Moonshot-32K | 0,3771 | 0,3771 | 0,0343 | 0,0343 |
| Moonshot | Moonshot-8K | 0,1886 | 0,1886 | 0,0171 | 0,0171 |
Embedding-Service-Preise
Hinweis: Die folgenden Preise werden in „Credits / 1.000 Tokens“ angegeben.
Anbieter |
Modell |
GPTBots-Schlüssel |
Eigener Schlüssel |
|---|---|---|---|
| OpenAI | text-embedding-ada-002 | 0,0120 | 0,0010 |
| OpenAI | text-embedding-3-large | 0,0156 | 0,0013 |
| OpenAI | text-embedding-3-small | 0,0024 | 0,0002 |
Rerank-Service-Preise
Hinweis: Die folgenden Preise werden in „Credits / 1.000 Tokens“ angegeben.
Anbieter |
Modell |
GPTBots-Schlüssel |
Eigener Schlüssel |
|---|---|---|---|
| Jina | reranker-v1-base-en | 0,0022 | 0,0001 |
| Jina | reranker-v1-turbo-en | 0,0022 | 0,0001 |
| Jina | reranker-v1-tiny-en | 0,0022 | 0,0001 |
| Baai | bce-rerank | 0,0022 | 0,0001 |
| NteEase | bgep-rerank | 0,0022 | 0,0001 |
ASR-Service-Preise
Hinweis: Die folgenden Preise werden in „Credits / 60 Sekunden“ angegeben.
Anbieter |
Modell |
GPTBots-Schlüssel |
Eigener Schlüssel |
|---|---|---|---|
| OpenAI | Whisper Large-V2 | 0,66 | 0,06 |
| OpenAI | Whisper Large-V3 | 0,88 | 0,08 |
TTS-Service-Preise
Hinweis: Die folgenden Preise werden in „Credits / 1.000 Zeichen“ angegeben.
Anbieter |
Modell |
Plattform-Schlüssel |
Eigener Schlüssel |
|---|---|---|---|
| OpenAI | TTS | 1,65 | 0,15 |
| Azure | Speech | 1,65 | 0,15 |
| Ali | CosyVoice | 0,44 | 0,044 |
| Ali | Sambert | 0,22 | 0,022 |
| Minimax | Voice | 0,44 | 0,044 |
Vektor-Speicher
Hinweis: Die folgenden Preise werden in „Credits / 1.000 Tokens/Tag“ angegeben.
Service |
Gebühr |
|---|---|
| Vektor-Speicher | 0,001 |
FAQ
Wie erfolgt die Umrechnung zwischen GPTBots-Credits und Tokens?
Am Beispiel des OpenAI-LLM-Services GPT-4.1-1M: Bei Nutzung des GPTBots-Schlüssels verbraucht die Eingabe von 1.000 Tokens 0,22 Credits.10 $ = 1.000 Credits = 4.545.454 Tokens (1.000 Credits / 0,22 Credits * 1.000 Tokens)
| Sprache | Eingabe ≈ Zeichen | Eingabe ≈ Wörter |
|---|---|---|
| Englisch | 18.000.000 Zeichen | 3.500.000 |
| Chinesisch | 3.000.000~4.500.000 | - |
| Japanisch | 3.000.000~4.500.000 | - |
| Koreanisch | 3.000.000~4.500.000 | - |
| Französisch | - | 3.800.000 |
| Deutsch | - | 3.800.000 |
| Thailändisch | 3.000.000~4.500.000 | - |
| Russisch | - | 3.800.000 |
| Arabisch | - | 3.800.000 |
Hinweis:
Dies sind ungefähre Schätzwerte; die tatsächlichen Werte können je nach Textinhalt und Tokenisierungsverfahren variieren.
Die Wortanzahl lässt sich bei Englisch und anderen lateinbasierten Sprachen leichter schätzen, während bei Chinesisch, Japanisch, Koreanisch, Thailändisch usw. die Zeichenzahl relevanter ist.
Wie werden Tokens berechnet?
Am Beispiel der Token-Berechnungsregeln des OpenAI-LLM-Services:
| Sprache/Zeichen | 1 Token ≈ Zeichen |
|---|---|
| Englisch | 4 Zeichen |
| Chinesisch | 1 chinesisches Zeichen |
| Japanisch | 1 Kana oder Kanji |
| Koreanisch | 1 Hangul-Zeichen |
| Französisch/Spanisch/Deutsch usw. | 3~4 Zeichen |
| Russisch | 3~4 Zeichen |
| Arabisch/Hebräisch | 3~4 Zeichen |
- Englisch: 1 englisches Wort ≈ 1,3 Tokens, 1 Token ≈ 4 englische Zeichen (inkl. Leerzeichen und Satzzeichen)
- Chinesisch: 1 chinesisches Zeichen ≈ 1 Token (manchmal 1,5 Tokens, im Mittelwert)
- Japanisch: 1 Token ≈ 1 japanisches Kana/Kanji
- Koreanisch: 1 Token ≈ 1 koreanisches Zeichen (Silbenblöcke können länger sein)
- Französisch: 1 französisches Wort ≈ 1,2 Tokens
- Deutsch: 1 deutsches Wort ≈ 1,2 Tokens
- Thailändisch: 1 Token ≈ 1 thailändisches Zeichen (da keine Leerzeichen, kann die Tokenanzahl nach der Tokenisierung höher sein)
- Russisch: 1 russisches Wort ≈ 1,2 Tokens
- Arabisch: 1 arabisches Wort ≈ 1,2 Tokens
Für eine genaue Token-Zählung können Sie das OpenAI-Tool tiktoken für eigene Tests nutzen.
Wie werden Tokens für Bildeingaben berechnet?
Am Beispiel der Token-Berechnungsregeln des OpenAI-LLM-Services für Bilder:
- Ermitteln Sie die Bildlänge und -breite in „px“, z. B. „1024px * 1024px“.
- Berechnen Sie den „Tiles“-Wert, indem Sie sowohl die Breite als auch die Höhe durch 512 teilen, aufrunden und die Ergebnisse multiplizieren.
- Berechnen Sie die „Tokens“ mit der Formel „85+170*Tiles“.
Komplette Berechnungsformel:
Beispielcode in Python:
import math
def calculate_tokens(width, height):
tiles = math.ceil(width/512) * math.ceil(height/512)
tokens = 85 + 170 * tiles
return tokens
# Test
print(calculate_tokens(2000, 500))
Wenn z. B. die Eingabebildgröße 2000px * 500px beträgt, ist der „Tiles“-Wert 4*1=4, sodass für dieses Bild 85+170*4=765 Tokens berechnet werden.
