LLMs (Large Language Models)
Der Large Language Model-Knoten ermöglicht es, LLMs (Large Language Models) aufzurufen, um Antworten basierend auf Eingabeparametern und Prompts zu generieren. Typische Anwendungsfälle sind die Textgenerierung, etwa für Copywriting, Textzusammenfassungen, Artikelerweiterungen und vieles mehr.
Dank ihrer Fähigkeiten im Sprachverständnis und in der Generierung ist der Large Language Model-Knoten in der Lage, komplexe Aufgaben in natürlicher Sprache zu verarbeiten. Je nach geschäftlichen Anforderungen können Sie verschiedene Modelle auswählen und Prompts konfigurieren, um die Persona und den Antwortstil des Modells festzulegen. Zur präzisen Steuerung der Modellausgabe lassen sich innerhalb des Large Language Model-Knotens Parameter wie Textlänge, Inhaltsvielfalt und weitere Attribute anpassen.
Knotenkonfiguration

Large Language Model (LLM): Das große Sprachmodell, das vom aktuellen Knoten aufgerufen wird.
KI-Kreativität: Steuert die Vielfalt der generierten Inhalte. Höhere Werte erhöhen die Kreativität und Zufälligkeit der Modellantworten.
Maximale Antwort: Die maximale Ausgabelänge des LLM, gemessen in Tokens.
Identitäts-Prompt: Definiert die Identität des LLM für den aktuellen Aufruf. Enthält in der Regel Beschreibungen zu Rolle, Aufgabe, Fähigkeiten, Workflow, Einschränkungen und Hintergrund, um das Verhalten und den Antwortstil des Modells zu steuern und eine Ausrichtung auf die gewünschte Aufgabe und den Ausführungsprozess sicherzustellen.
User Prompt: Die spezifische Frage oder Anweisung der Nutzer:innen, die die Antwort des Modells steuert.
Speicher: Ist der aktuelle Workflow in einen KI-Agenten eingebettet, kann der Gesprächsverlauf des Agenten (also der Speicher) als Kontext für den LLM-Aufruf genutzt werden.
Tool: Tools, die für den LLM-Aufruf benötigt werden. Unterstützt sowohl eigene Tools als auch öffentliche Tools.
Datentabelle: Datentabellen, die während des LLM-Aufrufs abgefragt werden. Unterstützt abteilungsübergreifende Abfragen.
Knotenausgabe

JSON: Definiert benutzerdefinierte Schlüssel-Wert-Paare für die gewünschte JSON-Struktur. Das LLM gibt die Ergebnisse entsprechend dem definierten JSON-Format aus.
LLM-Antwort: Gibt direkt den vom LLM generierten Rohinhalt aus.
