logo
Développement
Rechercher
LLMs (Grands Modèles de Langage)

LLMs (Grands Modèles de Langage)

Le nœud Grand Modèle peut invoquer les LLMs pour générer des réponses à partir de paramètres d'entrée et de prompts. Il est généralement utilisé pour des tâches de génération de texte telles que la rédaction, la synthèse de texte, l'expansion d'articles, et plus encore.

En tirant parti des capacités de compréhension et de génération de langage des LLMs, le nœud Grand Modèle peut gérer des tâches de traitement complexes formulées en langage naturel. Vous pouvez sélectionner différents modèles selon vos besoins métier et configurer des prompts pour définir la personnalité et le style de réponse du modèle. Pour contrôler précisément la sortie du modèle, vous pouvez ajuster les paramètres au sein du nœud Grand Modèle afin de définir la longueur du texte, la diversité du contenu et d'autres attributs.

Configuration du nœud

image.png

  • Grand Modèle de Langage (LLM) : Le grand modèle de langage à invoquer par le nœud actuel.

  • Créativité IA : Contrôle la diversité du contenu généré. Des valeurs plus élevées augmentent la créativité et l'aléa de la réponse du modèle.

  • Réponse maximale : La longueur maximale de la sortie du LLM, mesurée en tokens.

  • Invite d'identité : Définit l'identité du LLM pour l'invocation en cours. Cela inclut généralement des descriptions de son rôle, de sa tâche, de ses compétences, du workflow, des contraintes et du contexte pour guider le comportement et le style de réponse du modèle, assurant ainsi l'alignement avec la tâche et le processus d'exécution souhaités.

  • Invite utilisateur : La question ou la demande spécifique fournie par l'utilisateur pour orienter la réponse du modèle.

  • Mémoire : Si le workflow actuel est intégré dans un agent IA, l'historique de conversation de l'agent (c'est-à-dire la mémoire) peut être inclus comme contexte lors de l'invocation du LLM.

  • Outil : Outils nécessaires à l'invocation du LLM. Prend en charge à la fois les outils personnalisés et les outils open source.

  • Table de données : Tables de données à interroger lors de l'invocation du LLM. Prend en charge les requêtes inter-tables.

Sortie du nœud

image.png

  • JSON : Définit des paires clé-valeur personnalisées pour la structure JSON souhaitée. Le LLM produira des résultats selon le format JSON défini.

  • Réponse LLM : Affiche directement le contenu brut généré par le LLM.