Config

Ici, vous pouvez configurer divers paramètres de base pour l'Agent. Les résultats de la configuration affecteront directement les performances de l'Agent.
LLM

Ici, vous pouvez définir les paramètres LLM pour l'Agent.
- LLM : Le LLM utilisé par l'Agent.
- Température : Peut également être comprise comme la « créativité ». Plus la valeur est élevée, plus la divergence du LLM est forte, c'est-à-dire que le LLM peut répondre avec des résultats très créatifs, mais cela signifie aussi qu'il y a une possibilité d'incontrôlabilité ; plus la valeur est basse, plus la convergence est forte, c'est-à-dire que la réponse du LLM sera plus rigoureuse et stable.
- Invite d'identité : Détermine « quel type d'entité » l'Agent deviendra. Vous pouvez définir le rôle, les objectifs, les tâches, les processus, les limitations, les compétences, etc. pour l'Agent dans l'invite d'identité, afin que l'Agent ait une compréhension plus claire de son rôle et puisse finalement accomplir les tâches comme vous l'attendez. Vous pouvez également cliquer sur l'icône "IA" en haut à droite pour optimiser le contenu en fonction de votre invite d'identité actuelle. L'IA rédigera pour vous une invite d'identité plus efficace et scientifique basée sur le cadre scientifique du "Prompt Engineering".
- Configuration des tokens : Sert à allouer la proportion des différents types de contenu occupant la fenêtre de contexte du LLM.
Base de connaissances
L'Agent utilisera l'entrée de l'utilisateur pour effectuer une récupération vectorielle dans la base de connaissances, rappeler plusieurs fragments de connaissances comme partie du contexte, et les soumettre au LLM pour effectuer des tâches.

Ici, vous pouvez définir comment l'Agent utilise la base de connaissances.
- Portée de la récupération : Le nombre de documents de connaissances disponibles pour la récupération.
- Mécanisme de rappel :
- Pertinence : La pertinence sémantique entre la question de l'utilisateur et le fragment de connaissance, seul le fragment de connaissance avec une valeur supérieure ou égale à celle-ci sera utilisé comme référence pour la réponse de l'Agent.
- Nombre maximal de rappels : Le nombre maximal de fragments de connaissances rappelés après la récupération.
- Poids de la récupération : Lors de la récupération, la répartition du poids entre la récupération vectorielle et la récupération par mots-clés.
- Mode de réponse de secours : La stratégie de réponse de l'Agent lorsque la quantité de rappel de la base de connaissances est de 0.
- Affichage de la référence de connaissance : Indique si la source des connaissances de chaque réponse du LLM doit être affichée dans l'interface de dialogue.
Outil

Ici, vous pouvez configurer les Outils nécessaires à l'Agent.
Vous pouvez définir le moment d'utilisation des Outils pour l'Agent dans l'invite d'identité. Structure :
Traduisez ceci en anglais : Utilisez le plugin/outil {Tool} pour {objectif/tâche} lorsque {moment}.
Par exemple, si vous souhaitez que l'Agent appelle DALL-E-3 pour générer une illustration basée sur le contenu principal de l'histoire générée, vous pouvez écrire ceci :
utilisez le plugin `DALL-E-3` pour générer des illustrations de style cartoon pour les scènes clés de l'histoire lorsque la génération complète de l'histoire est terminée.
Mémoire

Ici, vous pouvez configurer les capacités de mémoire que l'Agent utilisera pendant les conversations.
- Mémoire à court terme : Vous pouvez la paramétrer pour mémoriser le contenu des quelques derniers tours de conversation, où « une question et une réponse » comptent pour un tour.
- Mémoire à long terme : Cela permettra de mémoriser des contenus de conversation plus longs.
- Attributs utilisateur : Cela préconfigurera les attributs de l'utilisateur dans la mémoire, permettant à l'Agent de disposer d'informations personnalisées sur l'utilisateur en tant que connaissances, offrant ainsi un service plus personnalisé.
Si la capacité de mémoire est désactivée, la conversation avec l'Agent ne bénéficiera pas de compréhension contextuelle, et chaque tour de conversation sera indépendant.
Accueil & Guide

Ici, vous pouvez configurer le message d'accueil et les informations de guide utilisateur pour l'Agent.
- Salutation : Lorsqu'un utilisateur visite l'Agent, celui-ci le salue automatiquement avec ce message d'accueil.
- Questions suggérées : Après que l'Agent a répondu, il propose automatiquement à l'utilisateur 3 questions pour poursuivre la conversation, guidant ainsi l'utilisateur à continuer d'échanger avec l'Agent.
Entrée

- Nombre maximal d'images : Le nombre maximal d'images pouvant être saisies lors d'une conversation avec l'Agent.
- Qualité de l'image téléchargée : La qualité des images saisies pour l'Agent. Plus la qualité est élevée, meilleure sera la qualité de réponse du MLLM.
- Saisie vocale : Indique si la saisie vocale est autorisée pour l'Agent. Cette fonctionnalité peut convertir la voix de l'utilisateur en texte et la soumettre à l'Agent.
Sortie

- Sortie vocale : Indique si le contenu de sortie de l'Agent peut être converti en voix.
- Voix : La voix du contenu de sortie de l'Agent.
- Qualité sonore : La qualité sonore du contenu de sortie de l'Agent.
- Langue de sortie du texte : Définit la langue de sortie de l'Agent.
Débogage

Ici, vous pouvez converser avec l'Agent et ressentir en temps réel l'effet des ajustements de paramètres.
En même temps, vous pouvez aussi utiliser le contenu de la conversation ici pour entraîner l'Agent.
