Configuración

Aquí se pueden configurar diversos parámetros básicos del agente. Los resultados de la configuración afectarán directamente al rendimiento del agente.
LLM

Aquí se pueden configurar los parámetros del LLM para el agente.
- LLM: El LLM utilizado por el agente.
- Temperatura: También puede entenderse como «creatividad». Cuanto mayor sea el valor, mayor será la variabilidad de las respuestas (más creatividad), pero también aumenta el riesgo de obtener resultados menos controlables. Cuanto menor sea el valor, más consistentes y estables serán las respuestas.
- Prompt de identidad: Determina «qué tipo de entidad» será el agente. En el prompt de identidad se pueden definir el rol, los objetivos, las tareas, los procesos, las limitaciones, las habilidades, etc., para que el agente comprenda con mayor claridad su función y, en última instancia, ejecute las tareas según lo esperado. Asimismo, se puede seleccionar «AI» en la esquina superior derecha para optimizar el contenido en función del prompt de identidad actual. La IA redactará un prompt de identidad más eficaz y científico, basado en el marco científico de «Prompt Engineering».
- Configuración de tokens: Se utiliza para asignar la proporción que ocupan distintos tipos de contenido en la ventana de contexto del LLM.
Base de conocimientos
El agente utilizará la entrada del usuario para realizar una recuperación vectorial en la base de conocimientos, recuperar varios fragmentos como contexto y enviarlos al LLM para ejecutar tareas.

Aquí se puede configurar cómo utiliza el agente la base de conocimientos.
- Alcance de recuperación: El número de documentos de conocimiento disponibles para la recuperación.
- Mecanismo de recuperación:
- Relevancia: La relevancia semántica entre la pregunta del usuario y el fragmento de conocimiento; únicamente se utilizarán como referencia para la respuesta del agente los fragmentos cuyo valor sea mayor o igual que este.
- N.º máx. de fragmentos: El número máximo de fragmentos de conocimiento recuperados tras la búsqueda.
- Peso de recuperación: Durante la recuperación, la distribución de pesos entre las estrategias de recuperación vectorial y de recuperación por palabras clave.
- Modo de respuesta de reserva: La estrategia de respuesta del agente cuando no se recupera ningún resultado de la base de conocimientos.
- Mostrar referencias: Si se muestra o no en la interfaz de diálogo la información de conocimiento de origen de cada resultado de respuesta del LLM.
Herramientas

Aquí se pueden configurar las herramientas necesarias para el agente.
Se puede definir en el prompt de identidad cuándo debe utilizar las herramientas el agente. Estructura:
Translate this to English: Use the {Tool} plugin/tool to {purpose/task} when {timing}.
Por ejemplo, si se desea que el agente invoque DALL-E-3 para generar una pintura basada en el contenido principal de la historia generada, se puede redactar así:
use the `DALL-E-3` plugin to generate cartoons style paintings for the pivotal scenes of the story when the whole story generation is done.
Memoria

Aquí se pueden configurar las capacidades de memoria que el agente utilizará durante las conversaciones.
- Memoria a corto plazo: Se puede configurar para recordar el contenido de los turnos más recientes de la conversación, donde «una pregunta y una respuesta» cuentan como un turno.
- Memoria a largo plazo: Recordará contenido de conversación de mayor extensión.
- Atributos del usuario: Preestablecerá los atributos del usuario en la memoria, permitiendo que el agente disponga de información personalizada del usuario como conocimiento y, de este modo, ofrezca un mejor servicio personalizado.
Si la capacidad de memoria está desactivada, la conversación con el agente no tendrá comprensión contextual y cada ronda de conversación será independiente.
Bienvenida y guía

Aquí se pueden configurar el mensaje de bienvenida y la información de guía de usuario para el agente.
- Saludo: Cuando un usuario visita el agente, el agente saludará automáticamente al usuario con este mensaje de bienvenida.
- Preguntas sugeridas: Después de que el agente finalice su respuesta, el agente proporcionará automáticamente al usuario 3 preguntas que pueden utilizarse para continuar la conversación, orientando al usuario para que siga interactuando con el agente.
Entrada

- Número máximo de imágenes: El número máximo de imágenes que se pueden introducir al conversar con el agente.
- Calidad de carga de imágenes: La calidad de las imágenes que se envían al agente. Cuanto mayor sea la calidad, mejor será la calidad de respuesta del MLLM.
- Entrada de voz: Si se permite o no la entrada de voz para el agente. Esta función convierte la entrada de voz del usuario en texto y la envía al agente.
Salida

- Salida de voz: Si se permite o no que el contenido de salida del agente se convierta en voz.
- Voz: La voz del contenido de salida del agente.
- Calidad de la voz: La calidad de sonido del contenido de salida del agente.
- Idioma de salida del texto: Definir el idioma de salida del agente.
Depuración

Aquí se puede conversar con el agente y comprobar en tiempo real el efecto de los ajustes de parámetros.
Al mismo tiempo, también se puede utilizar aquí el contenido de la conversación para entrenar al agente.
