Descripción del flujo
Propósito y beneficios
Descripción General
Este flujo de trabajo automatiza el proceso de recuperación de mensajes de clientes desde un sistema de tickets o soporte, extrae el mensaje más relevante y reciente, lo enriquece con contexto e historial de chat y luego utiliza IA avanzada (LLMs) combinada con herramientas de conocimiento para generar respuestas profesionales y multilingües de soporte al cliente. El proceso luego prepara y envía estas respuestas de vuelta a sistemas externos, lo que lo hace ideal para escalar y automatizar el soporte al cliente, la recuperación de conocimiento y la integración con APIs externas.
Desglose Paso a Paso
1. Adquisición y Preparación de la Entrada
- Entrada de Chat: El flujo de trabajo puede recibir mensajes entrantes directamente desde el chat.
- Creación de Prompt para API: El sistema utiliza una plantilla de prompt para construir dinámicamente la URL de recuperación de mensajes de tickets desde una API externa (por ejemplo,
https://arshiakahani.ladesk.com/api/v3/tickets/{input}/messages
). Esto permite una recuperación flexible basada en los datos del usuario entrante. - Construcción de Parámetros de Consulta: Un nodo de creación de datos se utiliza para construir dinámicamente los parámetros necesarios para la solicitud a la API.
2. Recuperación de Datos Externos
- Solicitud API: Usando la URL y los parámetros de consulta construidos, el flujo envía una solicitud GET para recuperar el historial de mensajes del ticket desde un sistema externo de tickets. Se admite la autenticación por clave API mediante cabeceras.
- Análisis de los Datos Obtenidos: Una vez que la API devuelve los datos, un nodo parser estructura y convierte esos datos a texto plano usando plantillas, haciéndolos adecuados para el procesamiento posterior por IA.
- Extracción basada en LLM: Se usa un modelo LLM de OpenAI (por ejemplo, GPT-4.1) con un prompt de sistema para extraer solo el mensaje más reciente del usuario desde los datos del ticket (específicamente mensajes de tipo “M”), asegurando que solo el contenido relevante sea procesado.
- Enriquecimiento del Prompt: El mensaje extraído y el contexto del chat se insertan en una plantilla de prompt sofisticada que incluye el historial de conversación y la segmentación del último mensaje, preparando la entrada para el agente principal de soporte.
4. Aumento del Conocimiento
- Historial de Chat: El sistema puede consultar los últimos N mensajes de la conversación para proporcionar continuidad y un contexto más rico.
- Recuperación de Documentos: Una herramienta de recuperación de documentos busca en las bases de conocimiento internas/externas (opcionalmente incluyendo Google Docs) información relevante para responder la consulta del cliente. Esto es esencial para fundamentar las respuestas en información actualizada y precisa.
- Integración de Herramientas: Tanto el recuperador de documentos como el recuperador de Google Docs están registrados como “herramientas” disponibles para el agente, permitiendo búsquedas dinámicas durante la generación de respuestas.
5. Generación de Respuestas Dirigida por el Agente
- Agente de Llamada de Herramientas: En el núcleo se encuentra un Agente de Llamada de Herramientas (impulsado por LLM), que recibe el prompt enriquecido, el historial de chat y acceso a las herramientas de conocimiento. Su función es determinar la intención del usuario, buscar respuestas en la base de conocimiento/herramientas y componer una respuesta concisa, amable y profesional.
- El agente responde siempre en eslovaco por defecto o cambia al idioma del cliente si lo detecta.
- Se aplica un formato estructurado: párrafos breves, negrita para énfasis, viñetas y emojis para mayor atractivo.
- El agente prioriza el uso del conocimiento recuperado, nunca inventa hechos o URLs, pide aclaraciones si es necesario y escala los casos no resueltos a agentes humanos.
- Todas las respuestas mantienen tono y estructura de soporte al cliente, adecuado para comunicación por correo electrónico.
6. Post-procesamiento y Salida
- Formateo de Respuestas: La respuesta del agente se procesa adicionalmente a través de plantillas de prompt para construir una salida multilingüe (por ejemplo, incluyendo tanto eslovaco como el idioma original del cliente).
- Generación LLM: Otro nodo LLM puede generar o traducir partes de la salida según sea necesario.
- Integración API para Mensajes Salientes: El flujo de trabajo construye dinámicamente objetos de datos para solicitudes API salientes, empaqueta la respuesta generada y la envía (típicamente vía POST) al sistema externo relevante.
- Análisis y Salida Final: Las respuestas de las APIs salientes pueden analizarse y mostrarse en el playground de chat o enviarse de vuelta a la interfaz del usuario.
Componentes Clave y su Propósito
Componente | Propósito |
---|
Entrada de Chat | Recibe mensajes del usuario/cliente |
Plantilla de Prompt | Construye dinámicamente URLs y prompts de mensajes |
Solicitud API | Recupera datos/mensajes de tickets de sistemas externos |
Analizar Datos | Convierte datos estructurados a texto plano |
OpenAI LLM | Extrae mensajes relevantes, genera o traduce respuestas |
Recuperador de Documentos | Busca información relevante en la base de conocimiento |
Recuperador de Google Docs | Integra documentos externos como conocimiento para el agente |
Agente de Llamada de Herramientas | Agente central de soporte de IA: usa herramientas e historial de chat |
Crear Datos | Empaqueta respuestas y datos para solicitudes API salientes |
Salida de Chat | Muestra el resultado final al usuario final o sistema |
Notas | Proporciona guía al operador (por ejemplo, dónde ingresar claves API/URLs) |
Casos de Uso y Beneficios
- Soporte al Cliente Automatizado: Optimiza el proceso de extracción, aumento y respuesta a consultas de clientes con respuestas profesionales, precisas y sensibles al contexto.
- Soporte Multilingüe: Detecta y responde automáticamente en el idioma del cliente, con traducción y formato gestionados por el flujo de trabajo.
- Gestión de Conocimiento Escalable: Integra múltiples fuentes de conocimiento (documentos internos, Google Docs, etc.) para respuestas completas y actualizadas.
- Integración Fluida con Sistemas Externos: Se conecta fácilmente a diversas APIs para acciones tanto entrantes (recuperación de mensajes) como salientes (envío de respuestas).
- Escalamiento a Humanos en el Bucle: Transfiere automáticamente los casos no resueltos o poco claros a agentes humanos, garantizando soporte de alta calidad.
Por qué este Flujo es Útil para Escalar y Automatizar
- Reduce el Trabajo Manual: Al automatizar la recuperación de datos, extracción de mensajes, construcción de contexto y generación de respuestas, minimiza la intervención humana en consultas rutinarias.
- Consistencia y Calidad: Garantiza que todas las comunicaciones con clientes respeten el tono, formato y precisión de la información de la empresa, independientemente del agente o turno.
- Adaptación Rápida: Se conecta fácilmente a nuevas fuentes de datos o APIs, se adapta a nuevos idiomas y puede escalar para manejar mayores volúmenes de soporte con poca configuración adicional.
- Mejora la Satisfacción del Cliente: Respuestas rápidas, relevantes y amables, adaptadas al idioma y consulta de cada cliente, generan mejores experiencias y lealtad.
Flujo Visual (Simplificado)
A continuación, se muestra un diagrama de flujo simplificado de los pasos principales:
- Entrada de Chat / Consulta API →
- Recuperar Mensajes del Ticket (Solicitud API) →
- Analizar Datos →
- Extraer Último Mensaje de Usuario (LLM) →
- Enriquecer Prompt con Contexto e Historial →
- Recuperar Conocimiento (Recuperador de Documentos/Google Docs) →
- El Agente de Llamada de Herramientas (LLM) Genera Respuesta →
- Formatear/Traducir/Enviar Respuesta (Solicitud API) →
- Mostrar/Entregar Salida
Este flujo de trabajo es una base robusta para cualquier organización que busque automatizar y escalar el soporte al cliente, asistencia técnica o flujos de entrega de información que requieran integración con APIs externas, bases de conocimiento y respuestas avanzadas de IA.