KI-Kundensupport-Agent mit Wissensdatenbank und API-Anreicherung

Dieser KI-gestützte Workflow automatisiert den Kundensupport durch die Kombination aus interner Wissensdatenbank-Suche, Google Docs-Wissensabruf, API-Integration und fortschrittlichem Sprachmodell-Reasoning. Der Agent antwortet auf Slowakisch oder in der Sprache des Kunden, liefert stets aktuelle Informationen und kann bei Bedarf an den menschlichen Support eskalieren. Ideal für Unternehmen, die mehrsprachigen, automatisierten und kontextsensitiven Kundenservice suchen.

So funktioniert der KI-Flow - KI-Kundensupport-Agent mit Wissensdatenbank und API-Anreicherung

Flows

So funktioniert der KI-Flow

Kundenanfrage empfangen.
Der Flow erfasst Kundenanfragen aus dem Chat-Input und ruft den aktuellen Chatverlauf zur Kontextgewinnung ab.
Wissen aus internen und externen Quellen sammeln.
Der Workflow durchsucht sowohl interne Dokumentenablagen als auch verbundene Google Docs nach relevanten Wissensdatenbank-Informationen mithilfe von Dokumenten-Retrievern.
Daten via API anreichern und analysieren.
Kundennachrichten-IDs werden genutzt, um externe APIs aufzurufen, Nachrichtenverläufe abzurufen und notwendige Informationen zur Kontextanreicherung zu parsen.
KI-Agent antwortet und mehrsprachige Generierung.
Ein fortschrittlicher KI-Agent nutzt den gesammelten Kontext, Wissensquellen und Sprachmodelle, um Antworten auf Slowakisch oder in der Sprache des Kunden zu erzeugen – stets professionell, prägnant und korrekt.
Dem Kunden antworten und ggf. eskalieren.
Der Agent übermittelt die Antwort an den Kunden, einschließlich relevanter Links und Informationen, und eskaliert an den menschlichen Support, falls die Anfrage nicht automatisch gelöst werden kann.

In diesem Flow verwendete Prompts

Nachfolgend finden Sie eine vollständige Liste aller in diesem Flow verwendeten Prompts, um dessen Funktionalität zu gewährleisten. Prompts sind die Anweisungen, die dem KI-Modell gegeben werden, um Antworten zu generieren oder Aktionen auszuführen. Sie leiten die KI dabei, die Absicht des Benutzers zu verstehen und relevante Ausgaben zu generieren.

Prompt (PromptTemplate-4mVjl)

Erstellen Sie eine Prompt-Vorlage mit dynamischen Variablen ({input}, {human_input}, {context}, {chat_history}, {system_message}, {all_input_variables}).

                ---CHATVERLAUF---
{chat_history}
---

---KUNDENANFRAGE---
{context}
---

---LLM-ANTWORT---
{input}
---

Die endgültige Ausgabe für den Agenten sollte Folgendes enthalten:

        die originale KUNDENANFRAGE

        die slowakische Übersetzung der KUNDENANFRAGE


       LLM-ANTWORT auf Slowakisch

       LLM-ANTWORT in der Sprache des Kunden (zum Versenden)

            

Tool Calling Agent (ToolCallingAgent-K7dur)

Ein Tool-Calling-Agent.

                Sie sind ein KI-Sprachmodell-Assistent und agieren als freundlicher und professioneller Kundensupport- und Einkaufsassistent für YOURCOMPANY. Sie antworten standardmäßig auf Slowakisch oder in der Input-Sprache des Kunden, falls diese von Slowakisch abweicht. UND BENUTZEN SIE IMMER DEN EMAIL-TON UND DAS EMAIL-FORMAT.

<u>Ihre Rolle:</u>

Sie vereinen die Aufgaben des technischen Kundensupports und des Produkt-Empfehlungsassistenten. Sie helfen Kunden, Probleme zu lösen, Entscheidungen zu treffen und Käufe rund um die Produkte und Dienstleistungen von YOURCOMPANY abzuschließen. Ihr Ton ist stets freundlich und professionell, und Ihr Ziel ist es, dass der Kunde sich verstanden, unterstützt und sicher im nächsten Schritt fühlt.

<u>Ihr Ziel:</u>

Sie erhalten den KONVERSATIONSVERLAUF und die aktuellste Nutzeranfrage als NEUESTE NACHRICHT. Ihr Ziel ist es, die NEUESTE NACHRICHT anhand der Ihnen zur Verfügung stehenden Tools zu beantworten.&#x20;

<u>Intent erkennen und Antworten geben:</u>

Erste Quelle: DURCHSUCHEN SIE IMMER DAS knowledge_source_tool, UM DIE FRAGE DES NUTZERS ZU BEANTWORTEN, UND ANTWORTEN SIE NIEMALS AUS EIGENEM WISSEN.

Zweite Quelle: Nutzen Sie immer das Dokumenten-Retriever-Tool, um Kontext zur Frage zu finden.

Wenn relevanter Kontext gefunden wurde:

Nutzen Sie diesen für genaue und prägnante Antworten.

Fügen Sie NUR RELEVANTE URLs aus dem Document Retriever hinzu, bearbeiten Sie die URL niemals.

Erfinden Sie niemals Produkt- und Kategorienamen. Sie erkennen eine Kategorie daran, dass die Seite eine Liste verschiedener Produkte enthalten MUSS; verwenden Sie nur die in Ihrer Wissensdatenbank verfügbaren.

Folgen Sie den Informationen exakt wie in der Referenz angegeben.

Wird kein relevanter Kontext gefunden und die Frage betrifft YOURCOMPANY:

Stellen Sie höfliche Rückfragen, um weitere Details zu erfahren.

Falls weiterhin ungeklärt, nutzen Sie das Contact Human Assist Tool, um an einen menschlichen Support-Agenten zu übergeben.

Ist die Nachricht des Kunden unklar oder unvollständig:

Niemals raten – fordern Sie immer weitere Informationen an, bevor Sie antworten.

Zeigt der Kunde Interesse an einem bestimmten Produkt:

Weisen Sie darauf hin, dass Preis- und Bestellvorgänge direkt auf der Webseite schnell und einfach möglich sind.

Das Produkt kann konfiguriert werden (Maße, Extras, Menge…) und Preis sowie Produktionszeit werden sofort angezeigt.

Bei Fragen zur Produktionszeit immer Express-Optionen nennen, falls verfügbar.

Bei Anfragen, die nicht YOURCOMPANY betreffen:

Teilen Sie dem Kunden höflich mit, dass Sie nur Support für YOURCOMPANY leisten.

Empfehlen Sie, das zuständige Business-Support-Team unter KONTAKTMETHODE zu kontaktieren.

<u>Ressourcennutzung:</u>

Nutzen Sie den Document Retriever zur Suche nach relevantem Wissen zur Kundenfrage.

Nutzen Sie das Contact Human Assist Tool zur Eskalation, falls nötig.

Nutzen Sie den Document Retriever, um gültige Produkt- oder Informationslinks bereitzustellen – ERFINDEN ODER VERMUTEN SIE NIEMALS URLs

<u>Formatierung:</u>

Ihr Ton ist immer freundlich, klar und professionell.

Die Antworten sollten KURZ sein – max. ca. 100–200 Tokens.

Nutzen Sie strukturierte Formatierung:

Kurze Absätze

Fettschrift zur Hervorhebung

Aufzählungszeichen wo sinnvoll

Emojis, um die Nachricht ansprechender zu gestalten 😊

Schreiben Sie im Plain-Text-Format. Kein Markdown verwenden.

            

In diesem Flow verwendete Komponenten

Nachfolgend finden Sie eine vollständige Liste aller Komponenten, die in diesem Flow verwendet werden, um seine Funktionalität zu gewährleisten. Komponenten sind die Bausteine jedes KI-Flows. Sie ermöglichen es Ihnen, komplexe Interaktionen zu erstellen und Aufgaben zu automatisieren, indem verschiedene Funktionalitäten verbunden werden. Jede Komponente dient einem bestimmten Zweck, wie z.B. der Verarbeitung von Benutzereingaben, der Datenverarbeitung oder der Integration mit externen Diensten.

ChatInput

Die Chat Input-Komponente in FlowHunt initiiert Benutzerinteraktionen, indem sie Nachrichten aus dem Playground erfasst. Sie dient als Startpunkt für Flows und ermöglicht die Verarbeitung von Text- und dateibasierten Eingaben im Workflow.

Prompt-Komponente in FlowHunt

Erfahren Sie, wie die Prompt-Komponente von FlowHunt es ermöglicht, die Rolle und das Verhalten Ihres KI-Bots zu definieren und so relevante, personalisierte Antworten sicherstellt. Passen Sie Prompts und Vorlagen an, um effektive, kontextbewusste Chatbot-Flows zu erstellen.

Daten erstellen

Die Komponente 'Daten erstellen' ermöglicht das dynamische Generieren strukturierter Datensätze mit einer anpassbaren Anzahl an Feldern. Ideal für Workflows, die das Erstellen neuer Datenobjekte in Echtzeit erfordern – mit flexibler Feldkonfiguration und nahtloser Integration in weitere Automatisierungsschritte.

API-Anfrage

Integrieren Sie externe Daten und Dienste in Ihren Workflow mit der API-Anfrage-Komponente. Senden Sie mühelos HTTP-Anfragen, setzen Sie benutzerdefinierte Header, Body und Query-Parameter und nutzen Sie verschiedene Methoden wie GET und POST. Unverzichtbar, um Ihre Automatisierungen mit jeder Web-API oder jedem Dienst zu verbinden.

Daten parsen

Die Komponente 'Daten parsen' wandelt strukturierte Daten mithilfe anpassbarer Vorlagen in Klartext um. Sie ermöglicht eine flexible Formatierung und Konvertierung von Dateneingaben für die weitere Verwendung im Workflow und hilft, Informationen zu standardisieren oder für nachgelagerte Komponenten vorzubereiten.

Generator

Entdecken Sie die Komponente Generator in FlowHunt – leistungsstarke, KI-gesteuerte Textgenerierung mit Ihrem gewählten LLM-Modell. Erstellen Sie mühelos dynamische Chatbot-Antworten, indem Sie Prompts, optionale Systemanweisungen und sogar Bilder als Eingabe kombinieren. So wird es zu einem zentralen Werkzeug für den Aufbau intelligenter, konversationeller Workflows.

LLM OpenAI

FlowHunt unterstützt Dutzende von Textgenerierungsmodellen, darunter Modelle von OpenAI. So verwenden Sie ChatGPT in Ihren AI-Tools und Chatbots.

Chatverlauf-Komponente

Die Chatverlauf-Komponente in FlowHunt ermöglicht es Chatbots, sich an vorherige Nachrichten zu erinnern. So werden zusammenhängende Gespräche und ein verbessertes Kundenerlebnis gewährleistet, während Speicher und Token-Nutzung optimiert werden.

Tool Calling Agent

Entdecken Sie den Tool Calling Agent in FlowHunt – eine fortschrittliche Workflow-Komponente, die es KI-Agenten ermöglicht, externe Tools intelligent auszuwählen und zu nutzen, um komplexe Anfragen zu beantworten. Perfekt für den Aufbau intelligenter KI-Lösungen, die dynamische Tool-Nutzung, iteratives Denken und die Integration mehrerer Ressourcen erfordern.

Dokumenten-Retriever

FlowHunts Dokumenten-Retriever verbessert die Genauigkeit von KI, indem generative Modelle mit Ihren eigenen aktuellen Dokumenten und URLs verbunden werden. So erhalten Sie zuverlässige und relevante Antworten durch Retrieval-Augmented Generation (RAG).

Google Docs Retriever

Integrieren Sie Ihre Workflows mit Google Docs mithilfe der Google Docs Retriever-Komponente – holen Sie nahtlos Dokumenteninhalte zur Nutzung in Automatisierungen, Chatbots oder Wissens-Workflows ab. Ideal, um auf Ihre Google Docs in FlowHunt-Flows zuzugreifen, sie zu verarbeiten und zu nutzen.

Chat-Ausgabe

Entdecken Sie die Chat-Ausgabe-Komponente in FlowHunt – finalisieren Sie Chatbot-Antworten mit flexiblen, mehrteiligen Ausgaben. Unverzichtbar für nahtlose Flow-Abschlüsse und die Erstellung fortschrittlicher, interaktiver KI-Chatbots.

Flow-Beschreibung

Zweck und Vorteile

Übersicht

Dieser Workflow automatisiert das Abrufen von Kundennachrichten aus einem Ticket- oder Supportsystem, extrahiert die neueste relevante Nachricht, reichert sie mit Kontext und Chatverlauf an und nutzt anschließend fortschrittliche KI (LLMs) in Kombination mit Knowledge-Tools, um professionelle, mehrsprachige Kundensupport-Antworten zu generieren. Die Antworten werden vorbereitet und zurück an externe Systeme gesendet – ideal zur Skalierung und Automatisierung von Kundensupport, Wissensabruf und externer API-Integration.


Schritt-für-Schritt-Erklärung

1. Eingabeerfassung und Vorbereitung

  • Chat-Eingabe: Der Workflow kann eingehende Chat-Nachrichten direkt empfangen.
  • Prompt-Erstellung für API: Das System nutzt eine Prompt-Vorlage, um die URL zum Abrufen der Ticket-Nachrichten von einer externen API dynamisch zu erstellen (z. B. https://arshiakahani.ladesk.com/api/v3/tickets/{input}/messages). Das ermöglicht eine flexible Abfrage basierend auf eingehenden Nutzerdaten.
  • Query-Parameter-Erstellung: Ein Daten-Erstellungs-Node baut die nötigen Abfrageparameter für den API-Request dynamisch zusammen.

2. Externe Datenbeschaffung

  • API-Anfrage: Mit der erstellten URL und den Query-Parametern wird eine GET-Anfrage gesendet, um den Nachrichtenverlauf des Tickets aus einem externen Ticket-System abzurufen. Die Authentifizierung per API-Key wird über Header unterstützt.
  • Parsen der abgerufenen Daten: Nach Rückgabe durch die API strukturiert ein Parser-Node die Daten und wandelt sie per Template in Klartext um – so eignen sie sich für die weitere KI-Verarbeitung.

3. Nachrichtenextraktion und -vorverarbeitung

  • LLM-basierte Extraktion: Ein OpenAI-LLM (z. B. GPT-4.1) extrahiert mit einem System-Prompt ausschließlich die neueste Benutzernachricht aus den Ticketdaten (speziell vom Typ “M”), sodass nur relevante Inhalte weiterverarbeitet werden.
  • Prompt-Anreicherung: Die extrahierte Nachricht und Chat-Kontext werden in eine ausgefeilte Prompt-Vorlage eingefügt, die Konversationsverlauf und Segmentierung der neuesten Nachricht beinhaltet – als Vorbereitung für den Hauptsupport-Agenten.

4. Wissensanreicherung

  • Chatverlauf: Das System kann die letzten N Nachrichten im Gespräch abrufen, um Kontinuität und mehr Kontext zu bieten.
  • Dokumentenabruf: Ein Dokumenten-Retriever sucht in internen/externen Wissensdatenbanken (optional inkl. Google Docs) nach relevanten Infos zur Beantwortung der Kundenanfrage. Das ist essenziell, um Antworten fundiert und aktuell zu gestalten.
  • Tool-Integration: Sowohl der Dokumenten- als auch der Google-Docs-Retriever sind als “Tools” beim Agenten gelistet und ermöglichen dynamisches Nachschlagen während der Antwortgenerierung.

5. Agentenbasierte Antwortgenerierung

  • Tool-Calling-Agent: Im Zentrum steht ein Tool-Calling-Agent (LLM-basiert), der das angereicherte Prompt, den Chatverlauf und Zugriff auf die Knowledgetools erhält. Seine Aufgabe: Nutzerintention erkennen, Wissensbasis/Tools durchforsten und eine prägnante, freundliche und professionelle Antwort verfassen.
    • Der Agent antwortet standardmäßig auf Slowakisch oder wechselt zur Sprache des Kunden, falls erkannt.
    • Strukturierte Formatierung: kurze Absätze, Fettung für Hervorhebungen, Aufzählungen, Emojis für Engagement.
    • Der Agent nutzt bevorzugt gefundenes Wissen, erfindet keine Fakten oder URLs, fragt bei Bedarf nach und eskaliert ungeklärte Fälle an den Menschen.
    • Alle Antworten folgen dem Support-Ton und der Struktur, passend für E-Mail-Kommunikation.

6. Nachbearbeitung und Ausgabe

  • Antwortformatierung: Die Agentenantwort wird über Prompt-Templates weiterverarbeitet, um mehrsprachige Ausgaben zu erzeugen (z. B. Slowakisch und Originalsprache des Kunden).
  • LLM-Generierung: Ein weiteres LLM-Node kann Teile der Ausgabe bei Bedarf generieren oder übersetzen.
  • API-Integration für ausgehende Nachrichten: Der Workflow baut Datenobjekte für ausgehende API-Requests dynamisch zusammen, verpackt die generierte Antwort und sendet sie (i. d. R. via POST) an das externe System.
  • Parsen und finale Ausgabe: Antworten von ausgehenden APIs können geparst und im Chat-Playground angezeigt oder an die Nutzeroberfläche zurückgegeben werden.

Zentrale Komponenten & deren Zweck

KomponenteZweck
Chat-EingabeEmpfängt Nachrichten von Nutzern/Kunden
Prompt-VorlageBaut URLs und Nachrichtenprompts dynamisch
API-AnfrageHolt Ticketdaten/-nachrichten aus externem System
Daten ParsenWandelt strukturierte Daten in Klartext um
OpenAI LLMExtrahiert relevante Nachrichten, generiert/übersetzt Antworten
Dokumenten-RetrieverSucht relevante Infos in der Wissensdatenbank
Google Docs RetrieverIntegriert externe Docs als Wissen für den Agenten
Tool-Calling-AgentZentrale KI-Supporteinheit – nutzt Tools und Chatverlauf
Daten erstellenVerpackt Antworten und Daten für ausgehende API-Requests
Chat-AusgabeZeigt das Endergebnis dem Nutzer oder System an
HinweiseOperator-Hinweise (z. B. wo API-Keys/URLs einzutragen sind)

Anwendungsfälle & Vorteile

  • Automatisierter Kundensupport: Optimiert das Extrahieren, Anreichern und Beantworten von Kundenanfragen – professionell, korrekt und kontextbasiert.
  • Mehrsprachiger Support: Erkennt und beantwortet Anfragen automatisch in der Kundensprache, die Übersetzung und Formatierung übernimmt der Workflow.
  • Skalierbares Wissensmanagement: Integriert verschiedene Wissensquellen (interne Dokumente, Google Docs usw.) für umfassende und aktuelle Antworten.
  • Nahtlose Integration externer Systeme: Bindet APIs für eingehende (Nachrichten abrufen) und ausgehende (Antworten senden) Aktionen einfach an.
  • Human-in-the-Loop-Eskalation: Übergibt ungeklärte oder unklare Fälle automatisch an menschliche Agenten und stellt so hochwertigen Support sicher.

Warum dieser Workflow für Skalierung & Automatisierung nützlich ist

  • Reduziert manuellen Aufwand: Die Automatisierung von Datenabruf, Nachrichtenauslese, Kontextaufbau und Antwortgenerierung minimiert den menschlichen Aufwand bei Routineanfragen.
  • Konsistenz & Qualität: Alle Kundenkommunikationen halten stets Ton, Format und Informationsqualität des Unternehmens ein – unabhängig vom Agenten oder der Schicht.
  • Schnelle Anpassung: Lässt sich einfach an neue Datenquellen, APIs oder Sprachen anbinden und kann ohne großen Aufwand mehr Supportvolumen bewältigen.
  • Verbesserte Kundenzufriedenheit: Schnelle, relevante und freundliche Antworten – zugeschnitten auf Sprache und Anliegen des Kunden – sorgen für bessere Erfahrungen und höhere Loyalität.

Visual Flow (Vereinfacht)

Im Folgenden eine vereinfachte Flowchart-Darstellung der Hauptschritte:

  1. Chat-Eingabe / API-Abfrage
  2. Ticket-Nachrichten abrufen (API-Anfrage)
  3. Daten parsen
  4. Neueste Benutzernachricht extrahieren (LLM)
  5. Prompt anreichern mit Kontext & Verlauf
  6. Wissen abrufen (Dokumenten-/Google-Docs-Retriever)
  7. Tool-Calling-Agent (LLM) generiert Antwort
  8. Antwort formatieren/übersetzen/senden (API-Anfrage)
  9. Ausgabe anzeigen/ausliefern

Dieser Workflow bildet eine robuste Grundlage für jede Organisation, die Kundensupport, technische Hilfe oder Informationsbereitstellung automatisieren und skalieren möchte – inklusive Integration externer APIs, Wissensdatenbanken und fortschrittlicher KI-Antworten.

Lassen Sie uns Ihr eigenes KI-Team aufbauen

Wir helfen Unternehmen wie Ihrem, intelligente Chatbots, MCP-Server, KI-Tools oder andere Arten von KI-Automatisierungen zu entwickeln, um Menschen bei sich wiederholenden Aufgaben in Ihrer Organisation zu ersetzen.

Mehr erfahren

KI-Chatbot mit LiveChat.com-Integration
KI-Chatbot mit LiveChat.com-Integration

KI-Chatbot mit LiveChat.com-Integration

Setzen Sie einen KI-gestützten Chatbot auf Ihrer Website ein, der Ihre interne Wissensdatenbank nutzt, um Kundenanfragen zu beantworten, und leitet komplexe ode...

3 Min. Lesezeit
KI-Kundenservice-Chatbot mit Übergabe an Menschen
KI-Kundenservice-Chatbot mit Übergabe an Menschen

KI-Kundenservice-Chatbot mit Übergabe an Menschen

Ein KI-gestützter Kundenservice-Chatbot, der Benutzer automatisch unterstützt, Informationen aus internen Dokumenten und dem Web abruft und bei Bedarf nahtlos a...

3 Min. Lesezeit
KI-Chatbot mit FreshChat- & Wissensdatenbank-Support
KI-Chatbot mit FreshChat- & Wissensdatenbank-Support

KI-Chatbot mit FreshChat- & Wissensdatenbank-Support

Setzen Sie einen intelligenten KI-Chatbot ein, der sich nahtlos mit FreshChat integriert. Der Chatbot beantwortet Benutzeranfragen mithilfe Ihrer internen Wisse...

3 Min. Lesezeit