Componentbeschrijving
Hoe de LLM DeepSeek-component werkt
Wat is de LLM DeepSeek-component?
De LLM DeepSeek-component verbindt de DeepSeek-modellen met je Flow. Terwijl de Generators en Agents zorgen voor de daadwerkelijke magie, kun je met LLM-componenten het gebruikte model wisselen en beheren.

Onthoud dat het koppelen van een LLM-component optioneel is. Alle componenten die een LLM gebruiken, worden standaard geleverd met ChatGPT-4o. Met de LLM-componenten kun je het model wijzigen en modelinstellingen beheren.
LLM Gemini-componentinstellingen
Max Tokens
Tokens zijn de individuele eenheden tekst die het model verwerkt en genereert. Tokengebruik verschilt per model, en een enkele token kan variëren van woorden of subwoorden tot een enkel teken. Modellen worden meestal geprijsd per miljoenen tokens.
Met de instelling voor het maximale aantal tokens beperk je het totale aantal tokens dat in één interactie of verzoek kan worden verwerkt, zodat de antwoorden binnen redelijke grenzen blijven. De standaardlimiet is 4.000 tokens, een optimaal formaat voor het samenvatten van documenten en meerdere bronnen om een antwoord te genereren.
Temperature
Temperature bepaalt de variabiliteit van antwoorden, en loopt van 0 tot 1.
Een temperatuur van 0,1 zorgt ervoor dat de antwoorden zeer to-the-point zijn, maar mogelijk herhalend en tekortschietend.
Een hoge temperatuur van 1 laat maximale creativiteit toe in antwoorden, maar vergroot het risico op irrelevante of zelfs hallucinatoire antwoorden.
Voor bijvoorbeeld een klantenservicebot wordt een temperatuur van tussen 0,2 en 0,5 aanbevolen. Dit niveau houdt antwoorden relevant en volgens het script, maar laat toch natuurlijke variatie in de reacties toe.
Model
Dit is de modelkiezer. Hier vind je alle ondersteunde DeepSeek-modellen. We ondersteunen alle nieuwste Gemini-modellen:
- DeepSeek R1: Het Chinese lichtgewicht open source-model dat begin 2025 de wereld veroverde. Het is momenteel het snelste en beste DeepSeek-model dat moeiteloos het o1-model van OpenAI overtreft.
Hoe voeg je de LLM DeepSeek toe aan je Flow
Je zult merken dat alle LLM-componenten alleen een output-handle hebben. Input gaat niet door de component heen, omdat deze alleen het model vertegenwoordigt, terwijl de daadwerkelijke generatie plaatsvindt in AI Agents en Generators.
De LLM-handle is altijd paars. De LLM-invoerhandle vind je op elke component die AI gebruikt om tekst te genereren of data te verwerken. Je ziet de opties door op de handle te klikken:

Dit stelt je in staat allerlei tools te maken. Laten we de component in actie zien. Hier is een eenvoudige AI Agent-chatbot Flow die DeepSeek R1 gebruikt om antwoorden te genereren. Je kunt het zien als een basis DeepSeek-chatbot.
Deze eenvoudige Chatbot Flow bevat:
- Chat input: Vertegenwoordigt het bericht dat een gebruiker in de chat verstuurt.
- Chat history: Zorgt ervoor dat de chatbot eerdere antwoorden kan onthouden en meenemen.
- Chat output: Vertegenwoordigt het uiteindelijke antwoord van de chatbot.
- AI Agent: Een autonome AI-agent die antwoorden genereert.
- LLM DeepSeek: De verbinding met DeepSeek-generatiemodellen.

Veelgestelde vragen
- Wat is LLM DeepSeek in FlowHunt?
LLM DeepSeek is een component in FlowHunt waarmee je DeepSeek AI-modellen voor tekst- en beeldgeneratie kunt verbinden en aansturen, wat krachtige chatbots en geautomatiseerde flows mogelijk maakt.
- Welke DeepSeek-modellen worden ondersteund?
FlowHunt ondersteunt alle nieuwste DeepSeek-modellen, waaronder DeepSeek R1, bekend om zijn snelheid en prestaties, vooral in vergelijking met andere toonaangevende AI-modellen.
- Hoe kan ik LLM DeepSeek-instellingen aanpassen?
Je kunt het maximum aantal tokens voor de responslengte en de temperatuur voor de creativiteit van antwoorden aanpassen, evenals schakelen tussen beschikbare DeepSeek-modellen direct in je FlowHunt-dashboard.
- Is het verplicht een LLM DeepSeek-component te koppelen?
Nee, het koppelen van een LLM-component is optioneel. Standaard gebruikt FlowHunt ChatGPT-4o, maar door LLM DeepSeek toe te voegen kun je wisselen en bepalen welk AI-model je flows aanstuurt.
Probeer FlowHunt met DeepSeek
Begin met het bouwen van slimmere AI-chatbots en automatiseringstools met geavanceerde DeepSeek-modellen—zonder complexe installatie of meerdere abonnementen.