any-chat-completions-mcp MCP-server
Maak eenvoudig verbinding met elke OpenAI-compatibele chat-API via één MCP-server en stroomlijn multi-provider LLM-workflows in FlowHunt en daarbuiten.

Wat doet de “any-chat-completions-mcp” MCP-server?
De any-chat-completions-mcp MCP-server fungeert als brug tussen AI-assistenten en elke OpenAI SDK-compatibele Chat Completion API, zoals OpenAI, Perplexity, Groq, xAI en PyroPrompts. Door te voldoen aan het Model Context Protocol (MCP) maakt het naadloze integratie van externe LLM-aanbieders in ontwikkelworkflows mogelijk. De primaire functie is het doorsturen van chatgebaseerde vragen naar een geconfigureerde AI-chatprovider, zodat ontwikkelaars verschillende LLM’s als hulpmiddelen in hun favoriete omgevingen kunnen gebruiken. Dit maakt taken zoals wisselen tussen providers of het opschalen van LLM-gebruik eenvoudig, wat flexibiliteit en efficiëntie bevordert in AI-aangedreven applicaties.
Lijst van Prompts
Er worden geen prompt-sjablonen genoemd in de repository of documentatie.
Lijst van Resources
Er zijn geen expliciete MCP-resources gedocumenteerd in de repository of README.
Lijst van Hulpmiddelen
- chat: Stuurt een vraag door naar een geconfigureerde AI-chatprovider. Dit is het hoofd- (en enige) hulpmiddel dat door de server wordt aangeboden, waarmee LLM’s of clients chatgebaseerde vragen kunnen sturen naar elk OpenAI-compatibel API-eindpunt.
Gebruikssituaties van deze MCP-server
- Geïntegreerde LLM-integratie: Ontwikkelaars kunnen via één MCP-server toegang krijgen tot meerdere LLM-aanbieders zonder hun clientcode te wijzigen, wat het beheer van providers vereenvoudigt.
- Provider Switching: Wissel eenvoudig tussen OpenAI, PyroPrompts, Perplexity en anderen door omgevingsvariabelen aan te passen, handig voor kostenoptimalisatie of fallback-strategieën.
- Aangepaste desktop AI-agenten: Integreer geavanceerde chatgebaseerde LLM’s in desktopapplicaties (zoals Claude Desktop) om uitgebreide assistentfuncties mogelijk te maken.
- Experimentatie en benchmarking: Vergelijk snel de uitkomsten van verschillende LLM’s op een gestandaardiseerde manier voor research, QA of productontwikkeling.
- API Gateway voor LLM’s: Fungeert als een lichtgewicht gateway voor het veilig routeren van chatberichten naar verschillende LLM-API’s en centraliseert het beheer van API-sleutels en eindpunten.
Hoe stel je het in
Windsurf
Er zijn geen platformspecifieke instructies voor Windsurf in de repository of documentatie.
Claude
- Vereiste: Zorg dat Node.js en
npx
geïnstalleerd zijn. - Vind Configuratiebestand: Bewerk
claude_desktop_config.json
(op MacOS:~/Library/Application Support/Claude/claude_desktop_config.json
; op Windows:%APPDATA%/Claude/claude_desktop_config.json
). - Voeg MCP-server toe: Voeg de MCP-serverconfiguratie toe onder het
mcpServers
-object. - Stel omgevingsvariabelen in: Zet provider-API-sleutels en andere gegevens in het
env
-object. - Opslaan en herstarten: Sla het bestand op en herstart Claude Desktop om de wijzigingen toe te passen.
JSON-voorbeeld:
{
"mcpServers": {
"chat-openai": {
"command": "npx",
"args": [
"@pyroprompts/any-chat-completions-mcp"
],
"env": {
"AI_CHAT_KEY": "OPENAI_KEY",
"AI_CHAT_NAME": "OpenAI",
"AI_CHAT_MODEL": "gpt-4o",
"AI_CHAT_BASE_URL": "v1/chat/completions"
}
}
}
}
API-sleutels beveiligen (met omgevingsvariabelen):
"env": {
"AI_CHAT_KEY": "YOUR_PROVIDER_KEY"
}
Cursor
Er zijn geen platformspecifieke instructies voor Cursor in de repository of documentatie.
Cline
Er zijn geen platformspecifieke instructies voor Cline in de repository of documentatie.
Hoe gebruik je deze MCP in flows
MCP gebruiken in FlowHunt
Om MCP-servers in je FlowHunt-workflow te integreren, begin je met het toevoegen van het MCP-component aan je flow en verbind je deze met je AI-agent:

Klik op het MCP-component om het configuratievenster te openen. Voeg in het systeem-MCP-configuratiegedeelte je MCP-serverdetails in met het volgende JSON-formaat:
{
"MCP-name": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Na configuratie kan de AI-agent deze MCP nu gebruiken als hulpmiddel met toegang tot al zijn functies en mogelijkheden. Vergeet niet “MCP-name” te vervangen door de daadwerkelijke naam van je MCP-server (bijvoorbeeld “github-mcp”, “weather-api”, enz.) en de URL te vervangen door de URL van je eigen MCP-server.
Overzicht
Sectie | Beschikbaarheid | Details/Opmerkingen |
---|---|---|
Overzicht | ✅ | Behandelt doel en functies in README |
Lijst van Prompts | ⛔ | Geen prompt-sjablonen genoemd |
Lijst van Resources | ⛔ | Geen expliciete MCP-resources gedocumenteerd |
Lijst van Hulpmiddelen | ✅ | “chat”-hulpmiddel beschreven in README |
API-sleutels beveiligen | ✅ | Gebruikt “env” in JSON voor sleutelbeheer |
Sampling-ondersteuning (minder belangrijk) | ⛔ | Geen vermelding van sampling-functies |
Op basis van het bovenstaande is any-chat-completions-mcp een gerichte, gestroomlijnde MCP-server die ideaal is voor het toevoegen van generieke OpenAI-compatibele chat-API’s als hulpmiddelen. De belangrijkste kracht is eenvoud en brede compatibiliteit, hoewel het resource- en prompt-abstrahering mist. Voor routinematige LLM-integratie is het robuust, maar veeleisende gebruikers willen misschien meer functies. Over het algemeen geef ik deze MCP een waardering van 6/10 voor algemeen gebruik.
MCP-score
Heeft een LICENSE | ✅ (MIT) |
---|---|
Heeft minstens één tool | ✅ |
Aantal forks | 17 |
Aantal sterren | 129 |
Veelgestelde vragen
- Wat is any-chat-completions-mcp?
Het is een MCP-server die FlowHunt of elke MCP-compatibele client verbindt met elke OpenAI SDK-compatibele Chat Completion API, inclusief aanbieders zoals OpenAI, Perplexity, Groq, xAI en PyroPrompts. Het stuurt chatgebaseerde vragen door via één eenvoudig hulpmiddel en configuratie.
- Wat zijn de belangrijkste toepassingen van deze MCP-server?
Geïntegreerde LLM-integratie, snel wisselen van providers, desktop AI-agenten aansturen, LLM's benchmarken en als veilige API-gateway voor chatgebaseerde vragen.
- Hoe wissel ik tussen LLM-providers?
Wisselen is zo eenvoudig als het bijwerken van omgevingsvariabelen (zoals API-sleutel, basis-URL, modelnaam) in je MCP-serverconfiguratie. Er zijn geen codewijzigingen nodig—herstart je client na het updaten van je configuratie.
- Is deze server veilig voor het beheren van API-sleutels?
Ja, API-sleutels worden beheerd via omgevingsvariabelen in de configuratie, zodat inloggegevens buiten je codebase blijven voor betere beveiliging.
- Wat is het belangrijkste hulpmiddel dat deze MCP-server biedt?
Een enkel 'chat'-hulpmiddel dat chatgebaseerde berichten doorstuurt naar elk geconfigureerd OpenAI-compatibel API-eindpunt.
- Ondersteunt het prompt-sjablonen of resource-abstrahering?
Nee, de server is gericht en gestroomlijnd voor chat-completions. Het biedt geen prompt-sjablonen of extra resource-lagen.
Integreer any-chat-completions-mcp in FlowHunt
Verenig je AI chat API-verbindingen en schakel moeiteloos tussen providers met de any-chat-completions-mcp MCP-server. Perfect voor ontwikkelaars die flexibiliteit en eenvoud zoeken.