Servidor MCP any-chat-completions-mcp
Conecte-se facilmente a qualquer API de chat compatível com OpenAI via um único servidor MCP, otimizando fluxos de trabalho LLM multi-provedores no FlowHunt e além.

O que o servidor MCP “any-chat-completions-mcp” faz?
O any-chat-completions-mcp MCP Server atua como uma ponte entre assistentes de IA e qualquer API de Chat Completion compatível com o SDK da OpenAI, como OpenAI, Perplexity, Groq, xAI e PyroPrompts. Seguindo o Model Context Protocol (MCP), ele permite a integração perfeita de provedores externos de LLM em fluxos de desenvolvimento. Sua principal função é encaminhar perguntas baseadas em chat para um provedor de chat IA configurado, permitindo que desenvolvedores utilizem diversos LLMs como ferramentas em seus ambientes preferidos. Isso torna tarefas como troca de provedores ou escalonamento do uso de LLMs simples, promovendo flexibilidade e eficiência em aplicações impulsionadas por IA.
Lista de Prompts
Nenhum template de prompt é mencionado no repositório ou documentação.
Lista de Recursos
Nenhum recurso MCP explícito é documentado no repositório ou README.
Lista de Ferramentas
- chat: Encaminha uma pergunta para um Provedor de Chat IA configurado. Esta é a principal (e única) ferramenta exposta pelo servidor, permitindo que LLMs ou clientes enviem consultas baseadas em chat para qualquer endpoint API compatível com OpenAI.
Casos de Uso deste Servidor MCP
- Integração Unificada de LLM: Desenvolvedores podem usar um único servidor MCP para acessar múltiplos provedores de LLM sem alterar o código do cliente, simplificando o gerenciamento de provedores.
- Troca de Provedor: Troque facilmente entre OpenAI, PyroPrompts, Perplexity e outros atualizando variáveis de ambiente, útil para otimização de custos ou estratégias de fallback.
- Agentes de IA Desktop Customizados: Integre LLMs avançados baseados em chat em aplicações desktop (ex: Claude Desktop) para potencializar recursos de assistente aprimorados.
- Experimentação e Benchmarking: Compare rapidamente saídas de diferentes LLMs de forma padronizada para pesquisa, QA ou desenvolvimento de produto.
- API Gateway para LLMs: Atua como um gateway leve para encaminhar mensagens de chat com segurança a diversas APIs de LLM, centralizando a gestão de chaves de API e endpoints.
Como configurar
Windsurf
Nenhuma instrução específica de plataforma é fornecida para Windsurf no repositório ou documentação.
Claude
- Pré-requisito: Certifique-se de que Node.js e
npx
estão instalados. - Localize o Arquivo de Configuração: Edite
claude_desktop_config.json
(no MacOS:~/Library/Application Support/Claude/claude_desktop_config.json
; no Windows:%APPDATA%/Claude/claude_desktop_config.json
). - Adicione o Servidor MCP: Adicione a configuração do servidor MCP sob o objeto
mcpServers
. - Configure as Variáveis de Ambiente: Insira as chaves de API do provedor e outras informações no objeto
env
. - Salve e Reinicie: Salve o arquivo e reinicie o Claude Desktop para aplicar as alterações.
Exemplo JSON:
{
"mcpServers": {
"chat-openai": {
"command": "npx",
"args": [
"@pyroprompts/any-chat-completions-mcp"
],
"env": {
"AI_CHAT_KEY": "OPENAI_KEY",
"AI_CHAT_NAME": "OpenAI",
"AI_CHAT_MODEL": "gpt-4o",
"AI_CHAT_BASE_URL": "v1/chat/completions"
}
}
}
}
Protegendo Chaves de API (usando variáveis de ambiente):
"env": {
"AI_CHAT_KEY": "YOUR_PROVIDER_KEY"
}
Cursor
Nenhuma instrução específica de plataforma é fornecida para Cursor no repositório ou documentação.
Cline
Nenhuma instrução específica de plataforma é fornecida para Cline no repositório ou documentação.
Como usar este MCP em fluxos
Usando MCP no FlowHunt
Para integrar servidores MCP no seu fluxo do FlowHunt, comece adicionando o componente MCP ao seu fluxo e conectando-o ao seu agente de IA:

Clique no componente MCP para abrir o painel de configuração. Na seção de configuração do sistema MCP, insira os detalhes do seu servidor MCP usando este formato JSON:
{
"MCP-name": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Depois de configurado, o agente de IA poderá usar este MCP como uma ferramenta com acesso a todas as suas funções e capacidades. Lembre-se de trocar “MCP-name” pelo nome real do seu servidor MCP (ex: “github-mcp”, “weather-api”, etc.) e substituir a URL pela URL do seu próprio servidor MCP.
Resumo
Seção | Disponibilidade | Detalhes/Notas |
---|---|---|
Resumo | ✅ | Cobre propósito e funcionalidades no README |
Lista de Prompts | ⛔ | Nenhum template de prompt mencionado |
Lista de Recursos | ⛔ | Nenhum recurso MCP explícito documentado |
Lista de Ferramentas | ✅ | Ferramenta “chat” descrita no README |
Proteção de Chaves de API | ✅ | Usa “env” no JSON para gerenciamento de chaves |
Suporte a Sampling (menos relevante na avaliação) | ⛔ | Nenhuma menção a recursos de sampling |
Com base no exposto, o any-chat-completions-mcp é um servidor MCP focado e otimizado, ideal para adicionar APIs de chat compatíveis com OpenAI como ferramentas. Sua principal força é a simplicidade e ampla compatibilidade, embora falte abstrações de recurso e prompt. Para integração rotineira de LLM, é robusto, mas usuários avançados podem desejar mais recursos. No geral, eu avaliaria este MCP em 6/10 para uso geral.
Pontuação MCP
Tem uma LICENSE | ✅ (MIT) |
---|---|
Tem pelo menos uma ferramenta | ✅ |
Número de Forks | 17 |
Número de Stars | 129 |
Perguntas frequentes
- O que é o any-chat-completions-mcp?
É um servidor MCP que faz a ponte entre FlowHunt ou qualquer cliente compatível com MCP e qualquer API de Chat Completion compatível com SDK da OpenAI, incluindo provedores como OpenAI, Perplexity, Groq, xAI e PyroPrompts. Ele encaminha consultas baseadas em chat por meio de uma ferramenta e configuração simples e única.
- Quais são os principais casos de uso deste Servidor MCP?
Integração unificada de LLM, troca rápida de provedor, alimentar agentes de IA de desktop, benchmarking de LLMs e atuar como um gateway API seguro para consultas baseadas em chat.
- Como troco entre provedores de LLM?
A troca é simples como atualizar as variáveis de ambiente (por exemplo, chave da API, URL base, nome do modelo) na configuração do seu servidor MCP. Não é necessário alterar o código—basta reiniciar seu cliente após atualizar a configuração.
- Este servidor é seguro para gerenciar chaves de API?
Sim, as chaves de API são gerenciadas via variáveis de ambiente na configuração, mantendo as credenciais fora do seu código para maior segurança.
- Qual é a principal ferramenta fornecida por este Servidor MCP?
Uma única ferramenta 'chat' que encaminha mensagens baseadas em chat para qualquer endpoint API configurado compatível com OpenAI.
- Ele suporta templates de prompt ou abstrações de recursos?
Não, o servidor é focado e otimizado para chat completions. Não fornece templates de prompt ou camadas adicionais de recursos.
Integre o any-chat-completions-mcp no FlowHunt
Unifique suas conexões de API de chat IA e troque de provedor facilmente com o servidor MCP any-chat-completions-mcp. Perfeito para desenvolvedores que buscam flexibilidade e simplicidade.