mcp-rag-local Servidor MCP

Um servidor MCP local de memória semântica para FlowHunt, construído com ChromaDB e Ollama. Permite que agentes de IA memorizem e recuperem textos, documentos e PDFs pelo significado, apoiando fluxos de trabalho poderosos de RAG e conhecimento.

mcp-rag-local Servidor MCP

O que faz o Servidor MCP “mcp-rag-local”?

O mcp-rag-local Servidor MCP foi projetado como um servidor de memória que permite a assistentes de IA armazenar e recuperar passagens de texto com base no significado semântico, e não apenas em palavras-chave. Aproveitando o Ollama para gerar embeddings de texto e o ChromaDB para armazenamento vetorial e busca por similaridade, permite o armazenamento (“memorização”) fluido e a recuperação de textos relevantes para uma determinada consulta. Isso potencializa fluxos de trabalho guiados por IA como gestão do conhecimento, recordação contextual e busca semântica. Desenvolvedores podem interagir com o servidor para armazenar textos individuais, múltiplos textos ou até conteúdos de arquivos PDF, e posteriormente recuperar as informações mais relevantes, aumentando a produtividade e consciência contextual em aplicações.

Lista de Prompts

  • Nenhum template explícito de prompt é mencionado no repositório ou documentação.

Lista de Recursos

  • Nenhum recurso MCP explícito está documentado no repositório ou README.

Lista de Ferramentas

  • memorize_text
    Permite ao servidor armazenar uma passagem de texto para futura recuperação semântica.

  • memorize_multiple_texts
    Habilita o armazenamento em lote de vários textos de uma só vez, facilitando a ingestão em massa de conhecimento.

  • memorize_pdf_file
    Lê e extrai até 20 páginas por vez de um arquivo PDF, fragmenta o conteúdo e o memoriza para recuperação semântica.

  • retrieve_similar_texts
    Recupera as passagens de texto armazenadas mais relevantes com base em uma consulta do usuário, usando similaridade semântica.

(Nomes das ferramentas inferidos a partir dos padrões de uso documentados; nomes exatos podem variar no código.)

Casos de Uso deste Servidor MCP

  • Base de Conhecimento Pessoal
    Desenvolvedores e usuários podem construir uma base de conhecimento persistente e pesquisável memorizando artigos, anotações ou artigos científicos para recordação semântica.

  • Sumarização de Documentos e PDFs
    Ao memorizar documentos PDF inteiros, usuários podem posteriormente consultar e recuperar seções ou resumos relevantes, otimizando pesquisas e revisões.

  • Memória Conversacional para Chatbots
    Aprimore assistentes de IA ou chatbots com memória de longo prazo e sensível ao contexto para fornecer respostas mais coerentes e relevantes ao longo do tempo.

  • Motor de Busca Semântica
    Implemente uma função de busca semântica em aplicações, permitindo que usuários encontrem informações relevantes pelo significado, não apenas por palavras-chave.

  • Pesquisa e Exploração de Dados
    Armazene e consulte documentos técnicos, trechos de código ou literatura científica para recuperação rápida e baseada em significado durante investigações ou desenvolvimento.

Como configurar

Windsurf

  1. Pré-requisitos:
    • Instale o uv como seu gerenciador de pacotes Python.
    • Certifique-se de que o Docker está instalado e em execução.
  2. Clone e Instale:
    • Clone o repositório:
      git clone <repository-url>
      cd mcp-rag-local
    • Instale as dependências usando o uv.
  3. Inicie os Serviços:
    • Execute docker-compose up para iniciar o ChromaDB e o Ollama.
    • Baixe o modelo de embedding:
      docker exec -it ollama ollama pull all-minilm:l6-v2
  4. Configure o Servidor MCP:
    • Adicione à configuração do servidor MCP no Windsurf (ex: em mcpServers):
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
      
  5. Salve e Reinicie:
    • Salve sua configuração e reinicie o Windsurf.
  6. Verifique a Instalação:
    • Confirme que o servidor está em execução e acessível.

Claude

  1. Siga as etapas 1–3 acima (pré-requisitos, clone/instale, inicie os serviços).
  2. Adicione o seguinte à configuração MCP do Claude:
    "mcpServers": {
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
    }
    
  3. Salve e reinicie o Claude.
  4. Verifique se o servidor está listado e em execução.

Cursor

  1. Complete as etapas 1–3 (como acima).
  2. Adicione à configuração do Cursor:
    "mcpServers": {
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
    }
    
  3. Salve e reinicie o Cursor.
  4. Verifique se o servidor MCP está operacional.

Cline

  1. Repita as etapas 1–3 (pré-requisitos, clone/instale, inicie os serviços).
  2. Na configuração do Cline, adicione:
    "mcpServers": {
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
    }
    
  3. Salve, reinicie o Cline e verifique a instalação.

Protegendo Chaves de API

  • Use variáveis de ambiente na seção env da sua configuração.
  • Exemplo:
    "env": {
      "CHROMADB_PORT": "8321",
      "OLLAMA_PORT": "11434",
      "MY_API_KEY": "${MY_API_KEY}"
    }
    
  • Certifique-se de que chaves sensíveis não estão hardcoded, mas referenciadas do seu ambiente.

Como usar este MCP em fluxos

Utilizando MCP no FlowHunt

Para integrar servidores MCP ao seu fluxo de trabalho no FlowHunt, comece adicionando o componente MCP ao seu fluxo e conectando-o ao seu agente de IA:

Fluxo MCP FlowHunt

Clique no componente MCP para abrir o painel de configuração. Na seção de configuração do MCP do sistema, insira os detalhes do seu servidor MCP usando este formato JSON:

{
  "mcp-rag-local": {
    "transport": "streamable_http",
    "url": "https://seumcpserver.exemplo/caminhoparamcp/url"
  }
}

Uma vez configurado, o agente de IA poderá usar este MCP como ferramenta com acesso a todas as suas funções e capacidades. Lembre-se de alterar “mcp-rag-local” para o nome real do seu servidor MCP e substituir a URL pela URL do seu MCP.


Visão Geral

SeçãoDisponibilidadeDetalhes/Notas
Visão Geral
Lista de PromptsNenhum prompt/template documentado
Lista de RecursosNenhum recurso documentado
Lista de Ferramentasmemorize_text, memorize_multiple_texts, etc.
Proteção de API Keysvia env na config, exemplo mostrado
Suporte a Sampling (menos relevante na avaliação)Não mencionado

Nossa opinião

Este MCP é direto e bem focado em memória semântica, mas carece de recursos avançados como templates de prompt, recursos explícitos ou suporte a sampling/roots. Ferramentas e configuração são claras. Melhor para fluxos simples de RAG/conhecimento local.

Pontuação do MCP

Possui LICENSE✅ (MIT)
Possui ao menos uma ferramenta
Número de Forks1
Número de Stars5

Perguntas frequentes

O que é o servidor MCP mcp-rag-local?

É um servidor MCP local que oferece aos agentes de IA a capacidade de armazenar e recuperar textos, documentos e PDFs por significado semântico. Alimentado por Ollama e ChromaDB, possibilita gestão do conhecimento, memória contextual e busca semântica para suas aplicações.

Quais ferramentas o mcp-rag-local oferece?

Oferece ferramentas para armazenar um ou vários textos, ingerir arquivos PDF e recuperar textos semelhantes usando busca semântica. Isso possibilita fluxos como construção de bases de conhecimento pessoais, sumarização de documentos e memória conversacional para chatbots.

Como faço para configurar o mcp-rag-local?

Instale uv e Docker, clone o repositório, inicie o Ollama e o ChromaDB e configure o servidor MCP no arquivo de configuração do seu cliente com as portas especificadas. Variáveis de ambiente são usadas para configuração segura.

Quais são os principais casos de uso?

Casos de uso incluem construção de base de conhecimento semântica, sumarização de documentos/PDFs, aprimoramento da memória de chatbots, busca semântica e exploração de dados de pesquisa.

Como proteger chaves de API ou portas?

Sempre utilize variáveis de ambiente na seção env da sua configuração para evitar hardcode de informações sensíveis, garantindo segurança e boas práticas.

Experimente o mcp-rag-local com o FlowHunt

Turbine seus fluxos de trabalho de IA com memória semântica e busca local de documentos usando o mcp-rag-local. Configure em minutos e transforme a maneira como seus agentes recordam e raciocinam sobre conhecimentos.

Saiba mais