mcp-rag-local MCP Server

Een lokale, semantisch geheugen MCP-server voor FlowHunt, gebouwd met ChromaDB en Ollama. Maakt het mogelijk voor AI-agenten om tekst, documenten en PDF’s te onthouden en op te halen op betekenis, wat krachtige RAG- en kennisworkflows ondersteunt.

mcp-rag-local MCP Server

Wat doet de “mcp-rag-local” MCP Server?

De mcp-rag-local MCP Server is ontworpen als een geheugenserver waarmee AI-assistenten tekstfragmenten kunnen opslaan en ophalen op basis van hun semantische betekenis, niet alleen op trefwoorden. Met gebruik van Ollama voor het genereren van tekstembeddings en ChromaDB voor vectoropslag en gelijkeniszoekopdrachten, maakt het naadloze opslag (“onthouden”) en het ophalen van relevante teksten voor een bepaalde vraag mogelijk. Dit ondersteunt AI-gedreven workflows zoals kennisbeheer, contextueel geheugen en semantisch zoeken. Ontwikkelaars kunnen communiceren met de server om individuele teksten, meerdere teksten, of zelfs de inhoud van PDF-bestanden op te slaan en later de meest contextueel relevante informatie op te halen, wat de productiviteit en contextueel bewustzijn in applicaties vergroot.

Lijst van Prompts

  • Geen expliciete prompt-templates vermeld in de repository of documentatie.

Lijst van Resources

  • Geen expliciete MCP-resources gedocumenteerd in de repository of README.

Lijst van Tools

  • memorize_text
    Hiermee kan de server een enkel tekstfragment opslaan voor toekomstige semantische zoekopdrachten.

  • memorize_multiple_texts
    Maakt batchopslag van meerdere teksten tegelijk mogelijk, wat bulkkennisinvoer vergemakkelijkt.

  • memorize_pdf_file
    Leest en extraheert tot 20 pagina’s tegelijk uit een PDF-bestand, splitst de inhoud en slaat deze op voor semantische zoekopdrachten.

  • retrieve_similar_texts
    Haalt de meest relevante opgeslagen tekstfragmenten op basis van een gebruikersvraag, met behulp van semantische gelijkenis.

(Toolnamen afgeleid uit gedocumenteerde gebruikspatronen; exacte namen kunnen in de code afwijken.)

Gebruiksscenario’s van deze MCP Server

  • Persoonlijke Kennisbank
    Ontwikkelaars en gebruikers kunnen een blijvende, doorzoekbare kennisbank bouwen door artikelen, notities of onderzoeksartikelen op te slaan voor semantische terughaalbaarheid.

  • Document- en PDF-samenvatting
    Door volledige PDF-documenten te onthouden, kunnen gebruikers later relevante secties of samenvattingen opvragen, wat onderzoek en beoordeling stroomlijnt.

  • Conversatiegeheugen voor Chatbots
    Voorzie AI-assistenten of chatbots van langdurig, contextbewust geheugen om na verloop van tijd coherente en contextueel relevante antwoorden te bieden.

  • Semantische Zoekmachine
    Implementeer een semantische zoekfunctie in applicaties, zodat gebruikers relevante informatie kunnen vinden op basis van betekenis, niet enkel op trefwoorden.

  • Onderzoek en Data-exploratie
    Sla technische documenten, codefragmenten of wetenschappelijke literatuur op en raadpleeg deze snel op betekenis tijdens onderzoek of ontwikkeling.

Hoe stel je het in

Windsurf

  1. Vereisten:
    • Installeer uv als je Python package manager.
    • Zorg dat Docker is geïnstalleerd en draait.
  2. Kloon en Installeer:
    • Kloon de repository:
      git clone <repository-url>
      cd mcp-rag-local
    • Installeer afhankelijkheden met uv.
  3. Start Services:
    • Voer docker-compose up uit om ChromaDB en Ollama te starten.
    • Haal het embedding model op:
      docker exec -it ollama ollama pull all-minilm:l6-v2
  4. Configureer MCP Server:
    • Voeg toe aan je Windsurf MCP-serverconfiguratie (bijv. in mcpServers):
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
      
  5. Opslaan en Herstarten:
    • Sla je configuratie op en herstart Windsurf.
  6. Controleer setup:
    • Controleer of de server draait en bereikbaar is.

Claude

  1. Volg stappen 1–3 hierboven (vereisten, klonen/installeren, services starten).
  2. Voeg het volgende toe aan je Claude MCP-configuratie:
    "mcpServers": {
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
    }
    
  3. Sla op en herstart Claude.
  4. Controleer of de server wordt weergegeven en draait.

Cursor

  1. Voltooi stappen 1–3 (zoals hierboven).
  2. Voeg toe aan je Cursor-configuratie:
    "mcpServers": {
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
    }
    
  3. Sla op en herstart Cursor.
  4. Controleer of de MCP-server operationeel is.

Cline

  1. Herhaal stappen 1–3 (vereisten, klonen/installeren, services starten).
  2. Voeg in de Cline-configuratie toe:
    "mcpServers": {
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
    }
    
  3. Opslaan, Cline herstarten en de setup controleren.

API-sleutels beveiligen

  • Gebruik omgevingsvariabelen in het env-deel van je configuratie.
  • Voorbeeld:
    "env": {
      "CHROMADB_PORT": "8321",
      "OLLAMA_PORT": "11434",
      "MY_API_KEY": "${MY_API_KEY}"
    }
    
  • Zorg dat gevoelige sleutels niet hard gecodeerd worden, maar worden opgehaald uit je omgeving.

Hoe gebruik je deze MCP binnen flows

MCP gebruiken in FlowHunt

Om MCP-servers in je FlowHunt-workflow te integreren, voeg je het MCP-component toe aan je flow en verbind je deze met je AI-agent:

FlowHunt MCP flow

Klik op het MCP-component om het configuratievenster te openen. Voeg in het systeem MCP-configuratiegedeelte je MCP-servergegevens in met dit JSON-formaat:

{
  "mcp-rag-local": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

Na configuratie kan de AI-agent deze MCP nu als tool gebruiken met toegang tot al zijn functies en mogelijkheden. Vergeet niet “mcp-rag-local” te wijzigen naar de daadwerkelijke naam van jouw MCP-server en de URL te vervangen door je eigen MCP-server-URL.


Overzicht

SectieBeschikbaarheidDetails/Opmerkingen
Overzicht
Lijst van PromptsGeen prompts/templates gedocumenteerd
Lijst van ResourcesGeen resources gedocumenteerd
Lijst van Toolsmemorize_text, memorize_multiple_texts, etc.
API-sleutels beveiligenvia env in config, voorbeeld getoond
Sampling-ondersteuning (minder van belang)Niet vermeld

Onze mening

Deze MCP is eenvoudig en goed gericht op semantisch geheugen, maar mist geavanceerde functies zoals prompt-templates, expliciete resources of sampling/roots-ondersteuning. Tooling en setup zijn duidelijk. Het beste voor simpele RAG/lokale kennisworkflows.

MCP Score

Heeft een LICENSE✅ (MIT)
Heeft minimaal één tool
Aantal Forks1
Aantal Sterren5

Veelgestelde vragen

Wat is de mcp-rag-local MCP Server?

Het is een lokale MCP-server die AI-agenten de mogelijkheid geeft om tekst, documenten en PDF's op te slaan en op te halen op semantische betekenis. Aangedreven door Ollama en ChromaDB, maakt het kennisbeheer, contextueel geheugen en semantisch zoeken mogelijk voor je applicaties.

Welke tools biedt mcp-rag-local?

Het biedt tools voor het opslaan van één of meerdere teksten, het verwerken van PDF-bestanden en het ophalen van vergelijkbare teksten via semantisch zoeken. Dit maakt workflows mogelijk zoals het bouwen van persoonlijke kennisbanken, documentsamenvattingen en conversatiegeheugen voor chatbots.

Hoe stel ik mcp-rag-local in?

Installeer uv en Docker, kloon de repository, start Ollama en ChromaDB en configureer de MCP-server in het configuratiebestand van je client met de opgegeven poorten. Omgevingsvariabelen worden gebruikt voor veilige configuratie.

Wat zijn de belangrijkste use-cases?

Use-cases zijn onder andere het bouwen van een semantische kennisbank, document/PDF-samenvatting, het verbeteren van chatbot-geheugen, semantisch zoeken en het verkennen van onderzoeksdata.

Hoe beveilig ik API-sleutels of poorten?

Gebruik altijd omgevingsvariabelen in het env-gedeelte van je configuratie om te voorkomen dat gevoelige informatie wordt hard gecodeerd. Dit zorgt voor veiligheid en best practices.

Probeer mcp-rag-local met FlowHunt

Geef je AI-workflows een boost met semantisch geheugen en lokale documentzoekopdrachten via mcp-rag-local. Zet binnen enkele minuten op en transformeer hoe je agenten kennis onthouden en redeneren.

Meer informatie