VertexAI Search MCP Server
Integra facilmente Google Vertex AI Search con i tuoi agenti AI per abilitare una ricerca affidabile e fondata su dataset privati grazie al server VertexAI Search MCP.

Cosa fa il server “VertexAI Search” MCP?
Il server VertexAI Search MCP è progettato per collegare assistenti AI con Google Vertex AI Search, consentendo loro di cercare e recuperare informazioni da dataset privati archiviati in Vertex AI Datastore. Sfruttando Gemini con grounding Vertex AI, questo server migliora la qualità e l’accuratezza dei risultati di ricerca fondando le risposte dell’AI sui tuoi dati proprietari. Supporta l’integrazione con uno o più datastore Vertex AI, rendendolo uno strumento potente per arricchire workflow basati su LLM con informazioni contestuali e specifiche dell’organizzazione. Questa capacità permette agli sviluppatori di automatizzare la ricerca documentale, l’interrogazione di knowledge base e ottimizzare l’accesso ai dati aziendali sia in ambienti di sviluppo che di produzione.
Elenco dei Prompt
Nessun template di prompt viene menzionato nel repository.
Elenco delle Risorse
Nessuna risorsa specifica è dettagliata nel repository.
Elenco degli Strumenti
Nessun elenco esplicito di strumenti è fornito nel repository o in server.py.
Casi d’uso di questo MCP Server
- Automazione della ricerca aziendale: integra Vertex AI Search nei workflow per automatizzare l’interrogazione e il recupero di documenti da dataset privati, semplificando l’accesso alle informazioni interne.
- Arricchimento della knowledge base: migliora gli assistenti AI con la capacità di rispondere a domande degli utenti fondate sulla conoscenza specifica dell’organizzazione, aumentando l’accuratezza delle risposte.
- Decisioni guidate dai dati: consente agli sviluppatori di individuare dati rilevanti da Vertex AI Datastore durante lo sviluppo di applicazioni, supportando decisioni basate su evidenze.
- Sviluppo di assistenti AI personalizzati: costruisci agenti AI specifici per dominio in grado di cercare e contestualizzare le risposte utilizzando datastore Vertex AI curati.
Come configurarlo
Windsurf
- Assicurati che Python e Docker siano installati sul tuo sistema.
- Clona il repository:
git clone git@github.com:ubie-oss/mcp-vertexai-search.git
- Crea un ambiente virtuale e installa le dipendenze:
uv venv uv sync --all-extras
- Aggiungi la configurazione MCP server al file di configurazione di Windsurf come segue:
{ "mcpServers": { "vertexai-search": { "command": "uv", "args": ["run", "mcp-vertexai-search"] } } }
- Salva e riavvia Windsurf, quindi verifica che il server MCP sia attivo.
Esempio di protezione delle chiavi API:
{
"mcpServers": {
"vertexai-search": {
"env": {
"GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
},
"inputs": {}
}
}
}
Claude
- Assicurati che l’ambiente Python e le dipendenze siano correttamente installate.
- Clona e configura il repository come sopra.
- Modifica la configurazione di Claude per aggiungere il server MCP:
{ "mcpServers": { "vertexai-search": { "command": "uv", "args": ["run", "mcp-vertexai-search"] } } }
- Riavvia Claude e controlla lo stato del server.
Esempio di protezione delle chiavi API:
{
"mcpServers": {
"vertexai-search": {
"env": {
"GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
},
"inputs": {}
}
}
}
Cursor
- Installa i prerequisiti e configura il repository come descritto sopra.
- Aggiorna il file di configurazione di Cursor:
{ "mcpServers": { "vertexai-search": { "command": "uv", "args": ["run", "mcp-vertexai-search"] } } }
- Salva, riavvia Cursor e verifica il funzionamento.
Esempio di protezione delle chiavi API:
{
"mcpServers": {
"vertexai-search": {
"env": {
"GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
},
"inputs": {}
}
}
}
Cline
- Segui i passaggi di configurazione del repository come sopra.
- Modifica la configurazione di Cline:
{ "mcpServers": { "vertexai-search": { "command": "uv", "args": ["run", "mcp-vertexai-search"] } } }
- Riavvia Cline e conferma che il server sia attivo.
Esempio di protezione delle chiavi API:
{
"mcpServers": {
"vertexai-search": {
"env": {
"GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
},
"inputs": {}
}
}
}
Come usare questo MCP all’interno dei flow
Utilizzo di MCP in FlowHunt
Per integrare i server MCP nel tuo workflow FlowHunt, inizia aggiungendo il componente MCP al tuo flow e collegandolo al tuo agente AI:

Clicca sul componente MCP per aprire il pannello di configurazione. Nella sezione di configurazione MCP di sistema, inserisci i dettagli del tuo server MCP usando questo formato JSON:
{
"vertexai-search": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Una volta configurato, l’agente AI potrà utilizzare questo MCP come strumento, con accesso a tutte le sue funzioni e capacità. Ricorda di sostituire “vertexai-search” con il vero nome del tuo server MCP e di aggiornare la URL con quella del tuo MCP server.
Panoramica
Sezione | Disponibilità | Dettagli/Note |
---|---|---|
Panoramica | ✅ | Presente in README.md |
Elenco dei Prompt | ⛔ | Nessun template trovato |
Elenco delle Risorse | ⛔ | Nessuna risorsa esplicita |
Elenco degli Strumenti | ⛔ | Nessun strumento elencato |
Protezione delle chiavi API | ✅ | Esempi di configurazione forniti |
Supporto Sampling (meno importante) | ⛔ | Non menzionato |
In base alla completezza della documentazione e all’esposizione delle funzionalità, questo MCP server offre una solida integrazione con Vertex AI Search ma manca di una documentazione dettagliata su prompt, risorse e strumenti. Le istruzioni di setup e la licenza sono chiare, ma le funzionalità MCP avanzate non sono discusse. Valutazione: 5/10
Punteggio MCP
Ha una LICENSE | ✅ (Apache-2.0) |
---|---|
Ha almeno uno strumento | ⛔ |
Numero di Fork | 9 |
Numero di Stelle | 18 |
Domande frequenti
- Cos’è il server VertexAI Search MCP?
Il server VertexAI Search MCP collega gli assistenti AI con Google Vertex AI Search, consentendo loro di cercare e recuperare informazioni da dataset privati in Vertex AI Datastore. Fondando le risposte dell’AI sui dati della tua organizzazione, migliora accuratezza e contesto.
- Quali sono i casi d’uso tipici?
I casi d’uso includono l’automazione della ricerca documentale aziendale, l’arricchimento di knowledge base, l’abilitazione dello sviluppo guidato dai dati e la costruzione di assistenti AI personalizzati che sfruttano dataset proprietari.
- Come posso proteggere le mie credenziali API?
Imposta la variabile d’ambiente GOOGLE_APPLICATION_CREDENTIALS nella configurazione MCP, puntando al file JSON delle credenziali dell’account di servizio Google Cloud. Sono fornite configurazioni di esempio per ciascun client supportato.
- Posso utilizzare più Vertex AI Datastore?
Sì, il server supporta l’integrazione con uno o più Vertex AI Datastore, permettendoti di interrogare vari dataset privati secondo necessità.
- Dove posso vedere il server MCP in azione all’interno di FlowHunt?
Aggiungi il componente MCP al tuo flow, configuralo con i dettagli del tuo server e connettilo al tuo agente AI. L’agente potrà quindi accedere a tutte le funzioni offerte dal server VertexAI Search MCP.
Prova VertexAI Search MCP Server su FlowHunt
Potenzia i tuoi agenti AI con la ricerca su dataset privati e risposte fondate. Integra VertexAI Search MCP Server in pochi passaggi.