TOKREPO · ARSENAL
Nuevo · esta semana

Comparativa Vector DB

Chroma, Weaviate, Pinecone, txtai, Qdrant MCP, más APIs de embedding de Cohere y Together — elige por latencia, coste o precisión RAG.

7 recursos

Qué incluye este pack

Este pack pone las siete opciones dominantes de bases de datos vectoriales lado a lado para que la decisión sea ejercicio de 10 minutos en vez de evaluación de una semana. El espacio de elección se divide limpio en tres niveles: bases auto-alojadas, gestionadas, y APIs de embedding (que suelen incluir un store vectorial básico de paso).

# Recurso Nivel Mejor en
1 Chroma Auto-alojado Simplicidad un nodo, prototipado local rápido
2 Weaviate Auto-alojado/gestionado Búsqueda híbrida con BM25 + vector integrado
3 Pinecone Solo gestionado Escalado zero-ops, p95 predecible
4 txtai Auto-alojado Embed + búsqueda en una librería Python
5 Qdrant MCP Auto-alojado Servidor MCP nativo para queries de agentes
6 Cohere embeddings API Calidad multilingüe líder
7 Together embeddings API Economía de tokens más barata para batch

Este pack es intencionalmente la capa DB — qué guarda los vectores y sirve queries de vecino más cercano. La orquestación retrieve-and-generate por encima (chunking, query rewriting, reranking) vive en el pack RAG Pipelines para que las dos decisiones queden independientes.

Por qué elegir deliberadamente

La mayoría de equipos pasa sus primeros seis meses con el vector DB equivocado y solo lo descubre cuando algo se rompe. Los dos modos de fallo:

  • Empezaron con Pinecone, llegaron a dolor de facturación a escala. El precio por-pod de Pinecone tiene sentido a 1M vectores pero empieza a verse caro a 50M. Migrar fuera requiere re-embed.
  • Empezaron auto-alojado, llegaron a dolor de ops a escala. Un equipo con un nodo Chroma acumula 30M vectores, descubre que los índices ANN de un solo nodo no degradan con gracia — la latencia query va de 50ms a 800ms en un trimestre.

Elegir deliberadamente significa mirar tres ejes:

  1. Recall vs latencia a tu cantidad de vectores. ANN-Benchmarks publica curvas recall@10 vs QPS; Qdrant y Pinecone lideran consistentemente >10M vectores, Chroma va bien debajo de 5M.
  2. Necesidades de búsqueda híbrida. Si tus queries mezclan filtros por palabra clave con similitud semántica, el modo híbrido de Weaviate y los filtros payload de Qdrant son los diferenciadores — empernar BM25 a Chroma después es doloroso.
  3. Postura de operaciones. Si tu equipo es de dos ingenieros, "sin servidores que cuidar" de Pinecone gana. Si ya corres Postgres a escala, pgvector (en el pack Postgres para Agentes IA) suele ganar a todas las opciones aquí en TCO.

Instala en un comando

# Instala el pack completo en el proyecto actual
tokrepo install pack/vector-db-showdown

# O elige recursos individuales
tokrepo install qdrant-mcp
tokrepo install chroma

El TokRepo CLI instala snippets Docker Compose para opciones auto-alojadas, plantillas de variables de entorno para APIs gestionadas, y scripts de benchmark que cargan 100k vectores y miden latencia query p95 en tu hardware.

Errores comunes

  • Benchmarkear con vectores aleatorios. Vectores aleatorios tienen distribuciones de distancia planas — todo índice se ve igual de rápido. Benchmarkea siempre con embeddings reales de tu dominio (los dumps de Wikipedia funcionan como proxy público).
  • Elegir métrica de distancia equivocada. Coseno vs dot product vs L2 dan rankings distintos sobre los mismos datos. Empareja la métrica con la que el modelo embedding fue entrenado; OpenAI text-embedding-3 espera coseno, algunos open models esperan dot product.
  • Ignorar el lock-in del modelo embedding. Si embed 100M docs con Cohere y quieres cambiar a OpenAI, re-embedeas todo. Algunos equipos guardan ambos modelos embedding en paralelo durante la transición.
  • Tratar "vector DB" como solución RAG completa. Ninguna de estas herramientas rerankea, reescribe queries o evalúa calidad de resultados. Empareja con el pack RAG Pipelines y el pack LLM Eval.
  • Subestimar cardinalidad de filtro. Pre-filtrar por un campo de alta cardinalidad (e.g. user_id) antes de búsqueda ANN devasta el recall en la mayoría de motores. Usa post-filtrado o construye índices por usuario.

Cuándo este pack solo no basta

Si tu dataset es pequeño (<1M vectores) y ya tienes Postgres, pgvector gana a toda opción aquí en simplicidad operativa — un servicio menos que monitorear. Si tus queries necesitan restricciones geográficas o de grafo además de similitud semántica, mira Neo4j con GDS u OpenSearch con k-NN — distintos tradeoffs pero más limpio para esas formas. Y si operas a 1B+ vectores, has superado este pack; habla con vendors sobre tiers dedicados Vespa o Milvus.

INSTALAR · UN COMANDO
$ tokrepo install pack/vector-db-showdown
pásalo a tu agente — o pégalo en tu terminal
Qué incluye

7 recursos listos para instalar

Config#01
Chroma — Open-Source Vector Database for AI

Chroma is the open-source vector database and data infrastructure for AI applications. 27.1K+ GitHub stars. Simple 4-function API for embedding, storing, and querying documents. Supports Python, JavaS

by AI Open Source·123 views
$ tokrepo install chroma-open-source-vector-database-ai-04367306
Config#02
Weaviate — Open-Source Vector Database at Scale

Weaviate is an open-source vector database for semantic search at scale. 15.9K+ GitHub stars. Hybrid search (vector + BM25), built-in RAG, reranking, multi-tenancy, and horizontal scaling. BSD 3-Claus

by AI Open Source·121 views
$ tokrepo install weaviate-open-source-vector-database-scale-492f7d14
Agent#03
Pinecone — Managed Vector Database for Production AI

Fully managed vector database for production AI search. Pinecone offers serverless scaling, hybrid search, metadata filtering, and enterprise security with zero infrastructure.

by AI Open Source·105 views
$ tokrepo install pinecone-managed-vector-database-production-ai-0fc5f7e8
Script#04
txtai — All-in-One Embeddings Database

txtai is an all-in-one embeddings database for semantic search, LLM orchestration, and language model workflows. 10.4K+ GitHub stars. Vector search + SQL + RAG pipelines. Apache 2.0.

by Script Depot·128 views
$ tokrepo install txtai-all-one-embeddings-database-b732febc
MCP#05
Qdrant MCP — Vector Search Engine for AI Agents

MCP server for Qdrant vector database. Gives AI agents the power to store and search embeddings for RAG, semantic search, and recommendation systems. 22,000+ stars on Qdrant.

by MCP Hub·90 views
$ tokrepo install qdrant-mcp-vector-search-engine-ai-agents-301ce58e
Prompt#06
Cohere Embed — Multilingual AI Embeddings API

Generate high-quality multilingual embeddings for search and RAG. Cohere Embed v3 supports 100+ languages with specialized modes for documents, queries, and classification.

by Prompt Lab·97 views
$ tokrepo install cohere-embed-multilingual-ai-embeddings-api-dde04e91
Skill#07
Together AI Embeddings & Reranking Skill for Agents

Skill that teaches Claude Code Together AI's embeddings and reranking API. Covers dense vector generation, semantic search, RAG pipelines, and result reranking patterns.

by Together AI·122 views
$ tokrepo install together-ai-embeddings-reranking-skill-agents-da3bf81c
FAQ

Preguntas frecuentes

¿Son gratis estos vector DBs?

Cinco de siete sí: Chroma, Weaviate, txtai y el servidor Qdrant MCP son open-source bajo licencias permisivas; pagas solo cómputo. Pinecone es solo-gestionado con tier starter gratis (100k vectores); Cohere y Together cobran por millón de tokens en llamadas embedding. El pack documenta precios OSS y pagos para que elijas sin sorpresas.

¿En qué se diferencia del pack rag-pipelines?

Este pack es la capa de almacenamiento — lo que guarda los vectores. El pack rag-pipelines es la orquestación encima: chunking, reescritura de queries, ensemble de retrievers, y reranking. Eliges un vector DB una vez y rara vez cambias; afinas parámetros RAG constantemente. Mantenerlos como packs separados te permite upgradear cada uno independientemente.

¿Funcionará con Claude Code o Cursor?

Sí. Qdrant trae un servidor MCP para que Claude Code consulte el store vectorial como herramienta — llama qdrant.search() desde cualquier prompt agente. Chroma y Weaviate tienen servidores MCP comunitarios cubiertos en los packs Modern CLI Toolbelt y MCP Server Stack. Los usuarios Cursor usan los mismos servidores via integración MCP estándar.

¿Diferencia entre Pinecone y Qdrant en producción?

Pinecone es totalmente gestionado con latencia p95 predecible y escalado zero-ops, pero el precio por-pod sube fuerte pasados 50M vectores. Qdrant corre en cualquier sitio — tu portátil, Kubernetes, o Qdrant Cloud — y lidera consistentemente ANN-Benchmarks para recall a QPS alto. Elige Pinecone si tu equipo es pequeño y el presupuesto alcanza; elige Qdrant si necesitas auto-host o eres sensible al coste a escala.

¿Trampa operativa al migrar entre vector DBs?

Los vectores no son portables entre modelos embedding, pero son portables entre DBs si el modelo se mantiene. La mayoría de migraciones se rompen porque equipos tocaron el pipeline embedding (tamaño chunk, versión modelo) durante el move. Bloquea el pipeline primero, snapshotea embeddings a S3, migra la DB, valida que queries muestra retornen IDs idénticos — luego itera en el pipeline.

MÁS DEL ARSENAL

12 packs · 80+ recursos seleccionados

Explora todos los packs curados en la página principal

Volver a todos los packs