TOKREPO · ARSENAL
Nouveau · cette semaine

Comparatif Vector DB

Chroma, Weaviate, Pinecone, txtai, Qdrant MCP, plus les APIs d'embedding Cohere et Together — choisissez par latence, coût ou précision RAG.

7 ressources

Ce que contient ce pack

Ce pack met les sept options dominantes de bases de données vectorielles côte-à-côte pour que la décision devienne un exercice de 10 minutes au lieu d'une semaine d'évaluation. L'espace de choix se découpe proprement en trois niveaux : bases auto-hébergées, managées, et APIs d'embedding (qui livrent souvent un store vectoriel basique en bonus).

# Ressource Niveau Excelle à
1 Chroma Auto-hébergé Simplicité mono-nœud, prototypage local rapide
2 Weaviate Auto-hébergé/managé Recherche hybride avec BM25 + vecteur intégré
3 Pinecone Managé seul Scaling zero-ops, p95 prévisible
4 txtai Auto-hébergé Embed + recherche dans une librairie Python
5 Qdrant MCP Auto-hébergé Serveur MCP natif pour requêtes d'agents
6 Embeddings Cohere API Qualité multilingue de pointe
7 Embeddings Together API Économie de tokens la moins chère en batch

Ce pack est intentionnellement la couche DB — ce qui stocke les vecteurs et sert les requêtes plus-proches-voisins. L'orchestration retrieve-and-generate au-dessus (chunking, réécriture de requête, reranking) vit dans le pack RAG Pipelines pour que les deux décisions restent indépendantes.

Pourquoi choisir délibérément

La plupart des équipes passent leurs six premiers mois sur le mauvais vector DB et ne le découvrent qu'à la casse. Les deux modes d'échec :

  • Démarré avec Pinecone, douleur de facturation à l'échelle. Le prix par-pod de Pinecone fait sens à 1M vecteurs mais devient cher à 50M. Migrer hors demande une campagne de re-embed.
  • Démarré auto-hébergé, douleur ops à l'échelle. Une équipe avec un nœud Chroma accumule un store de 30M vecteurs, puis découvre que les index ANN mono-nœud ne dégradent pas gracieusement — la latence requête passe de 50ms à 800ms en un trimestre.

Choisir délibérément veut dire regarder trois axes :

  1. Recall vs latence à votre nombre de vecteurs. ANN-Benchmarks publie des courbes recall@10 vs QPS ; Qdrant et Pinecone mènent constamment >10M vecteurs, Chroma va bien sous 5M.
  2. Besoins de recherche hybride. Si vos requêtes mêlent filtres par mot-clé et similarité sémantique, le mode hybride de Weaviate et les filtres payload de Qdrant sont les différentiateurs — coller BM25 sur Chroma après coup est douloureux.
  3. Posture opérationnelle. Si votre équipe est de deux ingénieurs, le « pas de serveurs à surveiller » de Pinecone gagne. Si vous tournez déjà Postgres à grande échelle, pgvector (dans le pack Postgres pour Agents IA) bat souvent toutes les options ici sur le TCO.

Installer en une commande

# Installe le pack entier dans le projet actuel
tokrepo install pack/vector-db-showdown

# Ou choisissez des ressources individuelles
tokrepo install qdrant-mcp
tokrepo install chroma

Le TokRepo CLI installe des snippets Docker Compose pour les options auto-hébergées, des templates de variables d'environnement pour les APIs managées, et des scripts de benchmark qui chargent 100k vecteurs et mesurent la latence requête p95 sur votre matériel.

Pièges courants

  • Benchmark avec des vecteurs aléatoires. Les vecteurs aléatoires ont des distributions de distance plates — tout index paraît aussi rapide. Benchmarkez toujours avec des embeddings réels de votre domaine (les dumps Wikipedia servent de proxy public).
  • Choisir la mauvaise métrique de distance. Cosinus vs dot product vs L2 donnent des rankings différents sur les mêmes données. Alignez la métrique avec celle pour laquelle le modèle embedding a été entraîné ; OpenAI text-embedding-3 attend cosinus, certains modèles open attendent dot product.
  • Ignorer le lock-in modèle d'embedding. Si vous embed 100M docs avec Cohere et voulez passer à OpenAI, vous re-embedez tout. Certaines équipes stockent les deux modèles en parallèle pendant la transition.
  • Traiter « vector DB » comme une solution RAG complète. Aucun de ces outils ne fait reranking, réécriture de requête ou évaluation qualité résultats. Pairez avec le pack RAG Pipelines et le pack LLM Eval.
  • Sous-estimer la cardinalité du filtre. Pré-filtrer sur un champ haute cardinalité (e.g. user_id) avant la recherche ANN dévaste le recall sur la plupart des moteurs. Utilisez post-filtering ou construisez des index par utilisateur.

Quand ce pack seul ne suffit pas

Si votre dataset est petit (<1M vecteurs) et que vous avez déjà Postgres, pgvector bat toute option ici sur la simplicité opérationnelle — un service de moins à surveiller. Si vos requêtes ont besoin de contraintes géographiques ou de graphe en plus de similarité sémantique, regardez Neo4j avec GDS ou OpenSearch avec k-NN — tradeoffs différents mais formes plus propres. Et si vous opérez à 1B+ vecteurs, vous avez dépassé ce pack ; parlez aux vendors des tiers dédiés Vespa ou Milvus.

INSTALLER · UNE COMMANDE
$ tokrepo install pack/vector-db-showdown
passez-la à votre agent — ou collez-la dans votre terminal
Ce qu'il contient

7 ressources prêtes à installer

Config#01
Chroma — Open-Source Vector Database for AI

Chroma is the open-source vector database and data infrastructure for AI applications. 27.1K+ GitHub stars. Simple 4-function API for embedding, storing, and querying documents. Supports Python, JavaS

by AI Open Source·123 views
$ tokrepo install chroma-open-source-vector-database-ai-04367306
Config#02
Weaviate — Open-Source Vector Database at Scale

Weaviate is an open-source vector database for semantic search at scale. 15.9K+ GitHub stars. Hybrid search (vector + BM25), built-in RAG, reranking, multi-tenancy, and horizontal scaling. BSD 3-Claus

by AI Open Source·121 views
$ tokrepo install weaviate-open-source-vector-database-scale-492f7d14
Agent#03
Pinecone — Managed Vector Database for Production AI

Fully managed vector database for production AI search. Pinecone offers serverless scaling, hybrid search, metadata filtering, and enterprise security with zero infrastructure.

by AI Open Source·105 views
$ tokrepo install pinecone-managed-vector-database-production-ai-0fc5f7e8
Script#04
txtai — All-in-One Embeddings Database

txtai is an all-in-one embeddings database for semantic search, LLM orchestration, and language model workflows. 10.4K+ GitHub stars. Vector search + SQL + RAG pipelines. Apache 2.0.

by Script Depot·128 views
$ tokrepo install txtai-all-one-embeddings-database-b732febc
MCP#05
Qdrant MCP — Vector Search Engine for AI Agents

MCP server for Qdrant vector database. Gives AI agents the power to store and search embeddings for RAG, semantic search, and recommendation systems. 22,000+ stars on Qdrant.

by MCP Hub·90 views
$ tokrepo install qdrant-mcp-vector-search-engine-ai-agents-301ce58e
Prompt#06
Cohere Embed — Multilingual AI Embeddings API

Generate high-quality multilingual embeddings for search and RAG. Cohere Embed v3 supports 100+ languages with specialized modes for documents, queries, and classification.

by Prompt Lab·97 views
$ tokrepo install cohere-embed-multilingual-ai-embeddings-api-dde04e91
Skill#07
Together AI Embeddings & Reranking Skill for Agents

Skill that teaches Claude Code Together AI's embeddings and reranking API. Covers dense vector generation, semantic search, RAG pipelines, and result reranking patterns.

by Together AI·122 views
$ tokrepo install together-ai-embeddings-reranking-skill-agents-da3bf81c
FAQ

Questions fréquentes

Ces vector DBs sont-elles gratuites ?

Cinq sur sept oui : Chroma, Weaviate, txtai et le serveur Qdrant MCP sont open-source sous licences permissives ; vous payez uniquement le compute. Pinecone est managé seul avec un tier starter gratuit (100k vecteurs) ; Cohere et Together facturent par million de tokens sur les appels embedding. Le pack documente les prix OSS et payants pour que vous choisissiez sans surprise.

En quoi cela diffère-t-il du pack rag-pipelines ?

Ce pack est la couche stockage — ce qui contient les vecteurs. Le pack rag-pipelines est l'orchestration au-dessus : chunking, réécriture de requête, ensemble de retrievers et reranking. Vous choisissez un vector DB une fois et le changez rarement ; vous tunez les paramètres RAG constamment. Les garder comme packs séparés vous permet d'upgrader chacun indépendamment.

Ça fonctionnera avec Claude Code ou Cursor ?

Oui. Qdrant fournit un serveur MCP pour que Claude Code interroge le store vectoriel comme un outil — appelez qdrant.search() depuis n'importe quel prompt agent. Chroma et Weaviate ont des serveurs MCP communautaires couverts dans les packs Modern CLI Toolbelt et MCP Server Stack. Les utilisateurs Cursor utilisent les mêmes serveurs via intégration MCP standard.

Différence entre Pinecone et Qdrant en production ?

Pinecone est entièrement managé avec latence p95 prévisible et scaling zero-ops, mais le prix par-pod monte fortement passé 50M vecteurs. Qdrant tourne partout — votre laptop, Kubernetes ou Qdrant Cloud — et mène constamment ANN-Benchmarks pour le recall à QPS élevé. Choisissez Pinecone si votre équipe est petite et le budget le permet ; choisissez Qdrant si vous avez besoin d'auto-héberger ou êtes sensible au coût à l'échelle.

Piège opérationnel en migrant entre vector DBs ?

Les vecteurs ne sont pas portables entre modèles d'embedding, mais ils sont portables entre DBs si le modèle reste le même. La plupart des migrations cassent parce que les équipes ont touché au pipeline d'embedding (taille chunk, version modèle) pendant le move. Verrouillez le pipeline d'abord, snapshotez les embeddings vers S3, migrez la DB, validez que des requêtes échantillon retournent des IDs identiques — puis itérez sur le pipeline.

PLUS DANS L'ARSENAL

12 packs · 80+ ressources sélectionnées

Découvrez tous les packs curatés sur la page d'accueil

Retour à tous les packs