Second Cerveau IA
Notes Logseq, recherche Khoj, favoris Karakeep + Linkwarden, workspace AFFiNE, ingesteur MarkItDown — tout ce que vous lisez dans un graphe interrogeable.
Ce que contient ce pack
Ce pack rassemble les six outils auto-hébergés qui forment ensemble un graphe de connaissance personnel interrogeable par IA — le pattern « second cerveau » popularisé par Tiago Forte, mais avec la couche recherche IA qui rend enfin le cerveau utile au lieu d'un cimetière d'articles sauvegardés.
| # | Ressource | Rôle | Ce qu'il résout |
|---|---|---|---|
| 1 | Logseq | Notes | Éditeur outline local-first avec liens bidirectionnels |
| 2 | Khoj | Recherche IA | Recherche sémantique + chat sur toutes vos notes et docs |
| 3 | Karakeep | Favoris | Remplacement Pocket auto-hébergé avec auto-tagging IA |
| 4 | Linkwarden | Favoris | Bookmarking en collections avec archivage page complète |
| 5 | AFFiNE | Workspace | Éditeur de blocs style Notion avec mode whiteboard |
| 6 | MarkItDown | Ingestion | Outil Microsoft qui convertit PDF/Word/PPT en Markdown propre |
La séparation entre Karakeep et Linkwarden est délibérée : Karakeep optimise le tagging IA et la capture rapide, Linkwarden optimise l'archivage page complète (snapshots style Wayback pour que les liens morts ne tuent pas votre connaissance). La plupart des équipes lancent les deux, avec Karakeep gérant la firehose quotidienne et Linkwarden archivant les références canoniques.
Pourquoi un second cerveau compte maintenant
Trois changements rendent ce stack bien plus utile que le setup uniquement-Notion de 2020 :
- La recherche IA rend les notes utiles à garder. Pré-LLM, votre base de connaissance n'était utile que si vous vous souveniez qu'elle existait et pouviez formuler une requête. La recherche sémantique de Khoj signifie que vous pouvez demander « que disait ce papier sur les fenêtres de contexte RAG à propos du chunking ? » et obtenir la réponse même si vous l'avez sauvé comme
random_pdf_3.pdf. - Local-first signifie que la confidentialité n'est pas un compromis. Logseq stocke son graphe en fichiers Markdown plats dans un dossier que vous contrôlez. Khoj tourne localement contre votre Ollama ou similaire — aucune note privée ne quitte votre machine. Notion AI envoie chaque requête à OpenAI ; ce stack non.
- MarkItDown comble le gap d'import. La partie la plus dure de tout second cerveau a toujours été d'y mettre les inputs. MarkItDown convertit PDFs, Word, PowerPoint, même les transcripts YouTube en Markdown propre que Logseq et Khoj indexent nativement.
Installer en une commande
# Installe le pack entier dans le projet actuel
tokrepo install pack/ai-second-brain
# Ou choisissez des ressources individuelles
tokrepo install logseq
tokrepo install khoj
Le TokRepo CLI configure Docker Compose pour les outils côté serveur (Khoj, Karakeep, Linkwarden, AFFiNE), dépose la config Logseq dans votre répertoire de graphe existant, et installe MarkItDown comme CLI par lequel vous pouvez piper des fichiers. Un répertoire ~/brain/ devient le mountpoint canonique pour tout.
Pièges courants
- Traiter les pages Logseq comme des fichiers. Les liens bidirectionnels Logseq se cassent si vous renommez des pages hors de l'app — les références entrantes restent pointées sur l'ancien nom. Utilisez le rename in-app ou un plugin Logseq pour refactoriser ; jamais
mvles fichiers markdown. - Khoj indexant le disque entier. Par défaut Khoj indexe tout ce que vous lui pointez. Ne le laissez pas scanner ~/Downloads ou vos repos git de travail — indexez un répertoire curé
~/brain/, sinon vous aurez des résultats bruyants et des ré-indexations lentes. - Karakeep sans policy de tagging. L'auto-tagging IA est excellent mais inconsistant entre sessions. Définissez 10-20 tags top-level stables (
#paper,#tutorial,#tool,#person) et laissez l'IA remplir les sous-tags. Sinon vous aurez 400 tags à usage unique en un an. - Archivage page complète Linkwarden sur chaque lien. Les archives page-complète consomment du vrai disque (5-50 MB chacune). Activez l'archivage sélectivement pour les collections que vous voulez vraiment voir survivre au link rot — les liens news quotidiens n'en ont pas besoin.
- AFFiNE comme seule surface d'écriture. AFFiNE est génial pour le multimedia et le whiteboarding mais son export texte brut est rugueux. Pour du travail texte-lourd que vous voudrez interroger plus tard, écrivez dans Logseq (Markdown natif) et intégrez les pages Logseq dans AFFiNE pour le layout riche en présentation.
Workflow recommandé
Un flux typique de capture de connaissance ressemble à ça. Vous lisez un article dans votre navigateur ; l'extension Karakeep le saisit, l'IA le tag #paper #ml. Une fois par semaine vous triez Karakeep — promouvez les keepers vers Linkwarden pour archive permanente. Les PDFs importants passent par MarkItDown vers ~/brain/clippings/. Les notes quotidiennes et résumés de réunion vivent dans Logseq avec tags [[Nom Personne]] et [[Projet]]. Khoj indexe le tout chaque nuit.
Quand vous devez vous rappeler, vous n'essayez pas de vous rappeler où ça vit. Vous demandez à Khoj « quel était l'argument sur le routing MoE dans ce papier de janvier ? » et il fait remonter la bonne note plus le PDF source.
6 ressources prêtes à installer
Questions fréquentes
Le pack est-il gratuit ?
Oui. Les six outils sont open source sous licences permissives ou AGPL ; vous auto-hébergez. Le tier online de Khoj est payant pour la commodité gérée, mais le moteur core tourne gratuit contre Ollama ou tout LLM local. Les besoins compute sont modestes — Logseq est client-only, l'indexeur Khoj tient sur un Raspberry Pi, le reste tourne en conteneurs Docker légers. Le stockage est la variable : les archives page-complète Linkwarden grossissent le plus vite.
Comment ça se compare à Notion AI ou Mem ?
Notion AI démarre plus vite et a des apps mobile plus léchées, mais tout ce que vous écrivez part vers OpenAI pour les features IA et vers les serveurs Notion pour le stockage. Le pack ici donne 80% de la capacité IA auto-hébergé avec zéro donnée quittant le réseau — au prix de tourner des conteneurs Docker vous-mêmes. Mem est plus proche en esprit (notes IA-native) mais closed-source et SaaS-only. Choisissez managé si la commodité prime sur la confidentialité ; choisissez ce pack si vos notes contiennent quoi que ce soit de sensible.
Ça fonctionnera avec Claude Code ou Cursor ?
Oui. Khoj a un serveur MCP et une API compatible OpenAI, donc Claude Code peut interroger votre second cerveau comme outil — utile quand vous voulez que l'agent fonde ses réponses sur vos recherches antérieures plutôt que re-Googler. Logseq a un MCP communautaire qui permet aux agents de lire et écrire directement dans votre graphe. Les pages ressources TokRepo documentent le câblage par outil.
Quelle différence entre Karakeep et Linkwarden ?
Karakeep est capture-first avec tagging IA fort et extension navigateur rapide — meilleur pour les 50 liens par jour que vous sauvez en passant. Linkwarden est archive-first avec arbres de collection et snapshots page-complète — meilleur pour l'ensemble curé que vous voulez voir survivre au site original. Ils se recouvrent, mais le workflow recommandé utilise Karakeep en inbox, Linkwarden en référence canonique.
Piège opérationnel en lançant ce stack ?
Les sauvegardes. La plupart des utilisateurs découvrent que leur stratégie de backup est cassée pile quand ils en ont besoin — le graphe Logseq est en fichiers locaux (sauvegardez le répertoire), Khoj a son propre SQLite + index vectoriel (snapshot le data dir), Karakeep et Linkwarden tournent leur propre Postgres. Configurez un job nocturne unique qui snapshote les quatre, copie vers S3 ou B2, et testez la restore une fois par trimestre. Le pack livre un template backup.sh pour ça.
12 packs · 80+ ressources sélectionnées
Découvrez tous les packs curatés sur la page d'accueil
Retour à tous les packs