Segundo Cerebro IA
Notas Logseq, búsqueda Khoj, marcadores Karakeep + Linkwarden, workspace AFFiNE, ingestor MarkItDown — todo lo que lees en un grafo consultable.
Qué incluye este pack
Este pack reúne las seis herramientas auto-alojadas que forman juntas un grafo de conocimiento personal consultable por IA — el patrón "segundo cerebro" que Tiago Forte popularizó, pero con la capa de búsqueda IA que finalmente hace al cerebro útil en vez de un cementerio de artículos guardados.
| # | Recurso | Rol | Qué resuelve |
|---|---|---|---|
| 1 | Logseq | Notas | Editor outline local-first con enlaces bidireccionales |
| 2 | Khoj | Búsqueda IA | Búsqueda semántica + chat sobre todas tus notas y docs |
| 3 | Karakeep | Marcadores | Reemplazo Pocket auto-alojado con auto-tagging IA |
| 4 | Linkwarden | Marcadores | Marcado en colecciones con archivado de página completa |
| 5 | AFFiNE | Workspace | Editor de bloques estilo Notion con modo whiteboard |
| 6 | MarkItDown | Ingesta | Tool Microsoft que convierte PDF/Word/PPT a Markdown limpio |
La división entre Karakeep y Linkwarden es deliberada: Karakeep optimiza para tagging IA y captura rápida, Linkwarden optimiza para archivado de página completa (snapshots estilo Wayback para que enlaces muertos no maten tu conocimiento). La mayoría corre ambos, con Karakeep manejando la firehose diaria y Linkwarden archivando referencias canónicas.
Por qué un segundo cerebro importa ahora
Tres cambios hacen que este stack sea mucho más útil que el setup solo-Notion era 2020:
- La búsqueda IA hace que las notas valgan la pena. Pre-LLM, tu base de conocimiento solo era útil si recordabas que existía y podías frasear una query. La búsqueda semántica de Khoj significa que puedes preguntar "¿qué decía aquel paper sobre context windows RAG sobre chunking?" y obtener la respuesta aunque lo guardaras como
random_pdf_3.pdf. - Local-first significa que privacidad no es tradeoff. Logseq guarda su grafo como archivos Markdown planos en una carpeta que controlas. Khoj corre local contra tu Ollama o similar — ninguna nota privada sale de tu máquina. Notion AI manda cada query a OpenAI; este stack no.
- MarkItDown cierra el gap de import. La parte más dura de cualquier segundo cerebro siempre fue meter los inputs. MarkItDown convierte PDFs, Word, PowerPoint, incluso transcripts YouTube a Markdown limpio que Logseq y Khoj indexan nativo.
Instala en un comando
# Instala el pack completo en el proyecto actual
tokrepo install pack/ai-second-brain
# O elige recursos individuales
tokrepo install logseq
tokrepo install khoj
El TokRepo CLI configura Docker Compose para las herramientas server-side (Khoj, Karakeep, Linkwarden, AFFiNE), suelta config Logseq en tu directorio grafo existente, e instala MarkItDown como CLI por el que puedes pipear archivos. Un directorio ~/brain/ se vuelve el mountpoint canónico para todo.
Errores comunes
- Tratar páginas Logseq como archivos. Los enlaces bidireccionales Logseq se rompen si renombras páginas fuera de la app — las referencias entrantes siguen apuntando al nombre viejo. Usa el rename in-app o un plugin Logseq para refactorizar; nunca
mvlos archivos markdown. - Khoj indexando el disco entero. Por defecto Khoj indexa todo lo que apuntes. No lo dejes escanear ~/Downloads o tus repos git de trabajo — indexa un directorio curado
~/brain/, o tendrás resultados ruidosos y reindexes lentos. - Karakeep sin política de tagging. El auto-tagging IA es excelente pero inconsistente entre sesiones. Define 10-20 tags top-level estables (
#paper,#tutorial,#tool,#person) y deja que la IA llene subtags. Si no, tendrás 400 tags de un solo uso al año. - Archivo página completa Linkwarden en cada enlace. Los archivos full-page consumen disco real (5-50 MB cada uno). Habilita archivado selectivamente para colecciones que de verdad quieres que sobrevivan al link rot — links de noticias diarias no.
- AFFiNE como única superficie de escritura. AFFiNE es genial para multimedia y whiteboarding pero su export texto plano es áspero. Para trabajo texto-pesado que querrás consultar luego, escribe en Logseq (Markdown nativo) y embebe páginas Logseq en AFFiNE para layout rico cuando presentes.
Flujo recomendado
Un flujo típico de captura de conocimiento se ve así. Lees un artículo en tu navegador; la extensión Karakeep lo agarra, IA lo etiqueta #paper #ml. Una vez por semana triajeas Karakeep — promueve los keepers a Linkwarden para archivo permanente. Los PDFs importantes pasan por MarkItDown a ~/brain/clippings/. Notas diarias y resúmenes de reuniones viven en Logseq con tags [[Nombre Persona]] y [[Proyecto]]. Khoj indexa el conjunto cada noche.
Cuando necesitas recordar, no intentas recordar dónde vive. Le preguntas a Khoj "¿cuál era el argumento sobre routing MoE en aquel paper de enero?" y surface la nota correcta más el PDF fuente.
6 recursos listos para instalar
Preguntas frecuentes
¿Es gratis correr todo el pack?
Sí. Las seis herramientas son open source bajo licencias permisivas o AGPL; auto-hospedas. El tier online de Khoj es pago por conveniencia gestionada, pero el motor core corre gratis contra Ollama o cualquier LLM local. Los requisitos compute son modestos — Logseq es solo cliente, el indexador Khoj cabe en una Raspberry Pi, el resto corren en contenedores Docker ligeros. El almacén es la variable: archivos página-completa en Linkwarden crecen más rápido.
¿Cómo se compara con Notion AI o Mem?
Notion AI es más rápido de empezar y tiene apps móviles más pulidas, pero todo lo que escribes va a OpenAI para features IA y a servidores Notion para almacenar. El pack aquí te da 80% de la capacidad IA auto-alojado con cero datos saliendo de tu red — al coste de correr contenedores Docker tú. Mem es más cercano en espíritu (notas IA-native) pero es closed-source y solo SaaS. Elige gestionado si conveniencia gana a privacidad; elige este pack si tus notas tienen algo sensible.
¿Funcionará con Claude Code o Cursor?
Sí. Khoj tiene un servidor MCP y una API compatible OpenAI, así que Claude Code puede consultar tu segundo cerebro como herramienta — útil cuando quieres que el agente fundamente respuestas en tu investigación previa en vez de re-Googlear. Logseq tiene un MCP comunitario que permite a agentes leer y escribir directo a tu grafo. Las páginas recurso TokRepo documentan el cableado por herramienta.
¿Qué diferencia a Karakeep de Linkwarden?
Karakeep es captura-first con tagging IA fuerte y extensión browser rápida — mejor para los 50 enlaces al día que guardas de paso. Linkwarden es archivo-first con árboles de colección y snapshots página-completa — mejor para el conjunto curado que quieres que sobreviva al sitio original. Se solapan, pero el flujo recomendado usa Karakeep como inbox, Linkwarden como referencia canónica.
¿Trampa operativa al correr este stack?
Backups. La mayoría descubre que su estrategia de backup está rota justo cuando la necesita — el grafo Logseq son archivos locales (backup el directorio), Khoj tiene su propio SQLite + índice vectorial (snapshot el data dir), Karakeep y Linkwarden corren su propio Postgres. Configura un job nocturno único que snapshotee los cuatro, copie a S3 o B2, y testea restore una vez por trimestre. El pack trae un template backup.sh.
12 packs · 80+ recursos seleccionados
Explora todos los packs curados en la página principal
Volver a todos los packs