Frameworks de Agentes en Varios Lenguajes
Spring AI para Java, LangChain4j, Candle para Rust, Mastra para TypeScript, FastHTML para Python, Axum para APIs Rust — agentes en cada stack.
Qué incluye este pack
Este pack reúne los seis frameworks de agente que permiten a los equipos quedarse en su ecosistema de lenguaje existente en vez de atornillar un servicio Python a un backend Java o Rust solo por features LLM. La lista cubre los cuatro lenguajes donde está pasando trabajo serio de agentes fuera de Python: Java, Rust, TypeScript y Python (con FastHTML para rendering full-stack).
| # | Framework | Lenguaje | Mejor para |
|---|---|---|---|
| 1 | Spring AI | Java | apps Spring Boot añadiendo features LLM |
| 2 | LangChain4j | Java/Kotlin | port comunitario de LangChain a JVM |
| 3 | Candle | Rust | inferencia de modelos local |
| 4 | Mastra | TypeScript | framework agente + workflow TS full-stack |
| 5 | FastHTML | Python | UIs Python server-rendered para agentes |
| 6 | Axum | Rust | APIs de agente alta-throughput |
El pack refleja la realidad de que las features LLM ahora se envían en cada backend, no solo en Python. Un backend Spring Boot de e-commerce no quiere levantar un servicio FastAPI separado para un chat — Spring AI vive en la misma JVM. Un API gateway Rust no quiere un sidecar Python — Axum + Candle compilan en un binario.
Por qué importa lo language-native
El mundo agente Python-first (LangChain, LangGraph, CrewAI) es genial si Python ya es tu stack primario. Si eres una tienda Java, enfrentas tres opciones malas sin este pack:
- Correr un servicio Python sidecar (despliegue extra, observabilidad separada, marshalling JSON entre dos procesos).
- Usar un gateway LLM SaaS (lock-in de vendor, latencia, tarifas).
- Hacer a mano llamadas HTTP a OpenAI dentro de tus controllers Spring (sin abstracciones, sin framework de eval, sin loop de agente).
Spring AI y LangChain4j arreglan esto. Le dan a Java las mismas primitivas — modelos chat, tool calling, plantillas de prompt, vector stores, loops de agente — que LangChain le da a Python, con DSLs idiomáticos Spring o Kotlin. Lo mismo para Rust (Candle para inferencia, Axum para superficie API) y TypeScript (Mastra para el framework).
El trade-off es lag de features. LangChain envía integración a un nuevo modelo el día uno; Spring AI tarda semanas; LangChain4j a veces alcanza más rápido que Spring AI por ser community-driven. Planifica para "el modelo se lanzó ayer y solo Python lo tiene" siendo un escenario real.
Instala en un comando
# Instala el pack — pone proyecto starter para cada framework
tokrepo install pack/agent-frameworks-multilang
# O elige por lenguaje
tokrepo install spring-ai
tokrepo install langchain4j
tokrepo install mastra
tokrepo install candle
El TokRepo CLI maneja el package manager de cada ecosistema — Maven para Spring AI y LangChain4j, Cargo para Candle y Axum, npm/pnpm para Mastra, uv para FastHTML. Los proyectos starter incluyen un test que llama a un modelo real para verificar API keys antes de escribir lógica.
Trampas comunes
- Spring AI vs LangChain4j no es "oficial vs no oficial." Spring AI es de VMware/Broadcom; LangChain4j es comunitario. Ambos se usan ampliamente. Elige por paridad de features con el modelo que usas y preferencia ergonómica (Spring DSL vs semántica LangChain).
- Mastra es joven. Está bien mantenido pero la API ha cambiado entre minor releases. Fija una versión específica y lee release notes antes de actualizar. Los usuarios de producción típicamente esperan dos minor releases antes de actualizar.
- Candle es para inferencia, no orquestación. Corre modelos localmente (Llama, Mistral, etc) y te da embeddings — pero no es un framework de agente completo. Empareja con Axum para la capa API si quieres un stack Rust-only.
- FastHTML está basado en HTMX. No es un framework SPA. Si tu equipo espera React o Vue, FastHTML se sentirá ajeno. Es perfecto cuando quieres UIs Python server-rendered cableadas directamente a agentes sin un repo frontend separado.
- Los formatos de tool calling difieren. OpenAI, Anthropic y Gemini todos tienen JSON schemas distintos para tool calls. Cada framework abstrae esto distinto — anotación
@Toolde Spring AI,@Toolcon reflection de LangChain4j,createTool()tipado de Mastra. No asumas que una definición de tool porta entre frameworks.
Cuándo este pack solo no es suficiente
Este pack te da el runtime en tu lenguaje. Aún necesitarás:
- Un proveedor LLM. OpenAI, Anthropic, Bedrock, o auto-hospedado via Ollama. Los seis frameworks soportan múltiples proveedores via configuración.
- Almacenamiento vector si haces RAG. Ver el pack Vector DB Showdown — la mayoría de entradas tienen clientes nativos en Java, Rust y TS.
- Pipeline de eval. Promptfoo del pack LLM Eval & Guardrails corre lenguaje-agnóstico — apúntalo a tu endpoint sin importar el backend.
Para stacks Python-only donde multilang no es la pregunta, ver Frameworks Agentes Python. Para comparación lado-a-lado agnóstica de plataforma sin elegir lenguaje, ver Frameworks Multi-Agente.
6 recursos listos para instalar
Preguntas frecuentes
¿Estos frameworks son gratis?
Los seis son Apache 2.0 o MIT open-source — sin costos por asiento del framework. Pagarás por las llamadas API LLM (OpenAI, Anthropic, etc) sin importar el lenguaje. Spring AI es de Broadcom pero gratis; LangChain4j es community-driven y gratis; Mastra tiene VC con open-source gratis más cloud opcional. Candle, Axum, FastHTML son OSS puros.
¿Cómo compara Spring AI con LangChain4j?
Spring AI es la respuesta canónica del equipo Spring — integración estrecha con Spring Boot autoconfig, Spring Data, Spring Security. LangChain4j es comunitario y porta el modelo conceptual de LangChain (chains, agents, callbacks) a Java con cobertura de features más amplia. Spring AI si eres tienda Spring y quieres modismos canónicos; LangChain4j si quieres el modelo mental LangChain en JVM con máxima amplitud de integración.
¿Funcionará alguno con Claude Code o Cursor?
Estos son frameworks runtime, no integraciones de editor. Los frameworks corren dentro de tu servicio (Spring Boot, binario Axum, app Mastra). Tu editor (Claude Code, Cursor) ayuda a escribir código del framework. Cursor y Claude Code tienen soporte decente para Java/Rust/TS, con Spring AI obteniendo buen autocomplete del plugin Spring IDE de JetBrains.
¿Diferencia vs el pack Python Agent Frameworks?
Python Agent Frameworks es Python-only — cinco frameworks corriendo en CPython. Este pack es lo opuesto: surface las opciones no-Python. Si estás comprometido con Python, ese pack es más denso; si estás en Java/Rust/TS o eligiendo lenguaje, este pack es el punto de inicio correcto. Los dos packs son complementarios, no se solapan.
¿Cuál es la trampa operacional con Mastra?
Mastra tiene una opinión fuerte de que los workflows viven junto a los agentes en el mismo proyecto, con tipos compartidos. Esto es genial para un codebase limpio pero acopla apretadamente tu motor de workflow a la versión del framework de agente. Si actualizas Mastra y un workflow se rompe, no puedes rollback el agente sin rollback el workflow. Planea una etapa de testing separada para bumps de versión Mastra.
12 packs · 80+ recursos seleccionados
Explora todos los packs curados en la página principal
Volver a todos los packs