TOKREPO · ARSENAL
Estable

Frameworks de Agentes en Varios Lenguajes

Spring AI para Java, LangChain4j, Candle para Rust, Mastra para TypeScript, FastHTML para Python, Axum para APIs Rust — agentes en cada stack.

6 recursos

Qué incluye este pack

Este pack reúne los seis frameworks de agente que permiten a los equipos quedarse en su ecosistema de lenguaje existente en vez de atornillar un servicio Python a un backend Java o Rust solo por features LLM. La lista cubre los cuatro lenguajes donde está pasando trabajo serio de agentes fuera de Python: Java, Rust, TypeScript y Python (con FastHTML para rendering full-stack).

# Framework Lenguaje Mejor para
1 Spring AI Java apps Spring Boot añadiendo features LLM
2 LangChain4j Java/Kotlin port comunitario de LangChain a JVM
3 Candle Rust inferencia de modelos local
4 Mastra TypeScript framework agente + workflow TS full-stack
5 FastHTML Python UIs Python server-rendered para agentes
6 Axum Rust APIs de agente alta-throughput

El pack refleja la realidad de que las features LLM ahora se envían en cada backend, no solo en Python. Un backend Spring Boot de e-commerce no quiere levantar un servicio FastAPI separado para un chat — Spring AI vive en la misma JVM. Un API gateway Rust no quiere un sidecar Python — Axum + Candle compilan en un binario.

Por qué importa lo language-native

El mundo agente Python-first (LangChain, LangGraph, CrewAI) es genial si Python ya es tu stack primario. Si eres una tienda Java, enfrentas tres opciones malas sin este pack:

  1. Correr un servicio Python sidecar (despliegue extra, observabilidad separada, marshalling JSON entre dos procesos).
  2. Usar un gateway LLM SaaS (lock-in de vendor, latencia, tarifas).
  3. Hacer a mano llamadas HTTP a OpenAI dentro de tus controllers Spring (sin abstracciones, sin framework de eval, sin loop de agente).

Spring AI y LangChain4j arreglan esto. Le dan a Java las mismas primitivas — modelos chat, tool calling, plantillas de prompt, vector stores, loops de agente — que LangChain le da a Python, con DSLs idiomáticos Spring o Kotlin. Lo mismo para Rust (Candle para inferencia, Axum para superficie API) y TypeScript (Mastra para el framework).

El trade-off es lag de features. LangChain envía integración a un nuevo modelo el día uno; Spring AI tarda semanas; LangChain4j a veces alcanza más rápido que Spring AI por ser community-driven. Planifica para "el modelo se lanzó ayer y solo Python lo tiene" siendo un escenario real.

Instala en un comando

# Instala el pack — pone proyecto starter para cada framework
tokrepo install pack/agent-frameworks-multilang

# O elige por lenguaje
tokrepo install spring-ai
tokrepo install langchain4j
tokrepo install mastra
tokrepo install candle

El TokRepo CLI maneja el package manager de cada ecosistema — Maven para Spring AI y LangChain4j, Cargo para Candle y Axum, npm/pnpm para Mastra, uv para FastHTML. Los proyectos starter incluyen un test que llama a un modelo real para verificar API keys antes de escribir lógica.

Trampas comunes

  • Spring AI vs LangChain4j no es "oficial vs no oficial." Spring AI es de VMware/Broadcom; LangChain4j es comunitario. Ambos se usan ampliamente. Elige por paridad de features con el modelo que usas y preferencia ergonómica (Spring DSL vs semántica LangChain).
  • Mastra es joven. Está bien mantenido pero la API ha cambiado entre minor releases. Fija una versión específica y lee release notes antes de actualizar. Los usuarios de producción típicamente esperan dos minor releases antes de actualizar.
  • Candle es para inferencia, no orquestación. Corre modelos localmente (Llama, Mistral, etc) y te da embeddings — pero no es un framework de agente completo. Empareja con Axum para la capa API si quieres un stack Rust-only.
  • FastHTML está basado en HTMX. No es un framework SPA. Si tu equipo espera React o Vue, FastHTML se sentirá ajeno. Es perfecto cuando quieres UIs Python server-rendered cableadas directamente a agentes sin un repo frontend separado.
  • Los formatos de tool calling difieren. OpenAI, Anthropic y Gemini todos tienen JSON schemas distintos para tool calls. Cada framework abstrae esto distinto — anotación @Tool de Spring AI, @Tool con reflection de LangChain4j, createTool() tipado de Mastra. No asumas que una definición de tool porta entre frameworks.

Cuándo este pack solo no es suficiente

Este pack te da el runtime en tu lenguaje. Aún necesitarás:

  • Un proveedor LLM. OpenAI, Anthropic, Bedrock, o auto-hospedado via Ollama. Los seis frameworks soportan múltiples proveedores via configuración.
  • Almacenamiento vector si haces RAG. Ver el pack Vector DB Showdown — la mayoría de entradas tienen clientes nativos en Java, Rust y TS.
  • Pipeline de eval. Promptfoo del pack LLM Eval & Guardrails corre lenguaje-agnóstico — apúntalo a tu endpoint sin importar el backend.

Para stacks Python-only donde multilang no es la pregunta, ver Frameworks Agentes Python. Para comparación lado-a-lado agnóstica de plataforma sin elegir lenguaje, ver Frameworks Multi-Agente.

INSTALAR · UN COMANDO
$ tokrepo install pack/agent-frameworks-multilang
pásalo a tu agente — o pégalo en tu terminal
Qué incluye

6 recursos listos para instalar

Skill#01
Spring AI — AI Engineering for Java/Spring

Spring AI provides Spring-friendly APIs for AI apps. 8.4K+ stars. Chat, embeddings, RAG, vector DBs, function calling. Major providers. Apache 2.0.

by Skill Factory·109 views
$ tokrepo install spring-ai-ai-engineering-java-spring-98ae1961
Skill#02
LangChain4j — LLM Integration for Java

LangChain4j integrates 20+ LLM providers and 30+ vector stores into Java apps. 11.4K+ stars. Unified API, RAG, MCP, Spring Boot. Apache 2.0.

by LangChain·98 views
$ tokrepo install langchain4j-llm-integration-java-f7069ed9
Config#03
Candle — Minimalist Machine Learning Framework for Rust

Candle is a Rust-native ML framework focused on inference performance, small binaries, and serverless deployment. It runs Llama, Whisper, Stable Diffusion, and other PyTorch models in pure Rust — no Python required.

by AI Open Source·124 views
$ tokrepo install candle-minimalist-machine-learning-framework-rust-b113c394
Skill#04
FastHTML — Build AI Web Apps in Pure Python

Modern Python web framework that generates HTML from Python functions. No JavaScript, no templates. Perfect for building AI tool dashboards and agent UIs rapidly.

by Skill Factory·90 views
$ tokrepo install fasthtml-build-ai-web-apps-pure-python-143825f7
Script#05
Mastra — TypeScript AI Agent Framework

Production TypeScript framework for building AI agents with tool use, workflows, RAG, and memory. First-class MCP support. Deploy anywhere Node.js runs. 9,000+ GitHub stars.

by Agent Toolkit·118 views
$ tokrepo install mastra-typescript-ai-agent-framework-3e118616
Script#06
Axum — Ergonomic Modular Web Framework for Rust

Axum is a web application framework built on Tokio, Tower, and Hyper. Focuses on ergonomics and modularity with a macro-free routing API, seamless Tower middleware integration, and type-safe extractors. The official Tokio team web framework.

by Script Depot·128 views
$ tokrepo install axum-ergonomic-modular-web-framework-rust-412ff341
FAQ

Preguntas frecuentes

¿Estos frameworks son gratis?

Los seis son Apache 2.0 o MIT open-source — sin costos por asiento del framework. Pagarás por las llamadas API LLM (OpenAI, Anthropic, etc) sin importar el lenguaje. Spring AI es de Broadcom pero gratis; LangChain4j es community-driven y gratis; Mastra tiene VC con open-source gratis más cloud opcional. Candle, Axum, FastHTML son OSS puros.

¿Cómo compara Spring AI con LangChain4j?

Spring AI es la respuesta canónica del equipo Spring — integración estrecha con Spring Boot autoconfig, Spring Data, Spring Security. LangChain4j es comunitario y porta el modelo conceptual de LangChain (chains, agents, callbacks) a Java con cobertura de features más amplia. Spring AI si eres tienda Spring y quieres modismos canónicos; LangChain4j si quieres el modelo mental LangChain en JVM con máxima amplitud de integración.

¿Funcionará alguno con Claude Code o Cursor?

Estos son frameworks runtime, no integraciones de editor. Los frameworks corren dentro de tu servicio (Spring Boot, binario Axum, app Mastra). Tu editor (Claude Code, Cursor) ayuda a escribir código del framework. Cursor y Claude Code tienen soporte decente para Java/Rust/TS, con Spring AI obteniendo buen autocomplete del plugin Spring IDE de JetBrains.

¿Diferencia vs el pack Python Agent Frameworks?

Python Agent Frameworks es Python-only — cinco frameworks corriendo en CPython. Este pack es lo opuesto: surface las opciones no-Python. Si estás comprometido con Python, ese pack es más denso; si estás en Java/Rust/TS o eligiendo lenguaje, este pack es el punto de inicio correcto. Los dos packs son complementarios, no se solapan.

¿Cuál es la trampa operacional con Mastra?

Mastra tiene una opinión fuerte de que los workflows viven junto a los agentes en el mismo proyecto, con tipos compartidos. Esto es genial para un codebase limpio pero acopla apretadamente tu motor de workflow a la versión del framework de agente. Si actualizas Mastra y un workflow se rompe, no puedes rollback el agente sin rollback el workflow. Planea una etapa de testing separada para bumps de versión Mastra.

MÁS DEL ARSENAL

12 packs · 80+ recursos seleccionados

Explora todos los packs curados en la página principal

Volver a todos los packs