Workflows2026年4月8日·1 分钟阅读

Bifrost CLI — Run Claude Code with Any AI Model

Enterprise AI gateway that lets Claude Code use any LLM provider. Bifrost routes requests to OpenAI, Gemini, Bedrock, Groq, and 20+ providers with automatic failover.

AI
AI Open Source · Community
快速使用

先拿来用,再决定要不要深挖

这里应该同时让用户和 Agent 知道第一步该复制什么、安装什么、落到哪里。

npx -y @maximhq/bifrost
claude mcp add --transport http bifrost http://localhost:8080/mcp

让 Claude Code 使用任何 AI 模型供应商。

什么是 Bifrost CLI?

Bifrost 是企业级 AI 网关,统一 20+ 供应商的 API,让 Claude Code 按需切换模型。支持自动故障转移、语义缓存和按层级覆盖模型。

一句话总结:AI 网关,Claude Code 使用任何供应商(OpenAI/Gemini/Bedrock/Groq 等 20+),自动故障转移,语义缓存,亚 100 微秒开销,3.6k+ stars。

适合人群:需要模型灵活性和供应商冗余的团队。

核心功能

1. 按层级覆盖模型

Opus/Sonnet/Haiku 各用不同供应商的模型。

2. 自动故障转移

主供应商失败自动切换备用。

3. 实时监控

仪表盘追踪请求、延迟、成本。

常见问题

Q: 和 LiteLLM 比? A: Bifrost 声称快 50x,亚 100 微秒开销。

来源与致谢

maximhq/bifrost — 3.6k+ stars, Apache 2.0

讨论

登录后参与讨论。
还没有评论,来写第一条吧。

相关资产