Configs2026年5月8日·1 分钟阅读

PostHog Feature Flags — Gradually Roll Out AI Features

PostHog Feature Flags toggle features by user, cohort, or percentage. Wrap LLM features behind a flag, A/B different prompts, kill switch on incidents.

Agent 就绪

这个资产可以被 Agent 直接读取和安装

TokRepo 同时提供通用 CLI 命令、安装契约、metadata JSON、按适配器生成的安装计划和原始内容链接,方便 Agent 判断适配度、风险和下一步动作。

Stage only · 17/100Stage only
Agent 入口
任意 MCP/CLI Agent
类型
Skill
安装
Stage only
信任
信任等级:New
入口
Asset
通用 CLI 安装命令
npx tokrepo install 8d278dd2-b995-4e62-aa95-b4579a34538d

简介

PostHog Feature Flag 按用户、群组、或推出百分比切换功能。把新 LLM 功能包在 flag 后面,一周内 1% → 5% → 20% → 100% 灰度,Helicone 显示错误飙升时立刻关停。适合任何向真实用户发 LLM 功能、不想 yolo 部署的团队。兼容 20+ 语言的 PostHog SDK,服务端和客户端都行。装机时间 5 分钟。


在 PostHog 里定义 flag

PostHog → Feature Flags → 新建 flag:

  • Key:new-summarization-model
  • Rollout:5% 用户(按 distinct_id 粘性)
  • 覆盖:内部员工群组永远启用
  • Variant flag(A/B):50/50 在 claude-sonnetgpt-4o 间分流

服务端(Python)

import posthog

posthog.api_key = os.environ["POSTHOG_API_KEY"]

def summarize(text: str, user_id: str):
    variant = posthog.get_feature_flag(
        "new-summarization-model",
        distinct_id=user_id,
    )

    if variant == "claude-sonnet":
        return claude.summarize(text)
    elif variant == "gpt-4o":
        return openai_summarize(text)
    else:
        return legacy_summarize(text)  # 对照组

客户端(TypeScript)

import posthog from "posthog-js";

posthog.init("phc_...", { api_host: "https://us.posthog.com" });

if (posthog.isFeatureEnabled("show-ai-chat")) {
  renderChatWidget();
}

const variant = posthog.getFeatureFlag("new-summarization-model");
// "claude-sonnet" | "gpt-4o" | undefined(对照组)

跟 LLM 可观测性结合

flag + LLM trace 用同一个 distinct_id,端到端:

PostHog 仪表盘:
  - 群组:`new-summarization-model = claude-sonnet`(5% 灰度)的用户
  - LLM 成本 p50:$0.012 / 次
  - LLM 错误率:0.3%
  - 用户满意度(自定义事件):4.6/5

  - 群组:`new-summarization-model = gpt-4o`(5% 灰度)的用户
  - LLM 成本 p50:$0.018 / 次
  - LLM 错误率:1.2%
  - 用户满意度:4.4/5

  → 把 claude-sonnet 提到 100%

Kill switch

# 事故 playbook 里
posthog.update_feature_flag("new-summarization-model", { "active": False })

30 秒内所有服务端 / 客户端 SDK 看到 flag 关停,代码回退到对照分支。不用部署。


FAQ

Q: Kill switch 多快? A: 服务端 SDK 默认每 30 秒轮询。客户端下次页面加载更新。要 30s 以下反应,切到 PostHog 的 bootstrap 模式或用 webhook 接到你自己的 kill-switch 基础设施。

Q: Flag 评估免费还是算事件? A: Flag 评估免费。它们算进单独的 decide 配额(比事件配额大得多)。flag 门控代码里的 LLM 调用算普通 LLM 事件。

Q: Edge / serverless 能用吗? A: 能 —— 有 PostHog edge SDK(Cloudflare Workers / Vercel Edge)。极高 RPS 的 edge 用法优先客户端 flag(每请求延迟更低)。


🙏

来源与感谢

Built by PostHog. Licensed under MIT.

PostHog/posthog — ⭐ 24,000+

讨论

登录后参与讨论。
还没有评论,来写第一条吧。

相关资产