简介
TokenCost 是一个客户端 token 计数和美元成本估算库,支持 400+ LLM 模型,GitHub 2,000+ star。使用 tiktoken 计算提示和完成的精确费用,支持 OpenAI、Anthropic Claude、Google Gemini、Mistral、DeepSeek、Groq 和 AWS Bedrock。适合需要追踪和优化 API 开支的 AI Agent 开发者。
TokenCost — 精确计算你的 AI 开支
支持的提供商(400+ 模型)
| 提供商 | 模型 |
|---|---|
| OpenAI | GPT-4o, GPT-4, o1, o3 等 |
| Anthropic | Claude Opus, Sonnet, Haiku |
| Gemini Pro, Flash, Ultra | |
| Mistral | Large, Medium, Small |
| DeepSeek | Chat, Coder |
使用示例
from tokencost import calculate_prompt_cost, calculate_completion_cost
# 聊天消息格式
messages = [
{"role": "user", "content": "写一首关于编程的俳句"}
]
cost = calculate_prompt_cost(messages, "gpt-4o")
print(f"对话成本: ${cost}")FAQ
Q: TokenCost 是什么? A: 一个 Python 库,客户端 token 计数和美元成本估算,支持 400+ LLM 模型。
Q: 免费吗? A: 完全免费开源,MIT 许可。不需要 API 密钥即可计算成本。