Knowledge2026年5月8日·1 分钟阅读

DeepSeek Coder — Code-Specialized Model for Local Inference

DeepSeek Coder is the code-specialized open-weight model with FIM (fill-in-middle) support. Beats Codestral on HumanEval. Drops into Continue, Aider.

Agent 就绪

这个资产可以被 Agent 直接读取和安装

TokRepo 同时提供通用 CLI 命令、安装契约、metadata JSON、按适配器生成的安装计划和原始内容链接,方便 Agent 判断适配度、风险和下一步动作。

Stage only · 15/100Stage only
Agent 入口
任意 MCP/CLI Agent
类型
Knowledge
安装
Stage only
信任
信任等级:New
入口
Asset
通用 CLI 安装命令
npx tokrepo install 08acf3a7-b56b-40d2-9c94-9a8eb773eca4

简介

DeepSeek Coder 是代码专用开源权重模型 —— 在 2 万亿 token 的代码上训练,覆盖 100+ 语言,原生支持 fill-in-middle(FIM)做 tab 补全。在 HumanEval 和 MBPP 上胜过 Codestral 持平 GPT-4o,成本只是后者一小部分。适合 Continue / Cursor 本地模式的本地 tab 补全、代码重的生产 agent 需要便宜推理。兼容 Ollama / vLLM / llama.cpp / DeepSeek API / Continue / Aider。装机时间 2 分钟。


Ollama 本地

ollama pull deepseek-coder:6.7b   # ~4GB,多数笔记本能跑
ollama pull deepseek-coder:33b    # ~20GB,M3 Pro / 4090 级

# 快速测试
ollama run deepseek-coder:6.7b
> Write a Rust function that returns the Nth Fibonacci with memoization.

在 Continue 里当 tab 补全

// Continue 的 config.json
{
  "tabAutocompleteModel": {
    "title": "DeepSeek Coder",
    "provider": "ollama",
    "model": "deepseek-coder:6.7b",
    "apiBase": "http://localhost:11434"
  },
  "models": [
    {
      "title": "DeepSeek Coder Chat",
      "provider": "ollama",
      "model": "deepseek-coder:33b"
    }
  ]
}

配 Aider

# 托管
export DEEPSEEK_API_KEY=sk-...
aider --model deepseek/deepseek-coder

# 本地(BYOK Ollama)
aider --model ollama/deepseek-coder:33b

Fill-in-middle(FIM)格式

DeepSeek Coder 的 tab 补全用特定 FIM 格式:

<|fim_begin|>{prefix}<|fim_hole|>{suffix}<|fim_end|>

Continue / Aider / Cursor 自动处理。手动集成的话用 FIM token —— 补全比裸 prompt 好 10-30%。

价格 & 版本

变体 参数 内存(4-bit) HumanEval Pass@1
deepseek-coder:1.3b 1.3B ~1GB ~38%
deepseek-coder:6.7b 6.7B ~4GB ~58%
deepseek-coder:33b 33B ~20GB ~76%
deepseek-coder-v2:236b(MoE) 236B(21B 激活) 仅 API ~86%
GPT-4o(对比) 仅 API ~90%

托管 API:$0.14 / 百万输入 token —— 最便宜的生产级编码模型。


FAQ

Q: Coder vs 完整 DeepSeek-V3 写代码哪个好? A: Coder 更小、更快、更便宜、懂 FIM —— 最适合本地补全和快速代码问答。V3 更大、更广、跨文件长上下文推理更好。Tab 补全选 Coder。要「理解整个仓库并重构」选 V3。

Q: 能微调 DeepSeek Coder 吗? A: 能 —— 开源权重意味着标准 LoRA / QLoRA 工具(axolotl / unsloth / trl)都能用。6.7B 变体的 LoRA 在单张 24GB GPU 上可行。

Q: V2 MoE coder 本地能用吗? A: V2 236B MoE 权重开源,但尺寸让单机本地不实际。通过 DeepSeek API 或 Together / Fireworks 租 GPU 时间。33B dense 版本是本地友好的甜点。


🙏

来源与感谢

Built by DeepSeek. Weights MIT-licensed.

deepseek-ai/DeepSeek-Coder — ⭐ 23,000+

讨论

登录后参与讨论。
还没有评论,来写第一条吧。

相关资产