Qwen团队已宣布推出Qwen3-Coder,这是一个全新的代理代码模型家族,专为长上下文和多步骤编程任务而设计。最强大的版本Qwen3-Coder-480B-A35B-Instruct是一个专家混合模型,总参数量达到4800亿,每次前向传递有350亿活跃参数。它本地支持256K个标记,并通过上下文扩展支持多达100万个标记,旨在处理存储库规模的输入和扩展的工具交互。
与静态代码生成模型不同,Qwen3-Coder强调执行和决策。该模型通过在广泛的现实任务上使用强化学习进行后期训练,成功的标准是生成的代码是否能够运行并解决问题。Qwen称这种方法为“难以解决,易于验证”,旨在提高模型的稳健性和实用性。
此外,团队扩展了长视野代理强化学习,训练模型在模拟环境中使用工具并响应多轮反馈。为支持这一点,Qwen部署了一个能够在云基础设施上运行20,000个并行环境的系统,从而实现了类似实际开发者活动的工作流的扩展代理训练。
为支持实验,Qwen发布了Qwen Code,这是一个从Gemini CLI分叉而来的开源命令行界面。它具有自定义提示结构和增强的工具使用及函数调用支持。该工具可以通过npm安装,并支持OpenAI兼容的API。
此外,Claude Code用户可以通过代理或路由器配置选项通过DashScope路由请求。这提供了一个熟悉的编码界面,同时可以在多模型设置中评估Qwen3-Coder的输出。
CLI工具兼容Cline、Node.js和Python环境,具有完整的环境变量和API支持。
Qwen3-Coder目前通过DashScope的API提供。中国大陆以外的开发者可以使用国际端点,并提供了快速集成的Python示例代码。预计很快会发布更多的模型尺寸,重点是保持性能的同时降低推理成本。
一些用户指出,虽然本地部署是可能的,但高效运行较大模型需要显著的基础设施:
除非你有合适的多GPU设置,否则Qwen3-Coder的本地使用并不是省钱的选择。发布较小版本时运行可能会降低费用。根据工作负载需求,平衡GPU成本与云或托管解决方案可能提供更好的方法。电力和维护也是关键因素。
未来的工作包括扩展Qwen编码代理的能力,并探索自我改进机制,使代理能够在最少的人类监督下迭代提高任务性能。