亚马逊网络服务公司今日宣布推出全托管的开放权重模型Qwen3和DeepSeek-V3.1加入其AI模型组合。
这些新模型为依赖Amazon Bedrock生成式AI服务的客户提供了更大的灵活性,以满足其不断变化的业务需求。
开放权重模型为开发者提供了更高的模型权重透明度,使得为特定用例定制模型变得更加容易。Amazon Bedrock中的新开放权重模型加入了来自领先开发者的其他模型,包括Meta平台公司、Mistral AI和OpenAI。
这些模型在不同领域各具优势。来自阿里巴巴的Qwen3提供了复杂编码和一般推理的模型选项,而DeepSeek-V3.1模型在数学、编码和代理任务中表现出色。Qwen3是Amazon Bedrock组合中首个全托管的Qwen模型家族。
虽然这些模型是免费提供的,但通过在Bedrock中使用这些模型,客户可以利用亚马逊的企业级安全性,包括数据加密和严格的访问控制,这有助于维护数据隐私和合规性。客户对其数据保留完全控制权,因为AWS不会与模型提供商共享模型输入和输出数据,也不会用于改进基础模型。
在宣布之前,我与AWS的技术总监Shaown Nandi谈到了新模型将为客户带来的价值。Nandi在六年前加入AWS之前曾是新闻集团道琼斯部门的首席信息官,他表示AWS将在亚洲、拉丁美洲、欧洲和北美等关键全球市场推出新模型。
他说,大型通用AI模型对于许多企业常见的狭窄用例来说可能过于庞大。“你需要一个更小的模型,或者一个更便宜的模型,这没问题,因为用例多种多样,”Nandi说。“我们在开放权重模型中看到的是成本优势、选择优势。而且,像Llama这样的模型,AWS支持模型蒸馏,您会看到Bedrock中的客户能够将此模型训练到更小的尺寸,并在蒸馏后以低至30倍的运行成本保留大部分准确性。”
“无论是选择一个更窄的模型,蒸馏模型,还是简单地避免一些专有模型的高许可成本——如代理用例——这就是这些开放权重模型开始真正发光的地方,”他说。
Nandi表示,拉丁美洲和部分亚洲的客户对能够根据当地需求调整模型特别感兴趣,这在开放权重模型中更容易实现。“我在国际市场以及美国的初创公司和其他公司中看到很大的需求,”他说。
开放权重模型还提供了组织所需的速度和灵活性。“开放权重模型的独特之处在于能够对其进行微调和定制,”Nandi说。“我们看到客户在实验这些模型,无论是蒸馏它们还是在不同尺寸上微调它们,并有效地构建出看起来像他们自己行业或业务的SLM。”
AWS表示,其客户现在可以访问来自Qwen3家族的四个新开放权重模型。这些多语言模型可以规划多步骤工作流程,集成工具和API,并在任务中处理长上下文窗口。两个通用模型提供“思考”和“非思考”推理模式。
此外,公告称,如果Qwen3模型“是人”,他们可以“流利地讲几十种语言,并分享多样主题的百科知识,从解释科学概念到撰写创意故事。”
DeepSeek-V3.1模型的强项是混合推理能力,通过使客户能够根据他们试图解决的问题类型在模式之间切换,平衡快速响应与深度透明思考。
此外,这些模型非常节能,因为它们很少将基本查询变成冗长的讨论,同时保持高水平的专业知识以做出战略决策。此外,模型清晰地解释其思考过程,使得理解其如何得出建议变得更容易。
没有水晶球能告诉AWS或任何模型开发者在哪些市场推出哪些模型。因此,他们倾听客户意见,查看使用情况,并对部署和更新计划做出明智的猜测。
“最后这一点很重要,”Nandi说。“我们想填补空白。我们希望客户拥有完整的选择权。现在有很多新的代理用例出现。我们不断面临增加更多模型的压力。”今天,AWS提供数百种模型,并在增加新模型的地区不断扩展。
另一个客户反馈来源是Bedrock的模型评估工具。“它使用大型语言模型作为评判者,”Nandi说。“根据您输入的参数,它会告诉您哪个模型最适合您。这是我们在Bedrock中为客户提供自动化反馈的可扩展方法。对客户来说,这是一场游戏规则的改变。”
这些新模型,以及将Amazon Bedrock模型带给更多全球地区客户的战略,对AWS来说是明智的商业决策。它们应该为其当前和未来的客户提供更强大的基础模型解决方案,以发展他们的业务。