谷歌已经宣布其Gemini 2.5 Flash和Gemini 2.5 Pro AI模型全面可用,使其适用于生产应用。这次Gemini 2.5系列的扩展还包括推出Gemini 2.5 Flash-Lite的预览版,该模型被定位为该系列中最具成本效益且速度最快的模型。
“我们设计了Gemini 2.5为一系列混合推理模型,提供出色的性能,同时在成本和速度上达到帕累托前沿。今天,我们通过发布2.5 Pro和Flash模型为稳定和全面可用,迈出了下一步。我们还为您带来了2.5 Flash-Lite的预览版——这是我们迄今为止最具成本效益且速度最快的2.5模型,”公司在一份官方声明中宣布。Gemini 2.5 Flash和2.5 Pro从预览版到全面可用的过渡,经历了开发者和企业的广泛反馈。像Snap、SmartBear、Spline和Rooms这样的公司已经将这些模型集成到他们的应用中。
新发布的Gemini 2.5 Flash-Lite是谷歌AI产品的最新补充,专为注重速度和效率的工作负载而设计。这个轻量级模型现在可以在预览版中使用,开发者可以评估其能力并提供反馈。根据谷歌的说法,Flash-Lite的设计优先考虑延迟,提供更快的响应,同时消耗更少的计算资源。这使其成为大规模应用中成本效益和快速处理的理想选择。尽管其结构紧凑,Flash-Lite仍保留了Gemini 2.5系列的核心功能,包括支持100万个令牌的上下文窗口,使其能够处理大量文档、对话和代码库。它还与谷歌搜索和代码执行工具集成,处理多模态输入,并在各种任务中提供准确的响应。
Gemini 2.5系列中的所有模型都基于专家混合(MoE)架构。这种设计允许模型仅激活与给定提示相关的特定神经网络,优化硬件使用并有助于降低推理成本。此外,Gemini 2.5模型是首批使用谷歌内部开发的TPUv5p AI芯片训练的模型,利用配备新软件的集群来缓解训练期间的技术问题。随着Gemini 2.5 Pro和Flash达到全面可用,它们为复杂任务提供了稳定、生产就绪的模型,如高级编码、复杂推理和多模态理解,这有助于确保可靠性和一致性能,而不同的模型(Pro用于强大性能,Flash用于速度,Flash-Lite用于极致效率)允许根据特定需求更好地优化资源。
开发者可以通过Google AI Studio、Vertex AI和Gemini应用访问Gemini 2.5 Flash和Pro的稳定版本。Gemini 2.5 Flash-Lite的预览版可通过Google AI Studio和Vertex AI获得。Flash和Flash-Lite的定制版本也已集成到谷歌搜索中,扩展了它们在各种与搜索相关的AI功能中的能力,谷歌旨在为每个查询采用最合适的模型。
扩展后的Gemini 2.5系列的定价结构反映了每个模型的不同能力和目标使用场景。Gemini 2.5 Flash-Lite的定价为每100万个输入令牌(文本、图像或视频)0.10美元,每100万个输出令牌0.40美元,使其成为最经济的入门选择。Gemini 2.5 Flash的费用为每百万输入令牌0.30美元和每百万输出令牌2.50美元。