谷歌的Gemma 3 270M:一款紧凑而强大的AI模型,甚至可以在烤面包机上运行

2025年08月15日 由 佚名 发表 73 0


谷歌有限责任公司的DeepMind人工智能实验室发布了其迄今为止最小的模型之一Gemma 3 270M,仅有2.7亿个参数。


这意味着它比许多最强大的前沿大型语言模型要小得多,这些模型通常拥有数十亿个参数或内部设置来控制其行为。


通常,模型中的参数数量描述了它的强大程度,但对于Gemma 3 270M,谷歌选择创建一个更精简的版本,目的是让它可以直接在低功耗设备上运行,如智能手机,无需互联网连接。尽管如此,谷歌表示Gemma 3 270M仍然能够处理一系列复杂的、特定领域的任务,因为开发人员可以快速微调它以满足他们的需求。


谷歌DeepMind的AI开发者关系工程师Omar Sanseviero在X平台上发文称,Gemma 3 270M是开源的,并且小到可以在“你的烤面包机”上运行,或者在像掌上大小的Raspberry Pi计算机这样的设备上运行。


在博客文章中宣布Gemma 3 270M,谷歌的DeepMind团队解释说,该模型结合了1.7亿个“嵌入参数”和1亿个“变换器块参数”。它也能够处理非常具体和罕见的标记,使其成为一个“强大的基础模型”,可以在特定任务和语言上进行微调。


公司补充说,Gemma 3 270M的架构适合在指令跟随任务中表现出“强劲性能”,但又小到可以快速微调并部署在功率有限的设备上。其架构基于更大的Gemma 3模型,这些模型设计为在单个图形处理单元上运行,并附带各种微调配方、文档和部署指南,包括Hugging Face、JAX和UnSlot等开发者工具,帮助用户快速开始为该模型构建应用程序。


在指令跟随方面表现强劲

Gemma 3 270M的基准测试结果相当令人印象深刻。在旨在衡量AI模型正确跟随指令能力的IFEval基准测试中,经过指令调优的版本取得了51.2%的得分,根据在X平台上分享的结果,这远远超过了类似大小的小模型如Qwen 2.5 0.5B Instruct和SmolLM2 135M Instruct的得分。谷歌指出,它也不远于一些较小的十亿参数模型。


尽管如此,Gemma 3 270M可能不是其类别中最好的。谷歌的一个竞争对手,一家名为Liquid AI Inc.的初创公司回应称,该公司忽略了其上个月推出的LFM2-350M模型,该模型在同一基准测试中取得了65.12%的得分,尽管只多了几个参数。


尽管如此,谷歌强调Gemma 3 270M注重能源效率,指出在Pixel 9 Pro智能手机上使用INT4量化版本的模型进行的内部测试中,在25次对话中,该模型仅消耗了Pixel电池电量的0.75%。


因此,谷歌表示Gemma 3 270M是开发者希望部署设备上AI的绝佳选择,这通常是隐私和离线功能必要的应用程序的首选。


加速离线和设备上AI

谷歌强调,AI开发者需要选择合适的工具来完成工作,而不是简单地关注模型大小来提高AI应用程序的性能。对于创意写作、合规检查、实体提取、查询路由、情感分析和结构化文本生成等工作负载,它认为Gemma 3 270M可以被微调以更高的成本效率完成任务,而不是使用多亿参数的大型语言模型。


在一个视频演示中,谷歌展示了一位开发者如何构建一个由Gemma 3 270M驱动的睡前故事生成器应用程序。它能够在网络浏览器中离线运行,并根据父母的提示为孩子创造原创故事:


视频展示了Gemma 3 270M同时合成多个输入的能力,因此用户可以指定一个主角,如魔法猫,一个场景,如魔法森林,一个故事主题,一个情节转折,如角色发现一个神秘的盒子里面有东西,以及故事的长度。一旦用户设置了这些参数,Gemma 3 270M就会根据用户的输入快速生成一个连贯的原创故事。


这是一个很好的例子,展示了设备上AI的快速进步,创造了不需要互联网连接的新型应用程序的可能性。


谷歌表示Gemma 3 270M可以在Hugging Face、Docker、Kaggle、Ollama和LM Studio上找到,提供预训练和指令调优版本供下载。


文章来源:https://siliconangle.com/2025/08/14/googles-gemma-3-270m-compact-yet-powerful-ai-model-can-run-toaster/
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
热门职位
Maluuba
20000~40000/月
Cisco
25000~30000/月 深圳市
PilotAILabs
30000~60000/年 深圳市
写评论取消
回复取消