
三名前OpenAI研究人员创立了一家名为Applied Compute Inc.的新初创公司,计划为企业开发定制的人工智能模型。
Applied Compute于周三宣布已筹集8000万美元资金。此次融资由Benchmark、Sequoia、Lux以及一组天使投资者提供。
公司没有披露其估值。上个月,《信息》报道称其正在以5亿美元的估值筹集资金。7月,有消息人士透露Upstarts Media公司已完成2000万美元的融资。
Applied Compute由Yash Patil、Rhythm Garg和Linden Li在首次融资前几个月创立。公司首席执行官Patil曾参与OpenAI的Codex编程助手的开发。Garg和Li分别帮助构建了ChatGPT的o1推理模型和AI训练基础设施。
这家初创公司将为每个客户的使用案例优化定制AI模型。根据公司说法,每个定制模型都将在委托组织的数据上进行训练。公司称这种训练流程可以提供比通用语言模型如GPT-5更高的输出质量。
一则基础设施工程师的招聘信息显示Applied Compute计划使用强化学习(RL)来训练AI模型。这是训练推理模型最流行的方法之一。在RL项目中,研究人员给神经网络一组样本任务,并在其正确完成任务时给予积分。这样的反馈使模型能够优化其响应。
Applied Compute已经拥有多个客户。它正在与DoorDash Inc.、编程助手开发商Cognition AI Inc.和AI训练数据提供商Mercor Inc.合作,后者在周一获得了100亿美元的估值。Applied Compute的员工在一篇博客文章中写道,公司正在帮助客户在几天内构建定制AI模型和代理,而不是通常需要的几个月。
开发人员加速AI训练的最常见方法之一是应用称为LoRA的方法。它涉及通过少量额外参数扩展预训练模型。在定制模型时,开发人员只训练这些额外参数,而不是整个模型。
Applied Compute的基础设施工程师招聘信息透露,公司正在一个由数千个图形处理单元组成的集群上训练AI模型。即使从云提供商租用,大规模GPU集群的运营成本也很高。因此,该初创公司可能会在不久的将来筹集额外资金以支持其开发工作。
