OpenAI升级企业级功能以应对竞争挑战

2024年04月25日 由 daydream 发表 42 0

尽管Meta的新模型Llama 3快速崭露头角,成为使用广泛、定制灵活的大型语言模型(LLMs)之一,但OpenAI这位引领生成式AI时代的竞争对手,通过为GPT-4 Turbo LLM等模型增加新的企业级功能,成功应对了挑战。


微信截图_20240425110543


最近,OpenAI宣布对其面向API客户的企业级功能进行扩展,进一步丰富了其Assistants API,并推出了旨在加强安全性和管理控制的新工具,同时更有效地管理成本。


OpenAI的API产品负责人奥利维尔·戈德芒(Olivier Godement)在最近与VentureBeat的视频通话采访中表示:“当与开发人员和企业探讨AI模型的有意义工作时,OpenAI依然走在前列。不过,我们始终欢迎更多的竞争——这样大家才能共同进步。”


私有链接与增强的安全功能


在安全升级方面,OpenAI推出了Private Link,这是一种安全通信方法,实现了Microsoft的Azure云服务与OpenAI之间的直接连接。OpenAI表示,这有助于最大程度地减少通过API发送的客户数据和查询“暴露于开放互联网”的风险。


这一新增功能是对现有安全措施的补充,包括SOC 2 Type II认证、单点登录(SSO)、AES-256静态数据加密、TLS 1.2传输加密和基于角色的访问控制。


此外,为满足日益增长的合规性需求,OpenAI还引入了原生多因素认证(MFA),以加强访问控制。


对于需要遵守HIPAA规定的医疗保健公司,OpenAI继续为符合条件的API客户提供商业伙伴协议和零数据保留政策。


助理API升级,可处理高达500倍的文件量


OpenAI的一个较少宣传但至关重要的企业级产品是助理API,它允许企业在自己的应用程序中部署经过自定义微调的模型,并通过检索增强生成(RAG)调用特定文档,提供会话式助理。


例如,电子商务公司Klarna今年早些时候曾称赞其利用OpenAI助理API制作的AI助理,完成了700名全职人工代理的工作,同时重复查询量减少了25%,解决时间几乎缩短了82%(从11分钟缩短至2分钟)。


现在,OpenAI已经对助理API进行了升级,通过新增的“file_search”功能,增强了文件检索能力,每个助理现在可以处理多达10,000个文件。


与之前的20个文件限制相比,这代表了500倍的提升,并增加了诸如并行查询、改进的重排名和查询重写等额外功能。


此外,该API现在还支持实时会话响应的流式传输——这意味着诸如GPT-4 Turbo或GPT-3.5 Turbo等AI模型可以像生成令牌一样快地返回输出,而无需等待完整的响应。


它还进一步集成了新的“vector_store”对象,以更好地管理文件,并提供对令牌使用的更精细控制,以有效管理成本。


Projects功能实现更精细的访问权限控制


名为Projects的新功能通过允许组织在项目级别管理角色和API密钥,提供了改进的管理监督。


此功能允许企业客户设定权限范围,控制可用模型,并设置基于使用的限制,以避免意外成本——这些改进有望大大简化项目管理。


本质上,企业可以将AI模型的特定微调版本,甚至是未经修改的原始模型,隔离应用于特定任务或文档集合,并赋予特定人员处理每个任务或文档集合的权限。


因此,如果你的企业有一个团队负责处理面向公众的文档,而另一个团队则负责处理机密或内部文档,你可以通过OpenAI的API为每个团队分配独立的项目。这样,两个团队都可以使用AI模型进行工作,而不会发生信息混淆或泄露的情况。


OpenAI产品团队成员Miqdad Jaffer在最近与VentureBeat的视频通话采访中表示:“随着越来越多的组织和独立开发者开始部署AI,他们希望在一个限定的范围内完成工作。Projects功能允许你将资源、成员隔离到一个个小的个性化项目中。你可以获得每个项目的使用报告,获得对访问权限、安全性、延迟、吞吐量和成本的控制能力,使组织能够以非常安全的方式进行构建。对于独立开发者来说,他们可以部署数百个项目,而无需担心任何问题。”


这一点尤其对那些同时服务或处理多个客户的开发团队来说非常有帮助。


此外,OpenAI还引入了一系列新的成本管理功能,以进一步帮助组织在经济上扩展其AI运营。


这些功能包括为每分钟保持一致令牌使用水平的客户提供折扣费率,以及通过新的Batch API将异步工作负载的成本降低50%。Batch API还具有更高的速率限制,并承诺在24小时内提供结果。


不过,要使用Batch API,客户需要将其一批令牌(即他们希望AI模型分析的输入,无论是提示还是文件)一次性发送到一个请求中,并愿意等待最多24小时从OpenAI的AI模型中获得响应。


虽然这似乎需要等待一段时间,但OpenAI的高管告诉VentureBeat,返回结果可以快至10-20分钟。


此外,这一功能还专为那些不需要AI模型即时响应的客户和企业设计。例如,调查记者可能希望发送一堆政府文件给OpenAI的GPT-4 Turbo进行筛选并挑选出详细信息,以用于长篇特写文章的撰写。


或者,一家企业正在准备一份报告,报告要分析公司过去一段时间内的财务表现,且报告提交日期在数周内而非数天或数分钟内,那么这一功能也非常适用。


随着OpenAI继续加强其以企业级安全性、管理控制和成本管理为重点的产品,这些更新表明,该公司希望为企业提供更“即插即用”的体验,以应对Llama 3和Mistral等开源模型的崛起。这些开源模型可能需要企业在自己的终端进行更多的设置工作。

文章来源:https://venturebeat.com/ai/openai-shrugs-off-metas-llama-3-ascent-with-new-enterprise-ai-features/
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
热门职位
Maluuba
20000~40000/月
Cisco
25000~30000/月 深圳市
PilotAILabs
30000~60000/年 深圳市
写评论取消
回复取消