Neurologyca是一家致力于构建以人为本的人工智能的公司,今天宣布推出 Kopernica,一个旨在解读人类情感广泛谱系的AI平台。
Kopernica利用多模态输入,如实时音频和视频,结合行为智能,使AI应用能够“理解”人类情感。该平台通过分析语音语调、面部表情、行为线索和精神状态的细微变化,来识别压力和焦虑。
通过这些标记,公司期望通过提升情感智能,使AI模型在不同环境中更好地理解人类。
“今天的AI系统能够理解我们说的话,但无法理解我们的感受,”联合创始人兼首席执行官胡安·格拉尼亚表示。
为实现这一目标,Kopernica采用了一种独特的3D模式识别建模能力,监测人体上超过790个参考点,比现有市场解决方案多出七倍。对于音频,底层模型不仅仅听取单词,还捕捉语音模式,如语调、节奏和韵律。
Neurologyca表示,与其他严重依赖手动标记公共数据集的平台不同,Kopernica是在数十年科学基础的神经科学研究上训练的。
在信号处理组件之下,该模型使用由10个处理层组成的深度学习框架,可以评估多达90种情感分类。这使其能够确定复杂状态,如动机、压力、注意力和认知负荷。
“通过Kopernica,我们创建了一个人类背景层,使这些系统不仅能够捕捉细微的人类情感,还能以同理心回应、调整其行为,并真正增强人机关系的能力,”格拉尼亚说。
公司表示,Kopernica作为一个基础设施层运作,被称为“情感操作系统”,旨在与其他大型语言模型或AI代理或应用程序协同工作。
所有这些都在本地设备上进行处理,并使用匿名化的见解,旨在避免在未经用户同意的情况下存储或共享任何可识别的用户数据,Neurologyca表示。这使公司能够专注于隐私设计来开发其基础设施。
能够检测情感的AI的潜在误用长期以来一直是隐私和法律专家关注的焦点。
“情感AI如果操作和监督不当,可能对个人造成严重伤害,并使公司面临重大法律风险,”LK律师事务所的首席律师莉娜·肯普警告说,在《商业法今日》上撰文。 “它收集和处理与个人亲密情感相关的高度敏感的个人数据,并有可能操纵和影响消费者的决策过程。”
现有的全球法规,如欧盟的AI法案,已经禁止AI驱动的情感检测和预测在警务、工作场所和课堂上的使用,只有在医疗治疗和安全方面的少数例外。
Neurologyca表示,如果使用得当,Kopernica可以彻底改变人们与AI的互动方式,如OpenAI的ChatGPT。情感增强将允许AI代理和大型语言模型适应人类情感,根据用户输入改变语调和节奏;监测情感和认知状态的健康应用;以及能够检测情绪并推荐更好娱乐内容的媒体内容。
使用相同的基础设施,Kopernica还可以用于临床系统,以标记认知压力或中风风险的早期指标。
Neurologyca是一家总部位于欧洲的公司,最近在旧金山开设了第一家办公室。公司表示,已经有来自美国的AI领导者、健康创新者和基础设施合作伙伴的强烈需求。Kopernica已经向部分合作伙伴开放,计划在2025年下半年更广泛地提供。