从大型语言模型到幻觉:简明AI术语指南

2025年05月26日 由 佚名 发表 88 0

人工智能是一个深奥而复杂的领域。研究这一领域的科学家们经常使用术语和行话来解释他们的工作。因此,我们在报道人工智能行业时也常常需要使用这些技术术语。正因如此,我们认为编写一个词汇表来定义我们文章中使用的一些最重要的词汇和短语会很有帮助。

通用人工智能

通用人工智能,或AGI,是一个模糊的术语。通常,它指的是在许多(如果不是大多数)任务上比普通人更有能力的AI。OpenAI的首席执行官Sam Altman最近将AGI描述为“相当于你可以雇用为同事的中等水平人类。”同时,OpenAI的章程将AGI定义为“在大多数经济上有价值的工作中超越人类的高度自主系统。”谷歌DeepMind的理解与这两个定义略有不同;该实验室将AGI视为“在大多数认知任务上至少与人类一样有能力的AI。”感到困惑吗?不用担心——在AI研究前沿的专家们也是如此。

AI代理

AI代理指的是一种使用AI技术为你执行一系列任务的工具——超出更基本的AI聊天机器人所能做的范围——例如报销费用、预订机票或餐厅座位,甚至编写和维护代码。然而,正如我们之前解释过的,在这个新兴领域中有很多动态变化的部分,所以“AI代理”对不同的人可能意味着不同的东西。基础设施也仍在建设中,以实现其设想的能力。但基本概念意味着一个自主系统,可能会调用多个AI系统来执行多步骤任务。

思维链

面对一个简单的问题,人类大脑可以在不需要过多思考的情况下回答——比如“长颈鹿和猫哪个更高?”但在许多情况下,你可能需要纸和笔来得出正确答案,因为有中间步骤。例如,如果一个农民有鸡和牛,它们共有40个头和120条腿,你可能需要写下一个简单的方程式来得出答案(20只鸡和20头牛)。

在AI背景下,大型语言模型的思维链推理意味着将问题分解为更小的中间步骤,以提高最终结果的质量。通常需要更长的时间才能得到答案,但答案更有可能是正确的,尤其是在逻辑或编码背景下。推理模型是从传统的大型语言模型发展而来的,并通过强化学习优化以适应思维链思维。

深度学习

深度学习是一种自我改进的机器学习子集,其中AI算法设计为具有多层次的人工神经网络(ANN)结构。这使得它们能够比简单的基于机器学习的系统(如线性模型或决策树)进行更复杂的关联。深度学习算法的结构灵感来自人类大脑中神经元的互联路径。

深度学习AI模型能够自行识别数据中的重要特征,而不需要人类工程师定义这些特征。该结构还支持能够从错误中学习的算法,并通过重复和调整的过程改进其输出。然而,深度学习系统需要大量的数据点才能产生良好的结果(数百万或更多)。与简单的机器学习算法相比,它们的训练时间通常更长,因此开发成本往往更高。

扩散

扩散是许多艺术、音乐和文本生成AI模型的核心技术。受物理学启发,扩散系统通过添加噪声逐渐“破坏”数据的结构——例如照片、歌曲等——直到什么都不剩。在物理学中,扩散是自发且不可逆的——溶解在咖啡中的糖无法恢复成方糖形态。但AI中的扩散系统旨在学习一种“逆扩散”过程,以恢复被破坏的数据,从噪声中恢复数据的能力。

蒸馏

蒸馏是一种从大型AI模型中提取知识的技术,采用“教师-学生”模型。开发者向教师模型发送请求并记录输出。答案有时会与数据集进行比较以查看其准确性。这些输出随后用于训练学生模型,学生模型被训练以近似教师的行为。

蒸馏可以用于基于较大模型创建一个更小、更高效的模型,且蒸馏损失最小。这可能是OpenAI开发GPT-4 Turbo(GPT-4的更快版本)的方式。

虽然所有AI公司都在内部使用蒸馏,但一些AI公司可能也使用蒸馏来赶上前沿模型。从竞争对手那里进行蒸馏通常违反AI API和聊天助手的服务条款。

微调

微调是指对AI模型进行进一步训练,以优化其在比之前训练重点更具体的任务或领域的表现——通常通过输入新的、专门的(即任务导向的)数据来实现。

许多AI初创公司将大型语言模型作为构建商业产品的起点,但通过基于其自身领域特定的知识和专业知识进行微调,来提高目标行业或任务的实用性。

生成对抗网络

GAN,或生成对抗网络,是一种机器学习框架,在生成AI中用于生成逼真的数据——包括(但不限于)深度伪造工具。GANs涉及使用一对神经网络,其中一个利用其训练数据生成输出,然后传递给另一个模型进行评估。第二个判别模型因此在生成器的输出上扮演分类器的角色——使其能够随着时间的推移改进。

GAN结构被设置为一种竞争(因此称为“对抗”)——两个模型基本上被编程为试图超越对方:生成器试图让其输出通过判别器,而判别器则努力识别人工生成的数据。这种结构化的竞争可以优化AI输出,使其更逼真,而无需额外的人为干预。虽然GANs在较窄的应用(如生成逼真的照片或视频)中效果最佳,而不是通用AI。

幻觉

幻觉是AI行业用来描述AI模型编造内容的术语——字面上生成不正确的信息。显然,这对AI质量是一个巨大的问题。

幻觉产生的生成AI输出可能会误导人,甚至可能导致现实生活中的风险——可能带来危险的后果(想象一下健康查询返回有害的医疗建议)。这就是为什么大多数生成AI工具的小字现在警告用户验证AI生成的答案,尽管这些免责声明通常远不如工具在按下按钮时提供的信息显眼。

AI捏造信息的问题被认为是由于训练数据的不足导致的。对于通用生成AI,尤其是基础模型,这个问题似乎很难解决。现有的数据不足以训练AI模型来全面回答我们可能提出的所有问题。简而言之:我们还没有创造出无所不知的AI(至少目前还没有)。

幻觉促使人们推动越来越专业化和/或垂直化的AI模型,即需要更狭窄专业知识的领域特定AI,以减少知识缺口的可能性并降低虚假信息的风险。

推理

推理是运行AI模型的过程。它是让模型自由地从先前看到的数据中进行预测或得出结论。需要明确的是,没有经过训练就无法进行推理;模型必须在一组数据中学习模式,然后才能有效地从这些训练数据中推断。

许多类型的硬件可以执行推理,从智能手机处理器到强大的GPU再到定制设计的AI加速器。但并不是所有的硬件都能同样高效地运行模型。非常大的模型在笔记本电脑上进行预测可能需要很长时间,而在配备高端AI芯片的云服务器上则会快得多。

大型语言模型(LLM)

大型语言模型,或LLM,是流行的AI助手使用的AI模型,例如ChatGPT、Claude、谷歌的Gemini、Meta的AI Llama、微软的Copilot,或Mistral的Le Chat。当你与AI助手聊天时,你是在与一个大型语言模型互动,该模型直接处理你的请求或借助不同的可用工具,如网页浏览或代码解释器。

AI助手和LLM可以有不同的名称。例如,GPT是OpenAI的大型语言模型,而ChatGPT是AI助手产品。

LLM是由数十亿个数值参数(或权重,见下文)组成的深度神经网络,它们学习单词和短语之间的关系,并创建一种语言的表示,一种多维的单词地图。

这些模型是通过对数十亿本书籍、文章和转录的模式进行编码创建的。当你提示一个LLM时,模型会生成最符合提示的可能模式。然后,它根据之前所说的内容评估下一个最可能的单词。重复,重复,再重复。

神经网络

神经网络指的是支撑深度学习的多层算法结构,更广泛地说,是在大型语言模型出现后生成AI工具繁荣的基础。

尽管从人脑密集互联的路径中汲取灵感作为数据处理算法设计结构的想法可以追溯到20世纪40年代,但最近图形处理硬件(GPU)的兴起——通过视频游戏行业——真正释放了这一理论的力量。这些芯片非常适合训练比早期时代可能的更多层的算法,使基于神经网络的AI系统在许多领域实现了更好的性能,包括语音识别、自动导航和药物发现。

训练

开发机器学习AI涉及一个称为训练的过程。简单来说,这指的是输入数据以便模型可以从模式中学习并生成有用的输出。

在AI堆栈的这一点上,事情可能会变得有些哲学化——因为在训练之前,用作开发学习系统起点的数学结构只是一些层和随机数。只有通过训练,AI模型才真正成形。本质上,这是系统响应数据特征的过程,使其能够调整输出以实现所追求的目标——无论是识别猫的图像还是按需创作俳句。

需要注意的是,并非所有AI都需要训练。基于规则的AI是按照手动预定义指令编程的,例如线性聊天机器人,不需要进行训练。然而,这样的AI系统可能比(训练良好的)自学习系统更受限制。

尽管如此,训练可能很昂贵,因为它需要大量的输入——而且,通常,这些模型所需的输入量一直在上升。

混合方法有时可以用来简化模型开发并帮助管理成本。例如,对基于规则的AI进行数据驱动的微调——这意味着开发所需的数据、计算、能量和算法复杂性比从头开始构建要少。

迁移学习

一种技术,其中先前训练的AI模型用作开发新模型的起点,用于不同但通常相关的任务——允许在先前训练周期中获得的知识重新应用。

迁移学习可以通过简化模型开发来推动效率节省。当为模型开发的任务数据有限时,它也可能有用。但需要注意的是,这种方法有其局限性。依赖迁移学习获得通用能力的模型可能需要在额外的数据上进行训练,以便在其关注的领域中表现良好。

权重

权重是AI训练的核心,因为它们决定了在用于训练系统的数据中不同特征(或输入变量)的重要性(或权重)——从而塑造AI模型的输出。

换句话说,权重是定义在给定训练任务中数据集中最显著内容的数值参数。它们通过对输入进行乘法运算来实现其功能。模型训练通常从随机分配的权重开始,但随着过程的展开,权重会调整,因为模型试图得出更接近目标的输出。

例如,一个用于预测房价的AI模型,训练于目标位置的历史房地产数据,可能包括对特征的权重,如卧室和浴室的数量,房产是独立的还是半独立的,是否有停车位、车库等。

最终,模型对每个输入附加的权重反映了它们在给定数据集中对房产价值的影响程度。

文章来源:https://techcrunch.com/2025/05/25/from-llms-to-hallucinations-heres-a-simple-guide-to-common-ai-terms/
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
热门职位
Maluuba
20000~40000/月
Cisco
25000~30000/月 深圳市
PilotAILabs
30000~60000/年 深圳市
写评论取消
回复取消