ChatGPT 如何工作?



人工智能 (AI) 已成为我们生活、工作以及与周围世界互动不可或缺的一部分。在 AI 领域,存在多个垂直领域,例如自然语言处理 (NLP)、计算机视觉、机器学习、机器人技术等等。其中,NLP 已成为一个关键的研究和开发领域。由 OpenAI 开发的 ChatGPT 是 NLP 进步的最佳例子之一。

阅读本章,了解 ChatGPT 的工作原理、其经历的严格训练过程以及其生成回复的机制。

什么是 GPT?

ChatGPT 的核心是强大的 GPT 技术,它代表 **“生成型预训练变换器”**。它是由 OpenAI 开发的一种 AI 语言模型。GPT 模型旨在理解和生成自然语言文本,几乎与人类一样。

下图总结了 GPT 的主要要点:

GPT Model

GPT 的组成部分

让我们分解 GPT 的每个组成部分:

生成型

简单来说,“生成型”指的是模型根据从训练数据中学习到的模式生成新内容(如文本、图像或音乐)的能力。在 GPT 的背景下,它生成听起来像人类写的原创文本。

预训练

预训练涉及在一个大型数据集上训练模型。在这个阶段,模型基本上学习数据中的关系。对于 GPT 而言,该模型使用无监督学习在来自书籍、文章、网站等的巨量文本上进行预训练。这有助于 GPT 学习预测序列中的下一个单词。

变换器

变换器是 GPT 模型中使用的深度学习架构。变换器使用一种称为自注意力机制的机制来权衡序列中不同单词的重要性。它使 GPT 能够理解单词之间的关系,并使其能够产生更像人类的输出。

ChatGPT是如何训练的?

ChatGPT 使用 GPT 架构的变体进行训练。以下是训练 ChatGPT 的阶段:

语言建模

ChatGPT 在互联网上大量收集的文本数据(例如书籍、文章、网站和社交媒体)上进行了预训练。此阶段涉及训练模型根据序列中所有之前的单词来预测文本序列中的下一个单词。

此预训练步骤帮助模型学习自然语言的统计特性,并发展对人类语言的一般理解。

微调

预训练后,ChatGPT 被微调用于对话式 AI 任务。此阶段涉及在包含对话记录或聊天日志等数据的小型数据集上进一步训练模型。

在微调期间,模型使用迁移学习等技术来学习生成与用户查询相关的上下文响应。

迭代改进

在训练过程中,模型根据响应一致性、相关性和流畅性等各种指标进行评估。根据这些评估,可以迭代训练过程以提高性能。

ChatGPT 如何生成回复?

ChatGPT 的回复生成过程使用神经网络架构、注意力机制和概率建模等组件。借助这些组件,ChatGPT 可以生成与上下文相关的快速回复。

让我们了解 ChatGPT 回复生成过程中的步骤:

编码

ChatGPT 的回复生成过程首先将输入文本编码为数字格式,以便模型可以处理它。此步骤使用嵌入将单词或子词转换为模型捕获用户输入语义信息。

语言理解

现在将编码的输入文本馈送到预训练的 ChatGPT 模型,该模型通过多层变换器块进一步处理文本。如前所述,变换器块使用自注意力机制来权衡每个标记相对于其他标记的重要性。这有助于模型上下文理解输入。

概率分布

预处理输入文本后,ChatGPT 现在会根据序列中下一个单词生成词汇表上的概率分布。此概率分布包含每个单词作为序列中的下一个单词,给定所有之前的单词。

采样

最后,ChatGPT 使用此概率分布来选择下一个单词。然后将此单词添加到生成的回复中。此回复生成过程持续进行,直到满足预定义的停止条件或生成序列结束标记。

结论

在本章中,我们首先解释了 ChatGPT 的基础,它是一种名为生成型预训练变换器 (GPT) 的 AI 语言模型。

然后,我们解释了 ChatGPT 的训练过程。**语言建模、微调**和**迭代改进**是其训练过程中的阶段。

我们还简要讨论了 ChatGPT 如何生成与上下文相关的快速回复。它包括**编码、语言理解、概率分布**和**采样**,我们在文中进行了详细讨论。

ChatGPT 通过集成 GPT 架构、严格的训练过程和先进的响应生成机制,代表了 AI 驱动对话代理的重大进步。

广告