Skip to main content

GPT

GPT 即 Generative Pre-trained Transformer,是由 OpenAI 团队开发的一种基于自然语言处理技术的生成式、预训练、大语言模型。

判别式模型关注如何将输入数据映射到标签或类别,例如分类、回归等问题;而生成式模型则关注如何学习数据的分布,以便生成新的数据。ChatGPT 能够从大量的语料库中学习到复杂的语言结构和上下文信息,从而生成新的符合语言规则和语境的文本。

预训练模型是指该模型预先从大规模的语料库中通过无监督的方式学习语言的内在规律和模式,其能够学习到数据集的统计规律并提取出数据中的特征。这样,在进行具体任务的时候,GPT 可以直接使用已经学习到的知识,从而提高效率和准确性。

大模型指的是具有非常庞大的参数量和计算量的机器学习模型。这些模型通常需要在大规模的数据集上进行训练,以便能够学习到数据中的复杂模式和规律,并在各种任务中取得优秀的性能表现。ChatGPT 由于其拥有 1750 亿个参数和超过 45TB 的训练数据所以被称之为大模型。

语言模型区别与图像模型、语音模型等,是一种用来预测自然语言文本序列的概率分布的计算模型。简单来说,它就是一个能够根据前面的文本内容预测下一个可能出现的词或字的模型。语言模型通常被用于自然语言处理任务,比如语音识别、机器翻译、文本生成、文本分类等。

Transformer 是一种用于自然语言处理的神经网络模型,由 Google 提出,目的主要是为了解决循环神经网络在处理长序列时存在的一些问题(简单来说,循环神经网络无法记住一段文本中较早的单词并与当前的单词进行关联)。Transformer 模型的核心是自注意力机制(self-attention mechanism),它可以帮助计算机更好地理解数据中不同元素之间的关系。举个例子,当计算机阅读一段文字时,自注意力机制可以找出哪些单词与其他单词之间的关系更密切,解决了单词间的长距离依赖问题,从而更好地理解这段文字。

GPT 的基本原理:自回归生成,即先用模型预测下一个词是什么,然后把预测出来的词代入模型,去预测下一个词是什么,不断迭代。像是一个递归版的“单字接龙”。ChatGPT 喜欢絮絮叨叨一大堆,或者重复我们所说的话,这不光是为了告诉你解题思路,而更是为了将这段信息作为上文的补充,再从中提取关键信息,以便进一步生成正确的结果。

在训练过程中,学习材料并不会被保存在模型中,学习材料的作用只是「调整模型」以得到「通用模型」。想要让 GPT 能够应对无数未见情况,就必须提供数量足够多、种类足够丰富,质量足够高的学习材料,否则它将无法学到通用语言规律。

ChatGPT 训练过程主要分成三步:

  • 无监督学习阶段:互联网爬取网页(约 31 亿个)、书籍、维基百科、博客、新闻、Github 代码等,数据来源庞大且公开,但可能含有有害内容、部份内容质量不高。
  • 监督学习阶段:用人工专门写好的「优质对话范例」让它再次学习,这些范例需要人工专门编写,价格昂贵,数量有限,所能提供的语言多样性不足,可能难以让模型学到广泛适用的语言规律,也无法涉猎各个领域。
  • 基于人类反馈的强化学习:人工给回答打分,并且对结果进行排序,利用这些「人类排序结果」重新调整模型。

ChatGPT 超能力的“涌现”:

  • 超大语言模型意外掌握了“理解指令要求”、“理解例子要求”的能力。这种现象被称为“语境内学习(In-context Learning)”。
  • 当 ChatGPT 无法回答一个大问题时,若要求它分步思考,它就可以一步步连续推理,且最终答对的可能性大幅提升,该能力也叫“思维链”。类似于人类的分治思想。
  • ChatGPT 让 AI 第一次看似拥有了“乌鸦”模式(观察、感知、认知、学习、推理、执行)的智能,而不仅仅只是像鹦鹉那样学舌,它看上去像是真的会思考了。

在单字接龙的小模型中,并没有觉醒出“理解”和“推理”的能力,但在超大模型中,却突然展现。因此专家用“涌现”这个词来描述这些能力的出现。

人脑中单个神经元的工作方式特别简单,就是向下一个神经元放电,但是通过大力出奇迹的方式堆砌几百亿的神经元以后,意识就出现了。

检索增强生成(RAG)是指对大型语言模型输出进行优化,使其能够在生成响应之前引用训练数据来源之外的权威知识库。大型语言模型(LLM)用海量数据进行训练,使用数十亿个参数为回答问题、翻译语言和完成句子等任务生成原始输出。在 LLM 本就强大的功能基础上,RAG 将其扩展为能访问特定领域或组织的内部知识库,所有这些都无需重新训练模型。这是一种经济高效地改进 LLM 输出的方法,让它在各种情境下都能保持相关性、准确性和实用性。