第二章 语言模型,提问范式与 Token
在本章中,我们将和您分享大型语言模型(LLM)的工作原理、训练方式以及分词器(tokenizer)等细节对 LLM 输出的影响。我们还将介绍 LLM 的提问范式(chat format),这是一种指定系统消息(system message)和用户消息(user message)的方式,让您了解如何利用这种能力。
一,环境配置
Helper function 辅助函数。
如果之前曾参加过《ChatGPT Prompt Engineering for Developers》课程,那么对此就相对较为熟悉。 调用该函数输入 Prompt 其将会给出对应的 Completion 。
public String getCompletion(String prompt) {
ChatCompletionRequest chatCompletionRequest = new ChatCompletionRequest();
chatCompletionRequest.setModel("gpt-3.5-turbo");
chatCompletionRequest.setTemperature(0d);
ChatMessage chatMessage = new ChatMessage();
chatMessage.setRole("user");
chatMessage.setContent(prompt);
chatCompletionRequest.setMessages(Arrays.asList(chatMessage));
ChatCompletionResult result = openAiService.createChatCompletion(chatCompletionRequest);
ChatMessage chatMessage1 = result.getChoices().get(0).getMessage();
return chatMessage1.getContent();
}
二,尝试向模型提问并得到结果
LLM 可以通过使用监督学习来构建,通过不断预测下一个词来学习。 并且,给定一个大的训练集,有数百亿甚至更多的词,你可以创建一个大规模的训练集,你可以从一 句话或一段文本的一部分开始,反复要求语言模型学习预测下一个词是什么
LLM 主要分为两种类型:基础语言模型(Base LLM)和越来越受欢迎的指令微调语言模型(Instruction Tuned LLM)。基础语言模型通过反复预测下一个词来训练,因此如果我们给它一个 Prompt,比如“从前有一只独角兽”,它可能通过逐词预测来完成一个关于独角兽在魔法森林中与其他独角兽朋友们生活的故事。
然而,这种方法的缺点是,如果您给它一个 Prompt,比如“中国的首都是哪里?”,很可能它数据中有一段互联网上关于中国的测验问题列表。这时,它可能会用“中国最大的城市是什么?中国的人口是多少?”等等来回答这个问题。但实际上,您只是想知道中国的首都是什么,而不是列举所有这些问题。然而,指令微调语言模型会尝试遵循 Prompt,并给出“中国的首都是北京”的回答。
那么,如何将基础语言模型转变为指令微调语言模型呢?这就是训练一个指令微调语言模型(例如ChatGPT)的过程。首先,您需要在大量数据上训练基础语言模型,因此需要数千亿个单词,甚至更多。这个过程在大型超级计算系统上可能需要数月时间。训练完基础语言模型后,您会通过在一小部分示例上进行进一步的训练,使模型的输出符合输入的指令。例如,您可以请承包商帮助您编写许多指令示例,并对这些指令的正确回答进行训练。这样

最低0.47元/天 解锁文章
1787

被折叠的 条评论
为什么被折叠?



