大模型基础篇
1.用户视角
LLM(Large Language Model
用户视角:LLM基础知识
LLM是AI应用开发核心,特点为模型、语言能力和数据量大。
GPT特点:知识丰富、知人晓事、知错就改、知法守法。
GPT能回答各类问题,提供个性化回答和方案。
GPT能理解上下文,提供个性化回答,适应不同对象和环境。
GPT能“知错就改”,重新分析处理问题。
GPT遵守道德法律,不回应危险、不道德或违法内容。
2.技术视角
大模型内部处理的并不是字符串,而是向量。文本向量化之后,才能真正进入大模型的处理,这个过程就是一个 Embedding 的过程。在大模型的处理中,需要经过 One-Hot 编码,然后,再对 One-Hot 编码之后的结果进行压缩,得到我们最终需要的结果。
这句不是很理解,大概了解了大模型内部处理的是向量
如果今天的内容你只能记住一件事,那
请记住:大模型的工作就是一次添加一个 Token。 ??
3.如何跟大模型沟通
提示词 = 定义角色 + 背景信息 + 任务目标 + 输出要求
有评论总结的很好:

4.提示工程
看的不是太明白,感觉就是在教人怎么写提示词,网上有很多
ReAct 框架:(Thought)、行动(Action)、观察(Observation)
提示工程是为了引导大模型给出更好的答案。
应用开发篇
5.OPENAI API LLM编程的实事标准-上
感觉没啥用,讲openai 的API字段都有啥用
6.OPENAI API LLM编程的实事标准-下
1.调用聊天补全接口的示例
2.SSE技术,跟websocket有点像,但只能服务端给客户端分段发消息
区别:二者都是建立在 HTTP 协议基础上, Websocket 建立了一套自己的通信协议,而 SSE 则是可以理解为建立在 HTTP 通信协议基础上的一层应用协议。Websocket 主要是双向通信(客户端可以发消息给服务端,服务端也可以发消息给客户端),SSE 是单向通信(从服务端到客户端)。Websocket 通常用于长连接,SSE 更适合用在单次请求的场景。
7.LangChain
感觉是Java界的spring
7.1 什么是langchain?
作者给不出一句话的解释和说明,二是从三个方面去介绍langchain
开发框架—就是一种框架
社区生态—介绍了社区有哪些应用,一些示例
扩展生态—感觉没啥用
7.2 如何使用langchain
8.Langchain:一些概念,个人理解是封装了一些api
LangChain 提供的最核心的三个抽象:ChatModel:整个框架的核心,根据输入的内容生成输出。PromptTemplate:负责处理输入,有效拆分了开发者提示词和用户提示词。OutputParser:负责处理输出,许多输出解析器里包含了格式指令。
程序员AI开发入门:大模型与LangChain

被折叠的 条评论
为什么被折叠?



