- 博客(6)
- 收藏
- 关注
原创 Prompt Engineering
Prompt的设计在很大程度上决定着LLM性能发挥的上下限,提供一个好的Prompt才能使LLM的能力得到充分发挥。
2024-04-19 22:54:44
299
1
原创 Prompt,Temperature以及System Prompt的基本概念
在 ChatGPT 推出并获得大量应用之后,简单而言,Prompt可以宽泛地理解为给大模型的(问题、要求等等)。其中值得注意的是,对于在概念上具有相同意义的一次输入,不同的Prompt会使大模型能力的发挥有所不同(即同一问题的不同问法大模型的回答会有好有坏),而大模型给我们的则被称为Completion(最初,Prompt 是 NLP(自然语言处理)研究者为下游任务设计出来的一种任务专属的输入模板)
2024-04-19 22:54:31
1273
1
原创 使用LLM API
OpenAI 计算 token 数是合并计算 Prompt 和 Completion 的总 token 数,要求总 token 数不能超过模型上限(如默认模型 token 上限为 4096)。因此,如果输入的 prompt 较长,需要设置较大的 max_token 值,否则会报错超出限制长度。,即调用的模型,一般取值包括“gpt-3.5-turbo”(ChatGPT-3.5)、“gpt-3.5-turbo-16k-0613”(ChatGPT-3.5 16K 版本)、“gpt-4”(ChatGPT-4)。
2024-04-19 22:54:11
436
1
原创 LangChain框架
帮助开发者们快速构建基于大型语言模型的端到端应用程序或工作流程。LangChain 框架是一个用于开发各种下游应用的开源工具,可为各种大型语言模型应用提供通用接口,从而简化应用程序的开发流程。利用 LangChain 框架构建的RAG应用可使用与通过一系列流程生成,输入大模型生成更好的回答。
2024-04-17 18:22:03
440
原创 开发LLM应用的整体流程
设计本应用所要提供的功能,以及每一个功能的大体实现逻辑(越清晰、深入的业务逻辑理解往往也能带来更好的 Prompt 效果)。先设计核心功能,然后延展设计核心功能的上下游功能。进行实际业务测试,探讨边界情况,找到 Bad Case,据此迭代优化Prompt,直到达到一个较为稳定、可以基本实现目标的 Prompt 版本。明确 Prompt 设计的一般原则及技巧,构建出一个来源于实际业务的小型验证集,基于小型验证集设计满足基本要求、具备基本能力的 Prompt。,与设计的Prompt结合实现验证集效果,从。
2024-04-17 18:21:39
641
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人