LLM学习
wavehaha
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
LLM认知(一):Semantic uncertainty: Linguistic invariances for uncertainty estimation in NLG
其他:https://blog.youkuaiyun.com/qq128252/article/details/140023076原创 2024-09-11 16:45:33 · 551 阅读 · 0 评论 -
LLM知识编辑(一)Decoding by Contrasting Knowledge: Enhancing LLMs’ Confidence on Edited Facts
2024。原创 2024-09-05 16:28:33 · 289 阅读 · 0 评论 -
LLM应用(一):使用GPT-4自动从文档中构建问答对(Python 实现)
其中 model 参数可以指定您想⽤的模型,如 gpt-4 、 gpt-3.5-turbo 、 claude-3-opus-20240229 、 claude-3-sonnet-20240229。message为对话信息,包括设置的prompt和指令等。分为三步:读取文档;**最为关键的应该就是如何设计好的指令。问答对构建可以先生成问题再生成答案,也可以直接输出问答对。**代码如下:(实例为农业领域,需要根据自己的需要进行修改)在不破坏原有python环境下,可以使用。可以官网购买,或者淘宝。原创 2024-09-02 16:41:16 · 1180 阅读 · 0 评论 -
KG+LLM(二) Think and Retrieval: A Hypothesis Knowledge Graph Enhanced Medical Large Language Models
原创 2024-01-13 22:20:27 · 658 阅读 · 0 评论 -
缓解大语言模型(LLM)幻觉的可行方法探究(课程综述)
ChatGPT[1]为基于GPT(Generative Pre-trained Transformer,GPT)[2]架构的的通用型对话语言模型,GPT是一个基于Transformer[3]解码器结构的深度学习模型,由多个相同的Transformer块组成,其中每个Transformer块包括多头自注意力层和前馈神经网络层。通过自注意力机制,模型能够在生成每个单词时关注输入文本的不同部分,这有助于捕捉长距离依赖关系。原创 2024-01-13 17:05:02 · 1853 阅读 · 0 评论
分享