
LLM
文章平均质量分 80
大模型相关学习知识
小王不叫小王叭
用随机梯度下降来优化人生!
展开
-
大模型基础学习知识,看这一篇就够了
N-Gram、神经网络、预训练模型、大语言模型 常用的N-Gram语言模型是什么?原创 2024-08-21 11:16:04 · 752 阅读 · 1 评论 -
BLEU、ROUGE详解-语言模型的常用评价指标-举例附代码实现
ROUGE指标与BLEU指标非常类似,均可用来衡量生成结果和标准结果的匹配程度,不同的是ROUGE基于召回率,BLEU更看重准确率。 其中k表示在候选句子(candidate)中出现的第k个词语,Ck则代表在候选句子中这个词语出现的次数,而Sk则代表在参考文本(reference)中这个词语出现的次数。 2.公式:candidate和reference中匹配的 n-gram 的个数 /candidate中n-gram 的个数.:评价一种语言翻译成另一种语言的文本质量的指标。原创 2024-08-19 20:02:52 · 2498 阅读 · 0 评论 -
RAG完整构建流程-从入门到放弃
接着,LLM分别为每个检索到的知识块生成答案,然后为每个答案生成反思评分来评估检索到的文档是否相关,最后将评分高的文档当作最终结果一并交给LLM。你的目标是提供准确的信息,并尽可能帮助提问者解决问题。:如果果原始查询太复杂或返回的信息太广泛,我们可以选择生成一个抽象层次更高的“退后”问题,与原始问题一起用于检索,以增加返回结果的数量。:多向量检索同样会给一个知识文档转化成多个向量存入数据库,不同的是,这些向量不仅包括文档在不同大小下的分块,还可以包括该文档的摘要,用户可能提出的问题等等有助于检索的信息。原创 2024-08-17 10:39:51 · 1979 阅读 · 1 评论 -
大模型RAG企业级项目实战:ChatDoc与文件聊天交互完整版代码
检索生成阶段:(1)问题向量化–> (2)根据问题查询匹配数据–> (3)获取索引数据 --> (4)将数据注入Prompt–> (5)LLM生成答案。数据准备阶段:(1)数据提取–> (2)分块(Chunking)–> (3)向量化(embedding)–> (4)数据入库。原创 2024-08-15 21:28:43 · 531 阅读 · 0 评论 -
大模型RAG企业级项目实战:Chatdoc智能助手文档(从零开始,适合新手)
检索生成阶段:(1)问题向量化–> (2)根据问题查询匹配数据–> (3)获取索引数据 --> (4)将数据注入Prompt–> (5)LLM生成答案。数据准备阶段:(A)数据提取–> (B)分块(Chunking)–> (C)向量化(embedding)–> (D)数据入库。此种方式可以找到一些相关的信息块,但是不够精准,接下来使用多重查询进行优化,提高查询的精度。3)对切块的数据进行向量化(embedding)并存储到向量数据库。读取pdf、excel、doc三种常见的文档格式。原创 2024-08-15 20:08:30 · 826 阅读 · 0 评论