
LLM
文章平均质量分 85
董厂长
I'm looking for opportunities. If you are interested, please send me a message.
展开
-
paddleOCR项目打包分发后运行报错“tqdm\std.py“, line 452, in fp_write File
在 C:\Users\nihao.dong\下找到模型位置 .paddleocr。2. 需要修改 paddleocr.py的搜索路径代码。1. paddleOCR会根据固定路径去找模型。完毕双击exe,程序会基于当前目录查询模型。然后粘贴复制到dist文件夹下。生成了dist文件夹。原创 2025-03-27 16:35:08 · 803 阅读 · 0 评论 -
译:PP-DocBee: Improving Multimodal Document Understanding Through a Bag of Tricks
随着数字化的快速发展,各种文档图像在生产和日常生活中得到了更广泛的应用,对文档图像内容进行快速准确解析的需求变得日益迫切。因此,本文提出了PP-DocBee,一种用于端到端文档图像理解的新型多模态大语言模型。首先,我们开发了一种针对文档场景的数据合成策略,构建了一个多样化的数据集,以提高模型的泛化能力。然后,我们应用了一些训练技巧,包括动态比例采样、数据预处理和OCR后处理策略。原创 2025-03-21 15:57:55 · 1018 阅读 · 0 评论 -
译:《Converting a Hugging Face Model to a GGUF Model》转化HuggingFace原生模型为GGUF格式
前提:在部署视觉模型遇到LM studio中无法搜索到deepseek-vl译文:博客《Converting a Hugging Face Model to a GGUF Model》的。原创 2025-03-18 14:36:07 · 873 阅读 · 0 评论 -
指令型模型与推理型模型在目标导向与可重复性方向的优缺点分析
例如,为某类产品描述生成设计的提示,只要产品类型和描述需求不变,就可以反复使用该提示让模型生成符合要求的产品描述内容,这体现了工程所具备的可重复性特点,有助于提高生产效率和保证质量的稳定性。例如,在策略推理中,通过设计提示词引导模型生成符合竞争目标的策略(如商业谈判中的最优报价),显著提升了模型在动态环境中的决策效率。例如,在多模态任务中,指令若未明确对齐视觉与文本信息,可能生成与意图不符的结果。:结合指令的明确性与推理的灵活性,例如在指令中嵌入推理步骤模板,平衡效率与准确性。例如,在长文本检索任务(原创 2025-02-08 14:53:58 · 928 阅读 · 0 评论 -
Copilot量化指标参数及其方法
同时,本文还介绍了市面上的 Dashboard 工具,以及这些工具中突出展示的指标。GitHub 提供了一个 Metrics Dashboard,可以可视化展示 GitHub Copilot 的使用情况。GitHub 提供了一个 Power BI 应用,可以用来监控和分析 GitHub Copilot 的使用情况。快速预览:此文列出了 GitHub Copilot Metrics API 提供的指标列表,其中核心的量化指标包括。分析代码补全的接受率与错误率(如后续测试中发现的缺陷),评估生成代码的可靠性。原创 2025-02-07 15:35:02 · 1320 阅读 · 0 评论 -
如何评定 Ollama 本地部署 DeepSeek-R1-Distill-Qwen-1.5B 模型的运行速度和稳定性的方法
如果模型在运行过程中对系统资源的占用稳定,没有出现资源占用过高或波动过大的情况,则说明模型的稳定性较好。例如,在部署模型后,可以使用 Ollama 的命令行界面输入相关命令来启动性能测试工具,获取模型的性能报告。在模型运行过程中,记录模型返回错误结果的比例。例如,在模型处理每个请求时,将输出结果与预期结果进行对比,记录错误结果的数量,计算错误率。例如,如果模型的推理时间较短、吞吐量较高、错误率较低且在长时间运行过程中表现稳定,则可以得出结论:该模型在本地运行时具有较好的速度和稳定性。原创 2025-02-05 16:39:37 · 1252 阅读 · 0 评论 -
VS2022 无法使用GitHub账户登录/无法使用copilot 解决方案
如果出现不能正常使用的情况,比如正常登录后无法激活,或者已激活显示disabled,需要注意一下自己的github账号是否被flag过。(曾经和别人拼车过copilot企业版或者在已毕业情况下申请过学生免费版copilot)原创 2024-12-25 00:51:27 · 2118 阅读 · 0 评论 -
结构化的Prompt
在自然语言处理和人工智能领域,结构化Prompt框架是一种帮助我们更有效地与AI模型交流的工具。以下是一些常见的结构化Prompt框架,它们可以帮助我们构建更精确、更高效的指令:1. BROKE框架: - 背景(Background):提供任务的上下文或背景信息。 - 角色(Role):定义AI模型在交互中的角色。 - 目标(Objective):明确任务的目标。 - 关键结果(Key Results):定义期望的具体效果。 - 演变(Evolve):根据反馈调整和改进对话策略原创 2024-12-12 16:07:43 · 1065 阅读 · 0 评论 -
LLM:Embedding
这些实数向量可以被计算机更好地理解和处理。嵌入背后的主要想法是,相似或相关的对象在嵌入空间中的距离应该很近。举个例子,我们可以使用词嵌入(word embeddings)来表示文本数据。在词嵌入中,每个单词被转换为一个向量,这个向量捕获了这个单词的语义信息。例如,"king" 和 "queen" 这两个单词在嵌入空间中的位置将会非常接近,因为它们的含义相似。而 "apple" 和 "orange" 也会很接近,因为它们都是水果。而 "king" 和 "apple" 这两个单词在嵌入空间中的距离就会比较远,因原创 2024-12-04 15:33:02 · 747 阅读 · 0 评论 -
LLM:链式提示(prompt chaining)
如果我们直接给LLM一个非常复杂的指令,比如“创建一个可以处理用户输入并生成购物清单的程序”,这可能会让模型感到困惑,因为它需要处理很多细节,比如如何接收输入、如何存储商品、如何生成清单等。假设我们要使用大型语言模型(LLM)来完成一个复杂的任务:编写一个简单的购物清单程序,用户可以输入他们想要购买的商品,然后程序会生成一个购物清单。每个步骤都由一个简单的提示词来引导,这样LLM可以更清晰地理解每个步骤需要做什么,从而更有效地完成任务。- 提示词:`"你已输入以下商品:[商品列表]。请继续输入或完成购物。原创 2024-11-30 21:14:00 · 586 阅读 · 0 评论 -
LLM: softMax function and temperature
首先,对向量 \( \mathbf{z} \) 中的每个元素 \( z_i \) 应用指数函数 \( \exp(z_i) \)。这将所有元素转换为正数,因为指数函数总是返回正数。原创 2024-11-28 14:19:45 · 1085 阅读 · 0 评论