
大模型
文章平均质量分 62
初夏0811
爱生活,爱写作,不爱加班
展开
-
通过ollama本地化部署deepseek后,通过API方式请求特别的慢
说明在控制终端请求是没问题的,那么模型是可以跑的,那API为什么这么慢呢?原创 2025-03-03 22:25:34 · 1307 阅读 · 0 评论 -
一图看懂大模型中RAG的流程实现
加载文档读取文档文档分割文档向量化用户输入内容内容向量化文本向量中匹配出与用户提问的向量相似的top_k个匹配出的文本作为上下文和问题一起添加到prompt中提交给LLM生成答案。原创 2025-02-16 20:17:38 · 402 阅读 · 0 评论 -
一招教你如何用大模型帮你生成一份精美的PPT
以上就很容易的生成了markdown文本了,当然你可以继续调优,让大模型重新帮你生成更准确的markdown,也可以在markdown文本的基础上修改文字。当然,以上是我的一个简单的示例,实际工作中,你需要尽量详细的描述你的需求,这样大模型才能更准确的帮你生成切合你业务场景的markdown文本。这里可以选择一系列的工具,因为我们需要生成PPT,所以这里我们选PPT助手,当然,如果你有其他需求,你也可以研究一下其他的工具助手。4) 待大模型回复,生成markdown样式后,点击下方的一键生成PPT即可。原创 2025-02-15 21:43:55 · 4452 阅读 · 0 评论 -
CPU 和 GPU 有哪些区别?
CPU和GPU 是计算机系统中两个至关重要的组成部分。,专注于处理大量的并行计算任务,尤其是图形处理。,CPU是计算机的核心处理器。原创 2025-02-15 10:02:53 · 658 阅读 · 0 评论 -
用于构建基于大型语言模型(LLM)的开源框架LangChain介绍及代码实践
推荐看这篇博客,讲的详细且通俗易懂。原创 2025-02-11 21:58:54 · 358 阅读 · 0 评论 -
一文了解大模型技术--RAG(Retrieval-Augmented Generation)
如果你觉得大模型回答不够精准、不够贴合实际,那RAG可能就是一个不错的解决方案。简单来说,RAG就是给大模型外挂了一个知识库,让它能借助这些知识回答得更专业、更可靠。检索增强生成,是一种通过整合外部知识库来增强大模型(LLM)的性能的模式。最简单的理解,可以认为是给大模型外挂了一个知识库。原创 2025-02-09 16:36:19 · 887 阅读 · 0 评论 -
Prompt逆向工程:如何“骗“大模型吐露其Prompt?
逆向工程就是一种从结果反推过程的方法。逆向工程让我们能够在不了解实际原理和过程的情况下,推断出生产结果和相应的需求条件。提示词的逆向工程,主要是让AI大语言模型分析文本,并尝试生成一个能够产生类似结果的提示词。这个过程需要一定的文本分析和总结能力。因此,我建议你使用最新的ChatGPT-4模型来进行这样的尝试,使用其他模型不一定能得到较好的效果。原创 2025-02-09 14:18:48 · 1360 阅读 · 0 评论 -
本地部署大模型后如何调用本地大模型的API?
【代码】本地部署大模型后如何调用本地大模型的API?原创 2025-02-09 13:59:54 · 1070 阅读 · 0 评论 -
大模型Prompt 提示词攻击,大语言模型安全的潜在威胁
Prompt 提示词作为人和大语言模型交互的媒介,被不断提起。提示词攻击是一种新型的攻击方式,包括提示词注入、提示词泄露和提示词越狱。这些攻击方式可能会导致模型生成不适当的内容,泄露敏感信息等。Prompt的构建使得预训练大模型能够输出更加符合人类语言和理解的结果,但是不同的prompt的模板依旧有可能会导致一些安全问题和隐私问题的出现。原创 2025-02-09 11:10:18 · 2019 阅读 · 0 评论 -
chatBox网页端不能加载本地安装的大模型,APP端可以加载出来的解决方案
不用纠结这个吧,可能是bug,网上好像没看到别人出现这个情况,希望可以帮助到出现这种情况的兄弟,我也是自己摸索出来的。下拉框加载不出我本地安装的大模型。原创 2025-02-09 10:22:29 · 1545 阅读 · 1 评论 -
Linux部署Ollama报错Error: could not connect to ollama app, is it running?
【代码】Linux部署Ollama报错Error: could not connect to ollama app, is it running?原创 2025-02-08 14:27:23 · 5662 阅读 · 0 评论 -
ollama 下载 deepseek 模型,进度条一直卡着不动,甚至回退
我是一直等解决的,我下的是deepseek-r1:1.5b的总共1.1G大小,在windows环境安装下载了2小时,在linux服务器上安装下载花了5小时,而且我所在的网络环境不算差,源头的问题,但总算最后下成功了,启动成功可以用了。网络不好,这种下载都是分块下载的,网络不好中间断了之后下载的那块就会被丢弃,所以会出现进度条倒退的情况。2、ollama run 是在官网下载源,源头服务器访问慢,就像国外网站一样,这个是主要原因。1、等,最好是晚上下载着,等一晚上,明天再看,基本就下成功了。原创 2025-02-08 14:20:32 · 11710 阅读 · 2 评论 -
【已解决】Linux服务器安装Ollama后,127.0.0.1和localhost可以访问,IP无法访问解决方案
我按照上述改了后确实生效了,可以IP访问了,希望帮助到你。修改完记得ollama一定得重启,重启才会生效。原创 2025-02-07 22:52:03 · 6585 阅读 · 3 评论 -
本地部署deepseek-r1大模型
进入ollama的官网的Models菜单,搜索deepseek,由于现在热度高,第一个就是deepseek,都不用搜索,点击进去。但是一般下载很慢,甚至没有反应,所以我上传了资源,到我的博客主页 - >资源去下载windows的ollama包吧。原创 2025-02-07 21:29:48 · 4814 阅读 · 0 评论 -
Linux环境下载Ollama慢或卡顿解决方案
官方下载方式是到ollama官网下载ollama: https://ollama.com/复制下载链接执行:二、卡顿现象执行后经常会出现下载失败或者进度条特别慢的情况,甚至直接退出下载:因为ollama官网下载速度太慢了,可以采用国内镜像源加速器下载,步骤如下:2、使用github文件加速替换github下载地址3、替换后增加可执行权限4、执行sh下载安装执行后效果好很多:原创 2025-02-06 14:36:24 · 10773 阅读 · 2 评论 -
本地机器上便捷部署和运行大型语言模型(LLM)而设计的开源框架Ollama
Ollama是一个开源框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计。其主要目标是简化在Docker容器中部署大型语言模型的过程,使得非专业用户也能方便地管理和运行这些复杂的模型。原创 2025-02-06 14:24:44 · 4870 阅读 · 0 评论 -
AI Agent智能体的分类-类型有哪些?
AIAgent可以根据不同的标准进行分类,以下是一些常见的分类方式。原创 2025-01-19 15:51:40 · 5016 阅读 · 0 评论 -
一文读懂AI Agent 智能体
在计算机科学和人工智能领域,智能体(Agent)是一个抽象的概念,用于描述能够感知环境、执行行动并以此对环境产生影响的实体。智能体通常被设计成具有自主性和适应性,能够在不确定、复杂或动态的环境中做出决策以达成特定目标。简单来说,AIAgent智能体,是一种能够默认人类思考和行动来自动执行任务,以解决复杂问题的程序或者系统。原创 2025-01-19 11:58:48 · 5578 阅读 · 0 评论 -
【大模型】从零样本到少样本学习:一文读懂 Zero-shot、One-shot 和 Few-shot 的核心原理与应用!
在自然语言处理(NLP)领域,Zero-shot、One-shot 和 Few-shot 学习已经成为衡量大语言模型泛化能力的重要指标。尤其是在大规模预训练模型(如 GPT 系列)的推动下,这些技术得到了广泛应用和关注。本篇文章将带你全面了解这三种学习方法的核心概念、原理和实际应用场景。Zero-shot 学习指模型仅通过任务描述(Task Description)理解任务,并在没有任何示例的情况下预测输出结果。它完全依赖于预训练阶段中学习到的通用知识,不需要针对具体任务的额外数据。原创 2025-01-18 12:00:36 · 5549 阅读 · 0 评论