
AI-LLM相关
文章平均质量分 89
hhzz
始终不渝,谦卑吾心。在 JAVA全栈前后端方面耕耘数年,同时也专注于前端流行框架vue 以及移动端 uniapp 和 uincloud 云端一体框架,平常喜欢记录学习博客,也乐于分享自己的学习心得;阿里云专家博主,目前专注重点是 docker 容器技术以及 k8s 集群管理、devops 开发运维和 aigc 大模型应用等;另外在地理信息 GIS 方面也有一定的研究。
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
1分钟教你如何将DeepSeek接入到Word中
将DeepSeek接入Word,不仅提升了文档编辑的效率和体验,还为用户提供了智能化、个性化的创作支持。这种创新整合,将在未来的办公和学习场景中发挥越来越重要的作用。在窗口 Visual Basic中 ,在Normal的模块下右键新增模块,输入代码后保存。点击创建API key,填写名称,自动生成key,复制Key备用(下文中要用到)上述代码中修改两处 自己的DS AK,保存替换代码中的"你的APIKEY"。新建一个文档,输入如下内容,选择文字后,点击"对话。,注册登录后点击左上角"API开放平台";原创 2025-02-22 22:58:56 · 1978 阅读 · 2 评论 -
本地部署DeepSeek-R1模型每个版本的配置要求及适合场景(建议收藏)
真正的"国运"或许就藏在这些街边摊的油烟气里:一群不信邪的傻子,用代码当砖瓦,拿算法做钢筋,在资本与质疑的裂缝中,硬生生垒出通向未来的栈桥。DeepSeek团队已经证明,较大模型的推理模式可以被提炼成较小的模型,与通过RL在小模型上发现的推理模式相比,可以获得更好的性能。根据 Ollama 平台提供的 DeepSeek-R1 模型信息,以下是不同参数量模型的本地部署硬件要求和适用场景分析。以下是通过使用DeepSeek-R1生成的推理数据对研究界广泛使用的几个密集模型进行微调而创建的模型。原创 2025-02-04 12:31:57 · 2380 阅读 · 3 评论 -
手把手教你如何利用ollama +Open WebGUI在本地搭建部署一套Deepseek-r1模型离线对话系统(docker版)
运行模型前首先要到https://ollama.com/library/选择自己要加载的模型(上面有各种模型:deepseek-r1,llama3.1,gemma2,qwen2.5,等等),我们在这选择现在最火的国产大模型deepseek-r1。打开浏览器,访问http://localhost:3000,您应该能够看到Open WebGUI的界面,并通过它与DeepSeek R1模型进行交互。如果是GPU,请参考ollama官网文档。通过Web界面输入数据,测试模型的响应,确保一切正常运行。原创 2025-02-01 18:29:09 · 1319 阅读 · 0 评论 -
全面认识了解DeepSeek+利用ollama在本地部署、使用和体验deepseek-r1大模型
DeepSeek 是一家专注于人工智能领域的创新型科技公司;成立于2023年7月;公司名称:杭州深度求索人工智能基础技术研究有限公司。2025 年 1 月,其相关应用登顶苹果中国地区和美国地区应用商店免费 APP 下载排行榜,在美区下载榜上超越了 ChatGPT。受 DeepSeek 冲击,2025 年 1 月 27 日美国人工智能主题股票遭抛售,美国芯片巨头英伟达股价历史性暴跌,纳斯达克综合指数大幅下跌。发展历程及产品发布。原创 2025-01-30 11:40:59 · 11189 阅读 · 10 评论 -
AI 编码助⼿《通义灵码》的8个使用技巧
在这个案例中,我们使⽤了强调词汇(如“务必”、“正确”、“严格执⾏”、“全⾯检查”、“遵循最佳实践”、“确保”等)和强调符号(如粗体、斜体)来突出单元测试脚本编写过程中的关键要求和注意事项,帮助灵码或开发者更好地理解和执⾏测试任务。技巧:在与通义灵码交互时,务必提供实际的输⼊数据和预期输出结果,以帮助灵码直观理解你的测试⽤例需求,确保其⽣成的代码能准确覆盖所需测试场景。技巧:将Prompt分为明确的模块,如任务描述、输⼊数据、预期输出、约束条件等,提升代码可读性和交互效率。原创 2024-10-09 08:45:48 · 1625 阅读 · 0 评论 -
最简单的AI训练方法-RAG增强检索原理
RAG( Retrieval-Augmented Generation)是一种结合了检索和生成两种策略的AI训练方法,旨在通过检索相关信息来增强模型的生成能力,从而提高回答问题或生成文本的质量和准确性。这样,生成的文本不仅依赖于模型本身的参数,还融入了从外部知识库检索到的具体内容,从而增强了生成内容的相关性和准确性。检索模型训练/选择:如果知识库非常大,你可能需要训练一个高效的检索模型,如使用向量空间模型、TF-IDF、或者更先进的如BERT-based的语义检索模型。原创 2024-05-26 18:29:45 · 1584 阅读 · 0 评论 -
MaxKB+Ollama:快速构建基于大语言模型的本地知识库问答系统
1Panel 是一个现代化、开源的 Linux 服务器运维管理面板。MaxKB:1Panel开源项目组正式对外介绍了其官方出品的开源子项目,基于LLM(Large Language Model)大语言模型的知识库问答系统,为用户提供强大的学习能力和问答响应速度,致力于成为企业的最强大脑。Ollama:是一个开源框架,它支持用户通过本地部署的方式构建大语言模型服务。目前,Ollama支持的大语言模型包括LIama 2、Mistral、Gemma等。原创 2024-04-29 09:00:48 · 1963 阅读 · 1 评论 -
免费打造个人专属的高颜值本地大模型AI助手,无限量使用 Ollama+LobeChat开源工具,在本地运行AI大模型,安全的和AI对话。
Lobe Chat:现代化设计的开源 ChatGPT/LLMs 聊天应用与开发框架,支持语音合成、多模态、可扩展的(function call)插件系统,一键免费拥有你自己的 ChatGPT/Gemini/Claude/Ollama 应用。如果是跑4b,7b等小模型,普通电脑就可以了,如果要跑32b比较大的,最好是有GPU,还要显存比较大。硬盘没啥要求,比如4b的模型,才2.3GB而已,30b的也就30GB左右,完全不用担心磁盘.70b模型:64GB内存,32也能跑,太卡。13b模型: 32GB内存。原创 2024-04-16 18:31:30 · 5600 阅读 · 5 评论 -
Langchain---开源、离线、免费商用的大模型知识库来袭!全流程可使用开源模型实现的本地知识库问答应用!快速搭建个人和企业私有智能知识库!
GitHub开源了一款可离线,支持检索增强生成(RAG)大模型的知识库项目。虽然开源时间不长,但是势头很猛,已经斩获25K Star。具备以下特点:项目利用 langchain 思想实现的基于本地知识库的问答应用,目标期望建立一套对中文场景与开源模型支持友好、可离线运行的知识库问答解决方案;项目支持的开源 LLM 与 Embedding 模型,本项目可实现全部使用开源模型离线私有部署。与此同时,本项目也支持 OpenAI GPT API 的调用,并将在后续持续扩充对各类模型及模型 API 的接入;原创 2024-04-10 10:27:13 · 3639 阅读 · 0 评论 -
盘点最全AI大模型LLM
在自然语言处理(NLP)领域有着广泛的应用,因其强大的语言理解和生成能力,能够处理各种复杂的文本任务,包括但不限于翻译、问答、文本摘要、对话、文本分类、情感分析、代码生成、创作辅助等。例如,GPT-3(Generative Pretrained Transformer 3)拥有约1750亿个参数,而更近期的模型如 GPT-4、PaLM、Chinchilla、阿里云的通义千问等,参数量可能更大。Decoder-only结构:如GPT系列模型,用于生成文本、补全句子、撰写文章等任务。原创 2024-04-10 14:50:39 · 1017 阅读 · 0 评论 -
王者Claude 3大模型!!!OpenAI竞争对手Anthropic推出Claude 3大模型,各项性能全面碾压GPT-4!
OpenAI不可战胜的神话,已经被打破了。周一,人工智能(AI)初创公司Anthropic推出了Claude 3大模型,能够更好地执行复杂的指令。该公司声称,Claude 3对复杂任务表现出接近人类的理解能力,是当前最强大的大模型之一;成为智能行业新标准。下一代 Al 模型 Claude 3。Claude 3分为三个版本,分别为Claude 3 Opus、Sonnet和Haiku,“中杯”(Sonnet)直接免费体验,“大杯”(Opus)充个会员也能即刻享受。原创 2024-03-05 15:33:36 · 929 阅读 · 0 评论 -
Ollama--本地大语言模型LLM运行专家
Ollama是一个强大的运行AI模型的工具;Ollama支持多种开源模型,您可以通过访问ollama.ai/library来查看所有可用的模型,并使用ollama pull 来下载指定模型。此外,如果您想创建自定义模型,可以通过创建Modelfile并使用ollama create -f ./Modelfile来创建,并通过ollama run 来运行您的模型。Ollama 以其易用性、灵活性和强大的功能,为本地运行大型语言模型提供了一个理想的解决方案。原创 2024-03-05 11:09:26 · 7508 阅读 · 0 评论