自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(990)
  • 收藏
  • 关注

原创 DeepSeek最新离线版下载+安装教程(本地部署)+无限制大模型,收藏这一篇就够了!!

深度求索(DeepSeek)是一家中国的人工智慧(AI)公司,成立于 2023 年,目标是打造「通用人工智慧」(AGI)。DeepSeek 专注于研发最先进的AI 技术,特别是「自然语言处理」(NLP)和「深度学习」,AI技术可以让机器理解人类语言、生成文字、进行对话,甚至解决更复杂的问题,像是聊天机器人、文本生成、语文翻译、整理资料…...2024年12月26日,DeepSeek-V3正式发布且直接开源,剔除掉Meta、OpenAI等大厂的前期探索成本,大概是别人的三分之一,并且整体模型评测能力媲美闭源模

2025-04-04 08:00:00 559

原创 Qwen3即将发布?深度研究报告——解析阿里巴巴新一代大语言模型的技术革新与行业影响

Qwen3最引人注目的创新在于其动态可调混合专家架构。相较于前代产品的固定结构,第三代MoE系统通过以下机制实现智能资源分配:分层稀疏调度:配置文件中的mlp_only_layers参数允许开发者指定仅使用传统MLP的层序号,而decoder_sparse_step参数控制MoE层的插入间隔。例如配置mlp_only_layers = [0,6]时,模型将在第0、3、6层启用MoE,其余层保持密集计算。动态专家激活:每个token处理的激活专家数num_experts_per_tok默认设置为8,总

2025-04-03 11:00:07 931

原创 DeepSeek本地部署(局域网+异地访问)数据库(保姆教程),建议收藏起来慢慢学!!

“通过局域网或异地公网访问本地部署的DeepSeek+数据库”, 这是一个常见的场景,我也有用到,本次将整理分享配置“局域网或异地公网”访问的方法!

2025-04-03 09:03:58 859

原创 【AI大模型部署】三分钟让你学会使用Dify接入Ollama部署的本地大模型!看到就是赚到!!

Docker 容器无法访问 Ollama 服务。localhost 通常指的是容器本身,而不是主机或其他容器。要解决此问题,你要将 Ollama 服务暴露给网络。

2025-04-02 11:56:08 985

原创 最近智能体Agent 圈很热的MCP是什么?看完这篇你就懂了!!

MCP逐渐被接受,是因为MCP是开放标准。在AI项目开发中可以发现,集成AI模型复杂,现有框架如LangChain Tools、LlamaIndex和Vercel AI SDK存在问题。LangChain和LlamaIndex代码抽象高,商业化过重;Vercel AI SDK与Nextjs绑定过深。MCP的优势在于:一是开放标准利于服务商开发API,二是避免开发者重复造轮子,可利用现有MCP服务增强Agent。

2025-04-02 11:11:42 569

原创 如何在 Java 中基于 LangChain 编写大语言模型应用,看完这一篇你就懂了!!

在本教程中,我们将会研究 LangChain 的细节,这是一个利用语言模型开发应用程序的框架。首先,我们会介绍有关语言模型的基本概念,这将对本教程有一定的辅助作用。尽管 LangChain 主要提供了 Python 和 JavaScript/TypeScript 语言的版本,但是也有在 Java 中使用 LangChain 的可选方案。我们将会讨论组成 LangChain 框架的构建基块,然后在 Java 中进行实验。

2025-04-01 11:36:06 614

原创 【AI大模型】连续尝试了18种RAG技术之后,我找到了最优的那个!!

在当前生成式模型与信息检索技术快速发展的背景下,如何有效结合二者,提升问答系统的准确性与实用性成为技术探索的焦点。为了寻找最佳解决方案,我尝试了 18 种不同的 RAG(Retrieval-Augmented Generation)技术,从最基础的方法到复杂的多模型融合。经过大量实验,数据表明 Adaptive RAG 凭借动态调整策略和出色的检索效果,以最高得分 0.86 成为本次实验中的大赢家。

2025-04-01 10:45:29 829

原创 【AI大模型】一文读懂从RAG到多模态RAG,收藏这一篇就够了!!

如果说2023年见证了大语言模型的“寒武纪大爆发”,那么2024年则是多模态大模型“元年”。GPT-4o的出现让大家见识到多模态能力引入,给下游应用生态带来的巨大改变。随之而来的,RAG技术也将逐渐从单语言模态的RAG进化到多模态RAG。本文将带大家速览多模态RAG技术的原理及实现。

2025-03-31 21:34:21 774

原创 优化 | 5分钟读懂LLM:DeepSeek、ChatGPT背后的核心技术,零基础小白收藏这一篇就够了!!

LLM(Large Language Model)是大型语言模型的简称,像DeepSeek、ChatGPT等都属于不同公司开发的LLM。你可以把它想象成一个超级聪明的聊天机器人和写作助手,它通过学习了海量文字资料,变得非常擅长理解和生成人类语言。简单来说,它能听懂你说什么,也能像模像样地跟你聊天、写文章等等。

2025-03-31 21:15:21 738

原创 硬核教程!手把手教你在本地跑 DeepSeek-R1,零门槛上手!

在 AI 发展浪潮中,逻辑推理能力正成为衡量智能水平的重要标准。而DeepSeek-R1 作为一款由中国 AI 公司 DeepSeek 开发的开源推理模型,正引领这一领域的新变革。它不仅能解决复杂的数学问题,还能执行实时决策,为 AI 在实际应用中的落地提供了更多可能性。在本教程中,我将手把手带你完成 DeepSeek-R1 在本地的运行流程,并详细讲解如何使用 Ollama 进行环境配置。

2025-03-30 08:00:00 870

原创 详细!离线部署大模型:ollama+deepseek+open-webui安装使用方法及常见问题解决

ollama 是一个开源的本地大语言模型运行框架,它提供了非常简单便捷的使用形式,让用户可以十分方便的在本地机器上部署和运行大型语言模型,从而实现免费离线的方式使用 LLM 能力,并确保私有数据的隐私和安全性。

2025-03-29 15:31:22 773

原创 全模态模型Qwen2.5-Omni开源,7B尺寸实现全球最强性能

今天,通义千问Qwen2.5-Omni-7B正式开源。作为通义系列模型中首个端到端全模态大模型,可同时处理文本、图像、音频和视频等多种输入,并实时生成文本与自然语音合成输出。在权威的多模态融合任务OmniBench等测评中,Qwen2.5-Omni刷新业界纪录,全维度远超Google的Gemini-1.5-Pro等同类模型。

2025-03-29 13:54:26 374

原创 一文全面说透,AI大模型!看完这一篇你就懂了!!

近年来,随着深度学习技术的飞速发展,AI大模型作为人工智能领域的重要研究对象,正逐步成为学术界和产业界广泛关注的热点议题。AI大模型,作为一类具备庞大参数规模与卓越学习能力的神经网络模型,如BERT、GPT等,已在自然语言处理、计算机视觉等多个领域展现出卓越成效,极大地推动了相关领域的技术进步。

2025-03-28 11:56:47 633

原创 2万字长文!一文了解Attention,从MHA到DeepSeek MLA,大量图解,非常详细!

在深度学习,特别是自然语言处理(NLP)领域,注意力机制(Attention Mechanism)是一个非常重要的概念。Attention机制的起源可以追溯到对生物视觉注意力的模拟以及神经机器翻译的实际需求。Bahdanau等人的工作首次将Attention机制引入自然语言处理领域;而Transformer架构则将Attention机制推向了一个新的高度,使其成为现代自然语言处理的核心技术之一。随着DeepSeek的爆火,它们的MLA注意力方法更是将Attention机制的应用和优化发展到了极致

2025-03-28 11:26:09 808

原创 AI产品经理怎样入门?为什么想成为AI产品经理应选择LLMs方向?

随着人工智能技术的快速发展,越来越多的人开始考虑如何在这个领域找到自己的位置。尤其是对于那些希望转型成为AI产品经理的人来说,选择正确的方向尤为重要。

2025-03-27 14:45:59 243

原创 综述 | 时间序列分析如何从多种模态受益?看完这一篇你就懂了!!

时间序列分析(Time Series Analysis, TSA)研究存在一个长期被忽视的问题:大多数 TSA 工作仅考虑数值序列,而忽略了其他模态,导致信息不完整和非语言化的交互。相比之下,语言和视觉等模态近年来不仅经历了爆炸性发展,更呈现出密集的多模态融合,如 GPT 和 Qwen 系列等强大的基础多模态模型。作者指出:近期许 TSA 工作正在形成一个新的研究领域,即多模态赋能的时间序列分析(MM4TSA)。总体来看,这些 MM4TSA 的研究共享一个高层次的动机:如何从多个模态中获益来助力时间序列分析

2025-03-27 11:01:15 545

原创 【AI大模型】一文说清楚人工智能的嵌入(Embedding)是什么!建议收藏!!

Embedding 是一种机器学习概念,用于将数据映射到高维空间,将语义相似的数据放在一起。Embedding模型通常是 BERT 或其他 Transformer 系列中的深度神经网络,可以用一系列称为向量(vectors)的数字有效地表示文本、图像和其他数据类型的语义。这些模型的一个主要特点是,向量之间在高维空间中的数学距离可以表示原始文本或图像语义的相似性。这一特性开启了许多信息检索应用,如谷歌和必应等网络搜索引擎、电子商务网站上的产品搜索和推荐,以及最近流行的生成式人工智能中的检索增强生成(RAG)范

2025-03-26 11:38:58 764

原创 3步,0代码!一键部署DeepSeek-V3、DeepSeek-R1,建议收藏!!

我们进入正题:阿里云PAI Model Gallery支持云上一键部署DeepSeek-V3、DeepSeek-R1。在该平台上用户可以零代码实现从训练到部署再到推理的全过程,简化模型开发流程,为开发者和企业用户带来了更快、更高效、更便捷的AI开发和应用体验。

2025-03-26 10:39:57 812

原创 这样图解Transformer应该没人看不懂了吧——Transformer工作原理

本文将深入剖析Transformer的内部工作原理,详细研究其运作细节。我们将通过实际的矩阵表示和形状,观察数据如何在系统中流动,并理解每个阶段进行的计算。本文目标不仅是理解Transformer是如何工作的,更要探究它为何如此工作。

2025-03-25 14:25:37 694

原创 解密prompt系列46. LLM结构化输出代码示例和原理分析

最近闭源大模型们都陆续支持结构化输出,这一章我们先结合demo看下开源和闭源对结构化输出的支持,随后会介绍Constrained Decoding和Format Restricting Instructions 两种结构化输出约束方案,最后会给出结构化输出对比自然语言输出的一些观点。

2025-03-25 10:24:43 841

原创 2种方式1键部署,快速体验QWQ-32B 模型,收藏这一篇就够了!!

QwQ-32B 推理模型正式发布并开源,凭借其卓越的性能和广泛的应用场景,迅速在全球范围内获得了极高的关注度。基于阿里云函数计算 FC提供算力,Serverless+ AI 云原生应用开发平台 CAP现已提供模型服务、应用模板两种部署方式辅助您部署QwQ 32B系列模型。您选择一键部署应用模板与模型进行对话或以API形式调用模型,接入AI应用中。欢迎您立即体验QwQ-32B。

2025-03-24 11:43:30 882

原创 本地部署DeepSeek R1 + Ollama + XRAG:三步搭建RAG系统,并解锁全流自动化评测

如何科学的评估RAG系统,对于RAG系统的性能优化至关重要。为此,本文提供了一个详细操作指南,帮助用户使用Ollama本地部署最新的DeepSeek R1模型,并使用最新的XRAG1.0框架来构建RAG系统并评估你的本地RAG知识库系统。

2025-03-24 10:53:19 258

原创 解密Prompt45. 再探LLM Scalable Oversight -辩论、博弈哪家强

之前我们已经介绍过几个针对Scalable Oversight的解法,也就是当模型能力在部分领域超越人类标注者后,我们该如何继续为模型提供监督信号,包括持续提升Verifier的能力,辅助人类提供监督信号:self-Critic持续提升模型在弱监督下的泛化性:weak-to-strong Generalization

2025-03-23 08:00:00 570

原创 解密prompt系列44. RAG探索模式?深度思考模式?

前一阵多步RAG的风吹入了工业界,kimi推出了探索版本,各应用都推出了深度搜索,You.COM更是早就有了Genius的多步模式。其实都是类似multi-hop RAG的实现。之前学术界在讨论multi-hop RAG的时候总是给一些基于历史知识类的问题,什么某年诺贝尔奖的获奖人在哪读的大学呀,给人一种错觉就是这类问题现实世界里真的有人这么提问么?其实还真有!

2025-03-22 11:35:38 1003

原创 解密prompt系列43. LLM Self Critics

前一章我们介绍了基于模型自我合成数据迭代,来提升LLM生成更合理的自我推理思考链路。但在模型持续提升的道路上,只提升Generator能力是不够的,需要同步提升Supervisor、Verifier的能力,才能提供有效的监督优化信号。

2025-03-22 10:44:20 539

原创 DeepSearcher 开源:告别传统 RAG,私有数据+DeepSeek,打造本地版 Deep Research

DeepSeek 实在太火爆了。近期,Open AI 推出的 Deep Research(深度研究)功能引发了广泛关注。该功能通过整合大模型、超级搜索和研究助理于一体,使得金融机构能够一键生成报告,科研人员能够一键撰写综述,极大提升了效率。然而,由于企业场景中私有化数据的敏感性和成本考虑,如何将 Deep Research 进行开源的本地化部署,成为许多人的关注焦点。

2025-03-21 11:06:49 1052

原创 全面指南!掰细了讲Transformer模型各个组件和数据流动过程,建议收藏!!

最近 Transformer 模型可太火了,它作为 GPT 中的 “T”,无疑是当下人工智能领域的核心技术,甚至堪称 21 世纪最伟大发明的有力候选者。你是不是也常听到它的大名,却对其原理一知半解?本文是一篇关于Transformer模型的详细解析,作者通过实际操作和代码追踪,深入探讨了Transformer模型的工作原理,特别是其在训练和文本生成中的具体机制。

2025-03-21 10:35:10 736

原创 【AI大模型】介绍一种transformer稀疏神经网络的硬件加速器算法,看到就是赚到!!

基于transformer的网络在深度学习中是一股强大的力量。自transformer发明以来,在许多领域如神经机器翻译、语言理解和图像处理都产生了巨大影响。然而,transformer在感知识别处理的性能伴随着高昂的计算和内存成本,这成为基于transformer应用高效部署的重大障碍。

2025-03-20 14:16:41 903

原创 【AI大模型实战】手把手教你用 DeepSeek R1 + Ollama 搭建高效 RAG 系统!建议收藏!!

构建一个强大的 RAG(检索增强生成)系统,能够极大提升 AI 在知识问答、信息检索和内容创作中的能力。DeepSeek R1 和 Ollama 作为当前领先的 AI 工具,为 RAG 系统的开发提供了强大支持,让开发者能够更加高效地构建智能 AI 解决方案。本指南将详细介绍如何利用这些技术进行 RAG 系统的搭建,涵盖环境设置、核心流程、优化策略和最佳实践。

2025-03-20 10:42:09 940

原创 一种在本地使用开源大模型将文档转换为知识图谱的方法,看到就是赚到!!

知识图谱(Knowledge Graph,KG)或任何图(Graph)都由节点(Node)和边(Edge)组成。KG 的每个节点代表一个概念,每条边则表示两个概念之间的关系。在本文中,我将分享一种将任意文本语料库转换为“概念图”(Graph of Concepts,GC)的方法。我会交替使用“概念图”(GC)和“知识图谱”(KG)这两个术语,以更准确地描述我的演示内容。

2025-03-19 11:44:17 931

原创 检索增强生成 (RAG)的原理——传统检索+LLM生成相结合

RAG是一种检索增强生成模型,由信息检索系统和seq2seq生成器组成。它的内部知识可以轻松地随时更改或补充,而无需浪费时间或算力重新训练整个模型。

2025-03-19 10:21:58 947

原创 超实用!用 Ollama + DeepSeek + Dify 搭建本地知识库,提升企业效率

伙伴们!今天给大家带来一个超实用的开源工具组合,能帮企业快速搭建本地知识库,提升内部信息管理效率。这个组合就是 Ollama + DeepSeek + Dify,接下来我详细说说怎么操作,保证小白也能轻松上手!为啥要搭建本地知识库?现在企业内部信息管理太难了,数据到处都是,检索效率低得可怜,还缺乏智能化支持。尤其是面对海量非结构化数据,企业很难快速提取有价值的信息,决策效率低得不行。要是能有个工具解决这些问题,那可太棒了!

2025-03-18 11:32:56 902

原创 通过Ollama本地部署DeepSeek R1以及简单使用的教程(超详细)建议收藏起来慢慢学!!

本文介绍了在Windows环境下,通过Ollama来本地部署DeepSeek R1。该问包含了Ollama的下载、安装(命令和双击安装)、安装目录迁移、大模型存储位置修改、下载DeepSeek以及通过Web UI来对话等相关内容。

2025-03-18 10:38:47 1128

原创 DeepSeek+dify 本地知识库:高级应用Agent+工作流

dify的强大在于其灵活性,主要体现在智能体和工作流上。它可以让一个没有编程能力的人通过简单学习,快速搭建Agent和自动化流程。就像拼积木一样。

2025-03-17 13:43:48 1770

原创 DeepSeek-R1蒸馏小模型,用Ollama在本地运行跑起来

DeepSeek-R1作为第一代推理模型,在数学、代码和推理任务上表现优异,与OpenAI-o1模型不相上下。将此类模型部署到本地,可为AI应用带来更强隐私保护、定制化和可控性。

2025-03-17 11:06:32 889

原创 AI大模型系列:OpenCompass(司南)大模型测评工具介绍和实践

本篇要介绍的OpenCompass工具已经内置了一系列大模型测评常用的步骤模块,从而实现对大模型的高效自动化测评。OpenCompass是一个一站式的大模型评估平台,旨在为大模型评估提供一个公平、开放和可复制的基准。它不仅量化了模型在知识、语言、理解、推理等方面的能力,还推动了模型的迭代和优化。其主要特点包括:

2025-03-16 08:00:00 911

原创 AI大模型系列:Prompt提示工程常用技巧和实践,建议收藏起来慢慢看!!

Prompt提示语是使用大模型解决实际问题的最直接的方式,本篇介绍Prompt提示工程常用的技巧,包括Zero-Shot、Few-Shot、CoT思维链、Least-to-Most任务分解。

2025-03-15 08:00:00 636

原创 一文说清大模型RAG应用中的两种高级检索模式:你还只知道向量检索吗?

如果你知道RAG(检索增强生成),那么一定知道这里面的R代表Retrieval即检索,也一定知道这个环节对于最终的生成质量有多重要,而基于向量(Vector)的语义检索是最为熟知的一种基础检索模式。但在实际应用中,如果只是简单的使用一次向量检索,往往很难满足多样化的需求。所以在模块化RAG的时代,很多新的范式与算法都对检索这个环节进行了大量的创新与优化,本文将深入探讨两种在RAG应用中可灵活应用的高级检索模式:

2025-03-14 11:24:23 1011

原创 Prompt工程还是SFT微调?剖析企业应用中优化大语言模型输出的两种方案

我们在使用大语言模型(LLM)的过程中应该都遇到过这样的困惑:模型很多时候并不总能输出你期望的结果。这里面有的是大模型的“知识盲区”导致的“幻觉”问题,有的是大模型不能很好的遵循你的“指令”。这些问题在企业应用中会尤其突出,这源自于企业应用对输出确定性的要求以及应用环境的复杂性。特别是在构建类似AI Agent(自主AI智能体)应用时,作为智能体“大脑”的LLM,很多时候我们需要更准确与稳定的输出,以降低智能体的出错概率。

2025-03-14 10:51:59 1044

原创 什么是Transformer?什么是视觉Transformer?与CNN的比较谁更胜一筹?

简单来说,注意力机制就是一种资源分配方案,它让模型能够聚焦于输入序列中的关键部分,而忽略其他不那么重要的信息。 就像我们人类在阅读时,会自动关注那些重要的单词或短语一样。在深度学习中,注意力机制通过计算序列中各个元素的重要性,来增强模型对关键信息的捕捉能力。

2025-03-13 14:47:12 756

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除