- 博客(279)
- 资源 (30)
- 收藏
- 关注
原创 探索大语言模型(LLM):MarkDown格式文档的结构化提取全流程
在做RAG工作中,数据处理的好坏往往决定着RAG效果的好坏。经过实际的测试,MarkDown格式的文本相较docx、pdf等格式无疑是最合适的,本篇将详细介绍MarkDown格式文档的结构化提取的全流程。
2025-10-24 12:48:31
905
原创 大模型面试题剖析:LoRA高效微调的核心原理
大型语言模型(LLM)参数规模极大,全参数微调存在诸多难题:- **成本高昂**:需存储和更新所有模型参数副本,训练开销大。- **部署困难**:每个任务都要存储完整模型副本,占用大量存储空间。- **资源需求高**:对计算资源和GPU内存要求严苛,普通设备难以支撑。
2025-10-14 21:00:00
1546
原创 大模型面试题剖析:全参微调与LoRA的资源占用解析
在深度学习模型的全参微调过程中,资源占用主要来自模型权重参数、优化器状态向量和梯度这几个关键部分,我们来详细看看它们的计算公式和含义。
2025-10-14 21:00:00
490
原创 大模型面试题剖析:大模型训练关键技术解析(从 RLHF 、RLAIH、DPO到 SFT)
在大模型的迭代优化过程中,如何让模型输出更符合人类预期、更适配特定任务,一直是技术研发的核心方向。本文将围绕人类反馈的强化学习(RLHF)、AI 反馈强化学习(RLAIH)、直接偏好优化(DPO)以及监督式微调(SFT)等关键技术展开,深入解析它们的核心原理、实施流程与技术特点,帮助读者理清大模型训练技术的脉络。
2025-10-13 14:10:59
580
原创 探索大语言模型(LLM):大模型微调方式全解析
在大模型落地实践中,微调(Fine-tuning)是连接通用预训练能力与特定任务需求的关键环节。通过微调,我们能让在海量数据上预训练的模型 “适配” 具体业务场景,比如客服对话、代码生成、医学文献分析等。本文将系统梳理六种主流微调方式,从核心原理、参数调整逻辑到适用场景,帮你快速掌握不同方案的选型思路。
2025-10-06 18:10:36
802
4
原创 大模型面试题剖析:深入解析 Transformer 与 MoE 架构
在人工智能大模型飞速发展的今天,Transformer 架构无疑是撑起整个领域的 “基石”,而 MoE(Mixture of Experts)架构则凭借其独特的 “稀疏激活” 思路,成为突破大模型参数规模与计算效率瓶颈的 “关键引擎”。无论是 ChatGPT 背后的技术支撑,还是自动驾驶中的多模态感知,这两种架构都扮演着不可或缺的角色。本文将从核心原理、大模型设计逻辑和关键差异三个维度,带大家全面读懂 Transformer 与 MoE 架构。
2025-10-06 16:21:42
810
原创 探索大语言模型(LLM):一文读懂通用大模型的定义、特点与分类
在人工智能技术飞速发展的当下,通用大模型无疑是最受关注的领域之一。它凭借强大的能力打破了传统 AI 模型的局限,为各行业的智能化升级提供了全新可能。本文将从通用大模型的定义出发,深入剖析其核心特点,并详细梳理常见的分类方式,带大家全面认识这一前沿技术。
2025-10-06 15:48:57
1010
原创 大模型面试题剖析:模型微调中冷启动与热启动的概念、阶段与实例解析
在人工智能模型的开发流程中,微调是让预训练模型适配特定任务、提升性能的关键环节。而在微调的启动方式上,“冷启动” 和 “热启动” 是两个高频出现但容易混淆的概念。很多刚接触模型微调的开发者,常会疑惑二者的核心区别的适用场景。今天这篇博客,就用通俗易懂的语言拆解这两个概念,结合实际微调案例,帮你搞懂什么时候该用冷启动,什么时候该选热启动。
2025-10-03 17:41:49
665
原创 探索大语言模型(LLM):Windows系统与Linux系统下的Ollama高级配置(修改模型地址、Service服务以及多卡均衡调用)
在之前的探索大语言模型(LLM):Ollama快速安装部署及使用(含Linux环境下离线安装)中,已经介绍了ollama在Windows环境下和Linux环境下的安装,在本篇中将重点介绍Ollama的常用配置
2025-09-16 09:31:41
1195
原创 大模型面试题剖析:RAG中的文本分割策略
在大语言模型(LLM)驱动的应用场景中,检索增强生成(RAG)技术愈发关键。而文本分割,作为RAG流程里的核心环节,直接影响着整个系统的性能与效果。接下来,我们将从文本分割的重要性、在RAG中的位置、不同分割方法以及实践建议等方面,进行全面且深入的剖析。
2025-09-15 15:00:16
1055
原创 探索大语言模型(LLM):Open-WebUI的安装
Open-WebUI 是一款专为大模型设计的开源可视化交互工具,它通过类 ChatGPT 的直观界面,让用户无需代码即可管理、调试和调用本地或云端的大语言模型(LLMs),成为私有化部署的便捷工具,本文将介绍如何部署并使用Open-WebUI。
2025-09-11 17:30:31
562
1
原创 探索大语言模型(LLM):Ollama快速安装部署及使用(含Linux环境下离线安装)
Ollama 是一个开源的本地化大模型运行平台,支持用户直接在个人计算机上部署、管理和交互大型语言模型(LLMs),无需依赖云端服务。而且其混合推理的特性也使得CPU和GPU的算力能够充分被使用,能够在同等配置下跑更大的模型,是非常适合个人学习使用的平台。本篇将详细介绍Ollama在各种平台上的详细安装过程以及应用。
2025-09-11 16:27:20
1374
原创 大模型面试题剖析:大模型微调数据集构建
在大模型技术栈中,微调(Fine - tuning)是使预训练大模型适配特定领域任务的核心手段,而微调数据集作为模型训练的“燃料”,其构建的科学性与工程化程度直接决定微调效果上限。本文从流程、规模、工业实现、强化学习适配等维度,系统解析大模型微调数据集的构建技术。
2025-09-04 10:03:21
558
原创 大模型面试题剖析:大模型多模态微调技术全解析
在人工智能领域,大模型多模态微调是让模型具备跨模态理解与生成能力的关键技术。它能使模型更好地适配特定场景,在视觉问答、医疗影像诊断等诸多领域发挥重要作用。下面将从多模态大模型结构、微调方法、数据准备、应用场景以及面临的挑战等方面展开详细解析。
2025-09-03 11:44:01
713
原创 大模型面试题剖析:大模型多机多卡微调全解析
在大模型时代,模型参数规模呈爆炸式增长,单卡训练已难以满足需求,多机多卡微调成为大模型训练与优化的关键技术。本文将从多机多卡微调的核心原理、实现方式、工程实践要点以及面临的挑战等方面展开详细介绍。
2025-09-02 17:26:20
490
原创 大模型面试题剖析:全量微调与 LoRA 微调
在当今的人工智能领域,大模型已成为推动众多应用发展的核心力量。然而,预训练的通用大模型往往无法直接完美适配各种特定的下游任务。为了让模型在特定任务中展现出卓越性能,微调技术应运而生。本文将深入探讨两种重要的微调方式:模型全量微调与 LoRA(Low-Rank Adaptation)高效微调,详细阐述它们的原理、优势以及在实际应用中的表现。
2025-09-01 16:40:31
693
原创 大模型面试题剖析:PPO 与 GRPO 强化学习算法核心差异解析
在大模型与强化学习交叉的技术领域面试中,PPO(Proximal Policy Optimization)和GRPO这两种算法常常成为面试官考察候选人对强化学习算法理解深度与工程实践能力的重点。今天,我们就从面试高频问题出发,深入剖析二者的核心差异。
2025-08-31 16:16:17
719
原创 大模型面试题剖析:大模型微调与训练硬件成本计算
在大模型技术浪潮中,“大模型微调&训练硬件成本评估” 已成面试高频考点。从底层逻辑到工程实践,每一处细节都可能成为面试官考察你技术深度的切入点。本文结合多场景知识,拆解核心考点,助力面试突围。
2025-08-27 16:27:22
890
原创 大模型面试题剖析:Pre-Norm与Post-Norm的对比及当代大模型选择Pre-Norm的原因
在深度学习面试中,Transformer模型的结构细节和优化技巧是高频考点。其中,归一化技术(Normalization)的位置选择(Pre-Norm vs. Post-Norm)直接影响模型训练的稳定性,尤其是对于千亿参数级别的大模型。本文将结合梯度公式推导,对比两种技术的差异,并解析当代大模型偏爱Pre-Norm的核心原因。
2025-08-25 11:15:59
1756
原创 大模型面试题剖析:模型微调和蒸馏核心技术拆解与考点梳理
在大模型求职面试的赛道上,模型微调和模型蒸馏是绕不开的核心技术考点。这两项技术,一个聚焦模型能力的精细打磨,一个着眼于知识迁移与效率优化,深刻影响着大模型在实际场景中的表现。下面,我们就从技术原理、面试考点等维度,深入拆解,助力大家在面试中精准应答 。
2025-08-24 17:56:32
656
原创 大模型面试题剖析:微调与 RAG 技术的选用逻辑
在大模型技术岗位面试里,“何时用微调技术,何时用 RAG 技术” 是高频考点。这不仅考察对两种技术的理解,更看能否结合场景权衡运用,下面结合要点深入分析。
2025-08-24 17:29:44
535
原创 huggingface入门:Tokenizer 核心参数与实战指南
在自然语言处理(NLP)工程实践中,“文本如何变成模型能读懂的输入” 是绕不开的核心问题。而在Hugging Face Transformers库中,Tokenizer正是解决这一问题的关键组件 —— 它像一座桥梁,一边连接着人类可读的原始文本,另一边连接着模型可处理的数值张量。今天我们就从参数视角拆解 Tokenizer,搞懂它的工作逻辑,以及如何根据任务灵活配置。
2025-08-24 16:45:15
1116
原创 huggingface入门:如何使用国内镜像下载huggingface中的模型
本文介绍了两种下载HuggingFace模型的镜像解决方案:ModelScope和HF-Mirror。针对网络问题导致的模型下载失败,推荐使用镜像网站结合迅雷下载工具。ModelScope提供模型搜索和Python下载功能,支持指定本地保存路径;HF-Mirror则提供Git和迅雷两种下载方式。两种镜像网站都能有效解决直接访问HuggingFace的困难,其中迅雷下载方式最为便捷高效。文中详细说明了各平台的具体操作步骤和下载方法。
2025-08-23 16:45:04
1046
原创 探索大语言模型(LLM):提升 RAG 性能的全方位优化策略
本文深入探讨了提升检索增强生成(RAG)系统性能的多维度优化策略。文章从标准RAG流程出发,系统介绍了查询增强(假设性问题生成、HyDE、子查询拆分)、索引优化(自动合并文档、分层索引)、检索器升级(句子窗口检索、元数据过滤)、生成器调优(提示压缩、chunk排序)以及全流程增强(自反思、Agent路由)五大类方法。这些技术通过优化RAG各环节,显著提高系统在准确性、效率和鲁棒性方面的表现。文章建议开发者根据具体业务场景(如数据规模、查询复杂度等)选择合适的技术组合,并提供了实践指导原则,为构建高性能RAG
2025-07-23 17:31:58
875
原创 RAG技术深度解密:AI界的“学霸外挂”如何炼成?
RAG(检索增强生成)技术通过"检索+生成"两步走,解决传统AI的时效性与准确性痛点。其核心流程包括:知识库预处理(文本分块与向量化)、问题检索(相似度匹配)、上下文生成(结合检索结果输出)。优势在于实时更新知识、减少幻觉、垂直领域适配及答案可追溯。典型案例显示,金融客服应用可提升90%响应效率。未来将向多模态检索、自我验证等方向进化,在医疗、法律、教育等领域具有广阔应用前景。
2025-06-25 12:03:18
342
原创 AI也会“列公式”了?CoT模型让AI学会像人类一样思考!
传统AI只能机械输出结果,而思维链(CoT)模型开创性地让AI展现推理过程。当面对用6个1组成最大数时,CoT会逐步分析得出11¹¹¹,而非简单拼接111111。这种技术突破体现在三大维度:1)将复杂问题拆解分步解决;2)生成可追溯的推理链条;3)具备自我修正能力。目前CoT已成功应用于医疗诊断、教育辅导等领域,虽仍存在推理链断裂等局限,但其透明化思考的特性正推动AI从计算工具向思
2025-06-25 12:02:08
637
原创 微软CTO预言:MCP协议将重塑AI未来,成为智能体的“万能插座“
当AI大模型争相打造"超级大脑"时,微软首席技术官Kevin Scott却抛出一个颠覆性观点:未来的智能体不需要成为全能选手,只需通过MCP协议这个"万能插座",就能与世界万物自由对话!
2025-06-19 15:33:44
508
原创 探索大语言模型(LLM):Lora vs. QLora:参数高效微调的双生花,你该选谁?
在大型语言模型(LLM)的微调江湖中,参数高效微调(PEFT)技术正以“四两拨千斤”的姿态颠覆传统训练范式。其中,Lora(Low-Rank Adaptation)与QLora(Quantized Low-Rank Adaptation)这对“双生花”凭借独特优势,成为开发者手中的利器。本文将深入剖析二者的技术内核、资源消耗与适用场景,助你在资源与精度间找到完美平衡点。
2025-06-19 15:23:15
918
原创 每个行业都在被AI“重做一遍”!你不会提示词工程,就只能被淘汰!
制造业机器人精度超越老师傅,医疗AI诊断速度比专家快10倍,金融AI交易速度是人脑的百万倍...各行各业都在被AI重构。不会使用AI工具的职场人正面临淘汰危机:简历筛选被刷、面试答不上AI问题、升职被会AI的同事碾压。
2025-06-14 18:57:16
408
原创 玩转计算机视觉——安装配置部署paddleOCR(英伟达环境与昇腾300IDUO环境)
本文详细介绍了在英伟达和昇腾300IDUO平台上安装PaddleOCR的完整流程。英伟达平台包括创建Python 3.10虚拟环境、安装Jupyter和PaddleOCR GPU版本。昇腾平台安装则包含驱动固件准备、CANN环境配置、源码下载、模型转换(paddle→onnx→mindir)以及最终测试验证。两种安装方式均提供了完整的命令操作步骤和官方参考链接,涵盖从环境搭建到模型推理的全过程,适合不同硬件平台上的OCR应用部署。
2025-06-13 11:37:10
869
5
原创 探索大语言模型(LLM):使用EvalScope进行模型评估(API方式)
EvalScope是阿里巴巴魔搭社区开发的开源模型评估框架,提供模型压力测试和性能评估功能。安装过程包括创建conda虚拟环境、安装Jupyter内核和EvalScope组件。压力测试可通过命令行执行,测试指标包括吞吐量、延迟等关键参数。性能评估支持在线数据集和本地数据集两种模式,通过Jupyter Notebook配置评估任务。评估结果可通过可视化看板查看,执行evalscope app命令后访问本地端口即可查看详细报告。该框架为开发者提供了一站式的模型评估解决方案
2025-06-10 09:42:19
2056
原创 提示词工程:AI界的“芝麻开门”!学会这招,让AI乖得像你家猫!
“为什么同事用AI写方案被老板夸上天,而你连让AI画个猫都能收获一只‘四不像’?”“别怀疑人生!你只是缺了这把‘魔法钥匙’——提示词工程!”
2025-06-09 13:31:50
1059
原创 大模型「瘦身记」:量化技术让AI从“吃显卡”到“吃泡面”!
你知道吗?现在的大模型动不动就万亿参数,吃算力像喝奶茶一样上瘾!别慌!今天带你揭秘大模型量化的“黑科技减肥法”,让AI既聪明又“苗条
2025-06-09 13:30:17
510
原创 【AI模型训练真相】为什么现在企业都在玩“微调“而不是从头训练?
当你调用ChatGPT写文案、用Stable Diffusion生成图片时,可能不知道这些模型早就在价值数亿的超级计算机上"烧"了数月电费。今天带你揭秘AI模型训练的"潜规则"——预训练与微调的财富密码!
2025-06-08 21:04:07
614
原创 大语言模型的三大门派:你的聊天对象究竟是哪一派?
当你在对话框输入问题,是否好奇过屏幕那端的AI究竟在如何"思考"?今天带你揭秘AI世界的三大流派,看懂它们如何用不同方式与你对话!
2025-06-08 21:02:01
861
原创 AI界的“专家会诊”:MoE模型如何让AI变得更聪明?
当你走进医院,护士先问症状再分诊到对应科室——这种“精准匹配”的智慧,现在被AI学会了!今天带你解锁科技圈新宠:MoE(Mixture of Experts)多专家模型,看AI如何组建“专家天团”攻克复杂难题。
2025-06-06 11:54:49
978
原创 当AI模型越来越大:参数量背后的“黄金公式”与Scaling Law的启示
过去十年,人工智能领域最震撼的变革之一,是模型参数量从百万级飙升至万亿级。从GPT-3的1750亿参数到GPT-4的神秘规模,再到谷歌Gemini的“多模态巨兽”,参数量仿佛成了AI能力的代名词。但参数真的是越多越好吗?这场“军备竞赛”背后,是否隐藏着更底层的规律?今天,我们拆解参数量的决定性因素,并透过Scaling Law(尺度定律)的视角,窥探AI发展的终极密码。
2025-06-06 11:52:26
1075
原创 每个行业都在被AI“重做一遍”!你不会提示词工程,就只能被淘汰!
AI浪潮席卷职场:提示词工程已成生存技能 从制造业到医疗、金融,AI正在颠覆传统工作模式。数据显示,AI在CT诊断中比专家快10倍,金融交易速度提升百万倍。职场人面临紧迫选择:掌握AI工具或面临淘汰。 本文揭示8大提示词黄金法则: 精准翻译需求 、设定具体人设 、结构化指令、 明确禁忌区、 迭代优化、 爆款模仿 、量化指标 、工具包组合 。不同行业应用案例显示,优质提示词可使AI产出效率提升300%。掌握提示词工程不仅是职场生存之道,更是开启副业收入的新钥匙。
2025-06-02 19:21:00
711
原创 探索大语言模型(LLM):参数量背后的“黄金公式”与Scaling Law的启示
过去十年,人工智能领域最震撼的变革之一,是模型参数量从百万级飙升至万亿级。从GPT-3的1750亿参数到GPT-4的神秘规模,再到谷歌Gemini的“多模态巨兽”,参数量仿佛成了AI能力的代名词。但参数真的是越多越好吗?这场“军备竞赛”背后,是否隐藏着更底层的规律?今天,我们拆解参数量的决定性因素,并透过Scaling Law(尺度定律)的视角,窥探AI发展的终极密码。
2025-06-02 16:08:30
749
基于tensorflow的手语检测
2022-11-04
人脸检测和动漫脸检测剪裁脚本.zip
2022-11-04
python实现用于图片拟合的免疫遗传算法
2022-04-11
python实现使用遗传算法进行图片拟合
2022-02-21
甲状腺癌复发数据集(RAI 治疗后的甲状腺癌数据集,分析性别、年龄和风险因素)
2025-04-15
注释超声肝脏图像数据集
2025-04-15
IMDb 电影类型分类数据集
2025-04-15
电动汽车保有量数据集(来自美国政府的电动汽车数量数据)
2025-04-15
土壤污染和相关健康影响数据集
2025-04-15
沃尔玛股票数据(2000年至2025年)
2025-04-15
骨折数据集 – 胫骨和腓骨
2025-04-15
GraphRAG输出中文提示词
2025-02-18
机器学习资料、实验代码及报告.zip
2023-02-17
航拍语义分割(附数据集).zip
2023-02-17
用于语义分割的航拍数据集
2023-02-17
手写数学符号识别项目-Handwritten-math-symbols-recognition.zip
2023-02-17
stable diffusion内存溢出
2023-02-18
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅