自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(19)
  • 收藏
  • 关注

原创 模型应用系列——智能体(Agent)

尽管目前仍面临可靠性、安全性、效率等多方面的挑战,但随着技术的不断进步和应用场景的深入探索,智能体有望成为连接人工智能技术与现实世界需求的关键桥梁,深刻改变人机交互的方式,并推动新一轮的生产力变革。随着大型语言模型(Large Language Models, LLMs)能力的飞速发展,智能体(Agent)作为一种新兴的应用范式,正展现出巨大的潜力和广阔的应用前景。通过将 LLM 的核心能力(理解、生成、推理)与外部工具和行动框架相结合,智能体能够完成更复杂、更动态、更贴近现实世界的任务。

2025-11-21 09:58:19 593

原创 DeepSeek本地部署,保姆级教程,谁都可以照抄!!

恭喜你!至此已成功在本地部署 DeepSeek 模型。📝 自动写作💻 编程辅助🌐 语言翻译📚 学习问答🔍 知识检索完全免费!完全离线!完全自由!

2025-11-21 09:43:31 808

原创 AI大模型到底是什么?

在当今科技浪潮中,“人工智能”、“大模型”这些词汇频繁地出现在我们的视野里,从聊天机器人、智能写作助手到图像生成工具,它们似乎正以前所未有的速度改变着我们的生活和工作方式。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。AI大模型的兴起,特别是自然语言处理领域的突破,很大程度上归功于。

2025-11-17 16:27:40 1036

原创 大模型学习方法之——大模型技术学习路线

大模型技术的学习是一个系统化、持续性的过程。从理论基础到工程实践,从前沿应用到伦理安全,每个环节都需要深入学习与实践。优质的学习资源、社区参与、项目实践是提升技术能力的有效途径。持续学习与职业发展则是长期保持竞争力的关键。通过系统化的学习路线,可以逐步掌握大模型技术的核心能力,并在实际应用中创造价值。

2025-11-17 15:48:54 803

原创 初学者怎么入门大语言模型(LLM)?

理解大语言模型的基本概念大语言模型(LLM)是通过海量文本数据训练的深度学习系统,核心是基于Transformer架构的神经网络。典型代表包括GPT、BERT等,具备文本生成、问答、翻译等能力。关键特征包括参数量级(数亿至万亿)、自注意力机制和预训练-微调范式。

2025-11-10 14:42:45 987

原创 2025大模型学习全攻略:从小白到专家,一站式进阶之路

大模型技术的发展日新月异,一日千里。2024年的“全攻略”只是你探索之旅的起点。从理解基础概念到动手实践项目,从学习经典架构到追踪前沿研究,这条进阶之路充满了挑战与机遇。保持好奇心,持续学习,勇于实践,乐于分享。无论你身处哪个阶段,都请记住:在智能新时代,掌握大模型技术,就是掌握了一把开启未来的钥匙。祝你在这条进阶之路上,不断突破自我,成为真正的专家!

2025-11-10 14:40:03 539

原创 开发大模型or使用大模型?

然而,面对这一浪潮,许多组织和个人陷入一个关键抉择:是自行开发大模型,还是直接使用现有的大模型服务?接下来,我们将分步解析:首先剖析开发大模型的细节,然后探讨使用大模型的模式,接着进行系统比较,最后展望未来趋势。其中 $L$ 是损失函数,$y_i$ 为真实值,$\hat{y}_i$ 为预测值,$\lambda$ 是正则化系数,$\theta$ 表示模型参数。作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。

2025-11-03 13:46:38 793

原创 终极指南:LoRA篇大模型面经,最全总结与实战技巧

LoRA是一种针对预训练大模型的微调技术,通过引入低秩矩阵来更新权重,而非直接修改原始参数。其核心思想是:大模型的权重矩阵$W$(维度$d \times k$)在微调时变化量$\Delta W$可分解为两个低秩矩阵$B$和$A$的乘积:其中$B \in \mathbb{R}^{d \times r}$, $A \in \mathbb{R}^{r \times k}$, $r \ll \min(d,k)$为秩(rank)。

2025-11-03 13:44:22 913

原创 DeepSpeek: 大模型微调框架全面解析

DeepSpeed是微软于2020年推出的开源框架,专注于大规模深度学习模型的训练和微调。其核心目标是解决“内存墙”问题——即模型参数、梯度和优化器状态占用过多内存,导致训练无法在有限硬件上运行。DeepSpeed通过模块化设计,支持多种优化技术,并能无缝集成到PyTorch生态中(如Hugging Face Transformers库)。:初版引入ZeRO优化技术。:增强混合精度支持和梯度检查点。最新版本(如v0.10+):支持ZeRO-3优化、Pipeline Parallelism等高级特性。

2025-11-03 13:42:15 891

原创 大模型技术的发展与实践

大模型技术正从专用智能向通用智能演进,其发展遵循“架构创新-规模扩展-能力涌现-应用深化”的螺旋上升路径。未来需在提升认知深度的同时,构建包含安全护栏能耗优化(Energy-Aware Training)和价值对齐(Value Alignment)的可持续发展体系。技术进化的终极目标应是构建人类与机器智能的共生生态,使AI成为拓展人类认知边界的思维增强器。

2025-11-03 13:33:49 582

原创 作为普通程序员,我们该如何学习大模型(LLM),学习路线和知识体系

工程化思维:将论文转化为可落地的代码领域交叉能力:金融/医疗/教育等垂直场景理解持续学习机制:建立每周20小时的学习飞轮正如OpenAI首席科学家Ilya Sutskever所言:"我们正在见证软件2.0范式的诞生"。此刻启程,方能在AI原生时代掌握技术主动权。

2025-11-03 13:33:03 585

原创 大模型的函数调用-Function call:连接语言与行动的智能桥梁

函数调用不仅是技术接口,更是认知维度的扩展。当大模型能自由调用人类千年文明积累的工具——从LaTeX公式编译器到粒子对撞机控制接口,我们正见证“语言即行动”的智能新纪元。函数生态的丰富度 × 调度智能的精准度 × 安全边界的可靠性如何学习AI大模型?作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。至于能学习到多少就看你的学习毅力和能力了。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

2025-10-31 14:46:06 910

原创 【AI大模型部署】6种常用的大模型部署方式,你知道几种?

AI大模型的部署是将训练好的模型集成到实际应用的过程,涉及模型推理、服务化和运维。计算资源需求:大模型推理需要高性能硬件(如GPU或TPU),否则延迟过高,影响用户体验。例如,实时对话系统要求响应时间低于500毫秒。成本优化:云服务费用或硬件投入可能失控。部署不当会导致资源闲置或过度配置,增加总拥有成本(TCO)。可扩展性与弹性:用户流量波动时,部署方案需自动扩缩容,避免服务中断。根据Gartner报告,到2025年,70%的企业AI项目将因部署失败而搁浅。因此,掌握多种部署方式能显著提升成功率。

2025-10-31 14:38:37 683

原创 作为普通程序员,我们该如何学习大模型(LLM),学习路线和知识体系

本文系统介绍了学习AI大模型的完整路径:从基础概念(Transformer架构、自注意力机制)到数学编程基础(线性代数、Python/PyTorch),再到深度学习与NLP核心技术(词嵌入、序列建模)。重点讲解了Transformer架构原理及实践方法,包括预训练模型微调和部署优化。建议通过参与开源项目、跟踪前沿研究(ACL/NeurIPS论文)和实际应用开发来巩固知识。文章还提供了包括学习路线图、技术报告集和商业方案在内的全套学习资源,帮助开发者构建完整的AI大模型知识体系。

2025-10-31 14:18:40 622

原创 人工智能大模型入门分享(一)——利用ollama搭建本地大模型服务(DeepSeek-R1)

Ollama支持Windows、macOS和Linux系统。访问Ollama官网下载对应版本的安装包,按照提示完成安装。安装完成后,可通过命令行输入验证是否成功。

2025-10-31 14:14:19 951

原创 《深入浅出LLM基础篇》(一):大模型概念与发展

大规模语言模型(LargeLanguageModels,LLM),也称大规模语言模型或大型语言模型,是一种由包含数百亿以上参数的深度神经网络构建的语言模型,使用自监督学习方法通过大量无标注文本进行训练。自2018年以来,Google、OpenAI、Meta、百度、华为等公司和研究机构都相继发布了包括BERT[1],GPT[6]等在内多种模型,并在几乎所有自然语言处理任务中都表现出色。

2025-10-31 14:05:24 887

原创 【大模型】初识大模型(非常详细)零基础入门到精通,收藏这一篇就够了

大模型(Large Model)是一类基于深度学习的机器学习模型,其核心特征在于超大规模的参数数量、海量的训练数据支撑以及极高的计算资源消耗。通过对复杂数据结构的深度学习,这类模型能够捕捉数据中抽象的内在规律,进而灵活应对翻译、推理、创作等多种跨领域复杂任务,是当前人工智能技术的重要载体。

2025-10-30 13:26:33 507

原创 【大模型微调】一文掌握7种大模型微调的方法

本篇文章深入分析了大型模型微调的基本理念和多样化技术,细致介绍了LoRA、适配器调整(Adapter Tuning)、前缀调整(Prefix Tuning)等多个微调方法。详细讨论了每一种策略的基本原则、主要优点以及适宜应用场景,使得读者可以依据特定的应用要求和计算资源限制,挑选最适合的微调方案。

2025-10-30 09:57:23 939

原创 什么是大模型?一文读懂大模型的基本概念

本文系统梳理了大模型的关键概念与发展历程。首先明确了大模型(参数规模达数十亿至数千亿)与小模型的本质区别在于涌现能力,并区分了大模型、超大模型、大语言模型等相关概念。文章回顾了大模型从传统神经网络到Transformer架构的演进过程,重点分析了GPT系列模型的突破性进展。详细阐释了大模型的八大核心特征,包括巨大规模、涌现能力、多任务学习等,并按输入数据类型和应用领域进行了分类。最后探讨了大模型的泛化能力与微调方法,强调大模型作为AI核心技术将持续推动人工智能领域的创新发展。

2025-10-30 09:46:36 796

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除