AI
文章平均质量分 84
hjy1821
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
SpringBoot整合DeepSeek技术指南(2025版)
SpringBoot整合DeepSeek技术指南(2025版)原创 2025-02-20 14:24:01 · 2879 阅读 · 0 评论 -
AI商业化:如何包装技术并找到客户需求?
AI 商业化不仅关乎技术创新,更需要精准的市场洞察与产品包装。技术封装与模块化:让复杂的算法变成简单易用的产品组件。精准的市场调研:了解行业痛点,确保产品直击客户需求。迭代与反馈:快速构建 MVP,不断验证和优化产品,形成稳定的商业模式。多元化变现策略:从 SaaS、定制开发、咨询培训等多条路径探索最适合的商业模式。未来,随着 AI 技术的不断普及和更新,如何在激烈的市场竞争中找到切入点、精准解决用户问题,将是不断探索和进化的过程。原创 2025-02-06 15:58:29 · 840 阅读 · 0 评论 -
AI大模型训练实战:分布式与微调指南
为什么分布式?:大模型体量动辄数百 GB 的参数,需要多份资源协同才能完成训练;为什么微调?:复用已有大模型知识基底,只需少量场景数据就能让模型精通某个领域,极大降低成本;如何操作?:通常选择框架(DeepSpeed、Megatron-LM 等),结合数据并行、模型并行或 ZeRO 等先进策略;未来趋势**更高阶“轻量化微调”**技术:常见例如LoRA,显著减少参数更新量;多模态分布式训练:当文字、图像、语音融合时,分布式结构将更加复杂,也需要更灵活的并行策略;大模型实时微调。原创 2025-02-06 15:45:35 · 1322 阅读 · 0 评论 -
深入浅出 Transformer:Attention 机制图解
Transformer 的核心正是注意力并行计算,从而替代传统 RNN 结构。多头注意力是将多个注意力机制并行计算后再 Concatenate,增强模型表达能力。残差连接 & LayerNorm提供稳定训练与防止梯度消失。等大模型在此之上累积海量参数与数据,进化出强大的自然语言理解与生成能力,甚至可以延伸到多模态任务。后续你可以探究架构细节。位置编码(Positional Encoding) 及其正余弦函数原理。多模态 Attention:如何在图像与文本之间寻找关联?推理加速。原创 2025-02-06 12:37:27 · 1216 阅读 · 0 评论 -
从零开始了解人工智能:核心概念、GPT及 DeepSeek 探索
人工智能(Artificial Intelligence)是让机器拥有类似人类思考和学习能力的一门学科。它的核心目标在于模拟与扩展人类智力,在图像识别、语音交互、自然语言处理(NLP)、自动驾驶等领域都能看到 AI 的身影。从专业角度来讲,人工智能结合了统计学、计算机科学及神经科学等多学科理论,通过算法与数据的驱动来让计算机不断迭代优化,甚至可以衍生出自主学习的能力。通过本篇文章,你已经对人工智能(AI)的基础概念和发展历程有了大致了解,也初步见识了大语言模型 GPT。原创 2025-02-06 12:31:35 · 1442 阅读 · 0 评论
分享