- 博客(7)
- 收藏
- 关注
原创 小白也能看懂的——如何构建一个简单的问答代理详细教程!
今天,我们要介绍的是一个基础的问答代理,它借助强大的 LangChain 框架和大语言模型,能够理解我们的问题,然后给出相关且简洁的回答。
2025-03-26 20:58:26
708
原创 0基础!小白也能构建出简单的对话代理详细教程
这个教程将带领大家了解如何创建一个能够在多次互动中保持上下文的对话代理。我们将使用现代的人工智能框架——langchain,让这个代理能够进行更自然、更连贯的对话。
2025-03-26 19:53:09
434
原创 用MATLAB玩转绿色能源!零基础实现光伏发电AI预测(附完整数据集)
太阳能发电受天气、温度、光照强度等多种因素影响,具有间歇性和波动性,准确预测太阳能发电功率对于电网调度和能源管理至关重要。人工神经网络(ANN)由于其自适应、自学习和非线性映射能力,在太阳能发电预测中得到了广泛应用。本文将从神经网络的基本原理入手,逐步深入到其在太阳能发电预测中的应用,并以Matlab神经网络工具箱为例,展示如何利用神经网络构造预测模型。
2025-03-11 21:53:57
1029
原创 Manus——下一代人工智能代理
大家好,今天我想和大家聊聊一款革命性的人工智能代理——Manus。这款由中国人工智能初创公司Monica开发的Manus,于2025年3月初通过一段由Monica联合创始人兼首席科学家主导的演示视频正式亮相,最近在科技界引起了轰动。Manus这个名字来源于拉丁语中的“手”,体现了它弥合思维和行动之间的差距,为用户无缝执行复杂任务的使命。在其强大的技术团队支持下,包括连续创业者和人工智能产品经理,Manus 有潜力重新定义人工智能代理的能力。
2025-03-07 22:52:17
906
原创 Manus爆火——其中的核心技术Agent到底是什么?
代理是指 Deepseek、ChatGPT 等大模型能够自我构建解决一个特定任务的流程,以及自我决定在此过程中使用哪些工具。与之类似的还有一个名为工作流(workflows)的系统,工作流是指通过预先设计好的流程与工具来解决某个任务。两者的区别在于:代理可以自我动态调整,如设定一个任务让其完成,它能够自我决定整个工作流程,决定调用哪些工具,在出错时还能够自我修正,保证最终的任务能够顺利完成,更为灵活。而工作流则需人为提前设定任务完成路线,按部就班的完成每一个环节,不具备代理的动态调整能力。
2025-03-06 11:01:42
1294
原创 Deepseek中多头潜在注意力(MLA)的低秩压缩
Deepseek提出了一种创新的注意力机制,名为多头潜在注意力(MLA,Multi-Head Latent Attention),是基于多头自注意力机制(MHA)的优化,能够显著降低内存占用和计算开销,同时保持模型性能。
2025-03-01 11:21:18
863
原创 Transformer中多头自注意力机制的原理解释
多头自注意力机制的核心思想是将输入序列分割成多个子空间,也可以理解为多“头”(heads),每个“头”独立地计算注意力,从而能够捕捉到输入序列中不同位置的特征和关系。,Multi-Head Latent Attention),主要优化的点在于:能够显著降低内存占用和计算开销,同时保持模型性能。DeepSeek使用的Transformer架构中,使用的是优化后的多头自注意力机制,名为。假如模型维度(嵌入向量的维度)为512,“头”的数量为4,则分割后每个头的维度。是可学习的权重矩阵,它们的形状均为。
2025-02-27 23:00:31
1086
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人