自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(849)
  • 资源 (1)
  • 收藏
  • 关注

原创 大模型应用开发入门系列(1):Hello LangChain

我们在以前学习任何语言第一个入门小demo都是写一个Hell World!,同样我们在学习LangChain框架的时候,也以类似输出一个“Hell World!”的简单回复作为我们的入门demo案例在正式开始LangChain的实战学习前,需要配置一下环境。LangChain框架目前支持Python和TypeScript两种语言,这里我们选用处理人工智能更主流的Python语言来进行学习,有关JavaScript LangChain库的文档,可以点击这里。

2025-04-01 11:41:18 553

原创 Java + LangChain = 王炸!

在本教程中,我们将详细探讨。

2025-04-01 11:40:48 523

原创 小白入门大模型:LangChain

模型在高层次上有两种不同类型的模型:语言模型(language models)和文本嵌入模型(text embedding models)。文本嵌入模型将文本转换为数字数组,然后我们可以将文本视为向量空间。在上面这个图像中,我们可以看到在一个二维空间中,“king”是“man”,“queen”是“woman”,它们代表不同的事物,但我们可以看到一种相关性模式。这使得语义搜索成为可能,我们可以在向量空间中寻找最相似的文本片段,以满足给定的论点。

2025-04-01 11:40:09 703

原创 有史以来最详细的卷积神经网络(CNN)及其变体讲解!!!

卷积神经网络是多层感知机(MLP)的变种,由生物学家休博尔和维瑟尔在早期关于猫视觉皮层的研究发展而来,视觉皮层的细胞存在一个复杂的构造,这些细胞对视觉输入空间的子区域非常敏感,称之为感受野。

2025-04-01 11:39:25 408

原创 了解卷积神经网络,看这一篇就够了!

*卷积神经网络(CNNs)**是现代深度学习领域的基础模型之一,其设计充分利用了图像数据的局部相关性和空间结构特点。在。

2025-04-01 11:38:12 544

原创 最新AI大模型数据集解决方案:分享两种AI高质量代码数据集生产方案

随着AI大模型技术的快速发展,自动化的数据抓取工具逐渐成为了主流,尤其是在需要快速、高效、可定制化的数据抓取时,Web Scraper API工具成为了许多开发者和数据科学家的首选工具。与第一种方式不同,Web Scraper API工具提供了图形化界面以及灵活的配置选项,能够帮助用户更快、更高效地抓取数据。

2025-03-19 15:38:06 659

原创 AI大模型训练微调与数据集准备的系统性教程

为复杂任务配置多 GPU 环境并自定义依赖。从头构建自定义数据集并支持多模态数据。除了 Unsloth,还有许多工具适用于大型语言模型的微调。以下是几个主流工具的介绍及其特点。Unsloth:适合单 GPU 快速实验,易用性高,推荐初学者和资源有限时使用。DeepSpeed:适合多 GPU 大规模训练,适用于工业级任务。Megatron-LM:专注于超大规模模型,适合研究人员。FairScale:PyTorch 扩展,适合分布式训练场景。

2025-03-19 14:57:25 1228

原创 Ai大模型agent LangChain入门环境搭建2025最新

Ai大模型agent LangChain入门环境搭建2025最新真的从0到1,跑出代码!(可能格式问题,电脑浏览器更佳!因为自己淋过雨,所以想给你打把伞~LangChain入门此处为语雀内容卡片,点击链接查看:https://www.yuque.com/qiaokate/su87gb/iawv1isi0qu6fktx环境配置:Ubuntu 18或20都可以。

2025-03-19 14:56:08 874

原创 5分钟教你不写一行代码微调构建属于你的大模型(使用llama-factory微调Qwen大模型)

训练时为保证大模型的通用能力会使用多类别数据,例如:数学类别,代码类别数据等等来训练。训练后的大模型是一个“博学家”,具备回答所有类别基础问题的能力,但是在面对更深度的专业领域问题时,大模型的表现往往一般。为了让大模型在某个专业领域具备突出能力,需要使用专业领域的数据集,对大模型进行进一步的参数微调(继续训练),提升它在专业领域方面的表现。关于微调的概念大家可参考我的博文不懂这些概念,你敢说你了解大模型嘛?(一)—大模型“瘦身”指南。

2025-03-19 14:54:05 718

原创 4 步速通 LLM 微调:手把手带你用 SiliconCloud 打造领域大模型

此前,SiliconCloud 上线了语言模型的。通过简单的上传语料数据、创建微调任务,就可以获得专属微调语言模型。最近,SiliconCloud 的 LLM 在线 LoRA 微调,更是扩展了 Qwen2.5-32B、Qwen2.5-14B 以及 Llama-3.1-8B 模型作为微调基座模型,进一步丰富了微调的可玩性,也进一步降低了微调模型的训练、使用成本。事实上,微调一个自己的专属大语言模型非常简单。

2025-03-19 14:48:15 662

原创 【全网首发】Llama3 微调项目实践与教程(XTuner 版)

Llama 3 近期重磅发布,发布了 8B 和 70B 参数量的模型,XTuner 团队对 Llama 3 微调进行了光速支持!!!同时开源社区中涌现了 Llama3-XTuner-CN 手把手教大家使用 XTuner 微调 Llama 3 模型。XTuner:(文明点击阅读原文可直达)首先我们来回顾一下 Llama 3 亮点概览~

2025-03-19 14:40:31 1095

原创 大模型微调技术详解:从理论到实践

大模型微调技术为AI应用提供了强大的定制化能力,使通用模型能够适应特定领域和任务需求。随着大模型广泛使用,使更多开发者能够创建自己的专业模型。无论是提升专业领域的回答质量,还是塑造特定的回答风格,微调都是一个强大而实用的工具。对于想要深入学习的读者,建议从小规模实验开始,逐步掌握数据准备、参数调整的技巧,最终构建满足特定需求的个性化大模型。

2025-03-18 14:06:10 1087

原创 Java大模型开发框架LangChain4j从入门到精通:对话和记忆

low-level模型api。提供generate方法用于对话,可以接收单个或多个消息。

2025-03-18 13:51:18 1028

原创 大模型应用开发LangChain4j核心知识点和学习路线图

定义:RAG 通过在向 LLM 发送提示前检索并注入相关信息,减少失误,提升回答准确性。向量搜索:通过嵌入模型将文本转换为向量,基于余弦相似度匹配相关内容。混合搜索:结合向量搜索与关键词搜索(如 Azure AI Search 支持)。

2025-03-18 13:50:20 809

原创 Java程序员转型大模型应用开发:掌握这12步就够了!

Java程序员的核心竞争力在于企业级系统架构能力。

2025-03-18 13:49:30 704

原创 大模型应用开发LangChain4j RAG实战实现向量存储的两种方案

LangChain4j 是一个用于构建和操作语言模型(LLM)应用的 Java 框架。通过实际的项目功能案例,看LangChain4j如何提高你开发AI应用的工程能力,帮助你逐步掌握该框架的核心概念和高级功能。AI专栏软件环境。

2025-03-18 13:45:55 595

原创 告别Ollama,Java开发者专属LLM引擎来了

目前 Jlama 虽然提供的都是些小模型,适用于边缘设备应用场景 ,但 Jlama 让在 Java 生态中使用 LLM 变得更加简单和高效。无论是构建企业级应用还是开发创新项目,Jlama 都是一个值得关注的选择。

2025-03-18 13:43:19 707

原创 2万字长文!一文了解Attention,从MHA到DeepSeek MLA,大量图解,非常详细!

对于一个输入序列中的某个词,都会与序列中的所有词计算相关性。假设有一个输入序列:对于每个词 ,我们计算它与所有其他词的相关性,并赋予不同的权重,然后将这些信息进行加权求和,得到新的表示。当前这里的每个词都要在经过Embedding之后,再做权重转换。

2025-03-12 14:27:27 933

原创 llm-engineer-toolkit:汇集120种大模型工程师必备库,从零基础到精通,理论与实践结合的最佳路径!

llm-engineer-toolkit 汇集了从提示工程(Prompt Engineering)、模型微调(Fine-tuning)到推理优化(Inference Optimization)等等超过 120 种 LLM(大模型)应用的开发涉及多个复杂环节的工具库。

2025-03-12 14:26:54 739

原创 小白也能轻松理解的大模型入门锦囊!从零基础到精通,收藏这篇就够了!

*「微调(Fine-tuning)」**是给大模型提供特定领域的标注数据集,对预训练的模型参数进行微小的调整,使其更好地完成特定任务。通过微调,可以显著提升模型在特定任务上的性能。微调之后的大模型可以根据应用场景分为不同层次:通用大模型:类似于中小学生,具有广泛的基础知识,但缺乏专业性。行业大模型:基于特定行业的数据集进行微调。如金融证券大模型通过基于金融证券数据集的微调,可以得到一个专门用于金融分析和预测的大模型。这相当于大学本科生,具备了更专业的知识和技能。

2025-03-12 14:25:51 711

原创 如何从0开始搭建一个大语言模型并进一步训练微调,从零基础到精通,理论与实践结合的最佳路径!

在ChatGPT掀起AI革命的今天,你是否想过亲手打造一个会思考的机器大脑?无需百万美元预算,从数据清洗到模型微调,从算力分配到参数调试,一口气搞定。

2025-03-12 14:24:49 387

原创 模块化RAG技术路线图(Modular RAG Technical Map):从基础Naive RAG 到高级Advanced,再到Modular RAG全方位技术解读

NDCG 倾向于赋予排在前面的相关文档更高的权重,是一种位置敏感的度量方法。各种方式对文档进行分词,通过诸如 BDK tree 等数据结构,将拆解出来的词元(token)进行倒排索引,在检索时也会对检索语句进行同样的分词处理,通过相同词元的匹配进行召回,再通过文本相关性的算法(如 TF-IDF / BM25 等)对结果进行打分排序,最终返回结果。首先用原始的模糊问题(AQ)进行检索,使用检索结果 + 原始问题生成多个可能的清晰问题(DQi),使用清晰问题进行检索生成,将所有的答案汇总做最终生成。

2025-03-12 14:24:17 758

原创 大模型技术进阶路线,有了基础应该怎么进阶?从零基础到精通,理论与实践结合的最佳路径!

高性能大模型的打造,是一项复杂的系统性工程在上一篇文章中讲了学习大模型的基础路线,而如果是对有一定基础的人来说,应该怎么进阶呢?也就是说大模型更加高级的技术栈有哪些?一个好的基础能够让你在学习的道路上事半功倍,但绝对不是学习的终点,大模型技术也不外如是。大模型的进阶学习路线在上一篇的文章中介绍了大模型的基础学习路线,比如基础理论,编程,深度学习框架等等。以上技术都属于大模型技术的基础,不论是做学术研究,还是个人学习都已经足够;

2025-03-08 13:06:50 873

原创 14天速成LLM高手!大佬开源学习笔记,GitHub狂揽700星,从零基础到精通,理论与实践结合的最佳路径!

无论是面试找工作、还是自学创业,甚至想要在圈子内讨论一下AGI的潜力,但凡想要深度参与到AI浪潮中,不可避免的就是学习大型语言模型(LLM)的底层原理。但AI发展这么多年,论文、学习资料多如牛毛,并且更新换代极快,如何快速入门,学习到那些真正的基础知识,对于新手来说都是一个难题。最近,一位AI从业者在网上分享了自己的学习过程,仅用14天就学完了LLM所需要的核心知识,学习笔记在GitHub上斩获了675+星星,并且还在持续上涨。

2025-03-08 13:06:20 897

原创 掌握推理大模型?这几个学习关键别错过,从零基础到精通,理论与实践结合的最佳路径!

学习推理大模型(如GPT-4、PaLM、LLaMA等)需要结合深度学习、自然语言处理(NLP)和逻辑推理的知识。:掌握线性代数、概率统计、微积分(如梯度下降)、信息论(如交叉熵)。:熟练使用Python,学习PyTorch或TensorFlow框架。:理解经典算法(如动态规划、搜索算法)和机器学习基础(如监督学习、无监督学习)。学习传统模型(如线性回归、SVM、决策树)。掌握深度学习基础:神经网络、反向传播、CNN/RNN、注意力机制。

2025-03-08 13:05:32 1186

原创 大模型学习路线(超全面!超详细!)收藏这一篇就够了!从零基础到精通,理论与实践结合的最佳路径!

在深度学习领域,"大模型"通常指的是模型参数数量庞大、拥有深层结构的神经网络。这些模型的规模通常表现为网络中的参数数量,即模型中需要学习的权重和偏置的数量。具体来说,大模型可能包含数百万到数十亿的参数。

2025-03-08 13:04:27 1095

原创 大语言模型(LLM)入门学习路线图,从零基础到精通,理论与实践结合的最佳路径!

Github项目上有一个,它全面涵盖了大语言模型的所需的基础知识学习,LLM前沿算法和架构,以及如何将大语言模型进行工程化实践。这份资料是初学者或有一定基础的开发/算法人员入门活深入大型语言模型学习的优秀参考。这份资料重点介绍了我们应该掌握哪些核心知识,并推荐了一系列优质的学习视频和博客,旨在帮助大家系统性地掌握大型语言模型的相关技术。

2025-03-08 13:03:31 1170

原创 牛!6个大模型的核心技术!零基础入门到精通,看这篇就够了!赶紧收藏!

大家好,我是花哥。本文我们谈下火爆的大模型背后,有哪些的核心技术!一、TransformerTransformer 是大模型的底层模型。在深度学习的早期阶段,循环神经网络(RNN)是处理序列数据的常用方法。尽管RNN及其变体在某些任务上表现良好,但它们在处理长序列时容易遇到梯度消失和模型退化问题。为了解决这些问题,Transformer模型被提出。

2025-03-07 18:57:02 824

原创 目前最全,188+26个国产大模型!

国家互联网办公室于8月最新披露的数据显示,截至目前,。此外,地方网信部门也积极行动,登记在册的AI大模型数量达到了26家。本文罗列了大模型完整清单、常用大模型的特点以及国内大模型发展趋势。滑动查看188+26家完整名单这展现了大模型领域的快速发展,造就了百家争鸣的景象。如下介绍常用的大模型及其优缺点:**1. 百度——文心一言**特点与技术:文心一言是百度推出的知识增强型对话语言模型,拥有千亿级参数量,在知识问答、创意生成等任务上表现出色。它具备跨模态、跨语言的深度语义理解与生成能力。

2025-03-07 18:56:32 617

原创 干货!中国人工智能大模型技术白皮书

尽管大模型技术具有广泛的应用前景和潜力,但仍需要解决其**可靠性和可解释性问题,降低应用部署代价,提高迁移能力,并加强安全与隐私保护。**这些问题的解决将是大模型技术未来能否得到广泛应用和发展的关键。

2025-03-07 18:56:01 834

原创 央国企!入局AI大模型(附66家名单)

央国企,正加速在大模型领域的战略部署了,成为驱动大模型应用实践的强大引擎!据初步统计,已有66个由央国企成功实施的AI大模型项目,不仅在企业内部实现了成本节约与效率提升,更为外部广泛行业的数字化转型注入了强劲动力。在推进大模型发展的过程中,国资央企依据各自专长,对大模型的不同层级展开了针对性投入:在通用大模型(L0)的研发前沿,三大通信运营商担当起领航者的角色。凭借其深厚的算力网络基础与庞大的数据资源,加之在数字化转型征途上的早期布局,三大运营商已积累了深厚的AI技术底蕴与算法实力。

2025-03-07 18:55:30 920

原创 国内大模型文心一言、通义千问、豆包、混元大模型、讯飞星火、Kimichat、智谱清言,到底该用哪个?

文心一言是百度基于文心大模型打造的生成式AI产品,具备跨模态、跨语言的深度语义理解与生成能力。2023年10月,文心大模型4.0版本发布,实现基础模型的全面升级,理解、生成、逻辑、记忆四大能力显著提升,综合能力可直接对标GPT-4。通义千问是阿里自研的AI大语言模型,2023年10月31日发布了2.0版本,相较于1.0版本,在复杂指令理解、文学创作、通用数学、知识记忆、幻觉抵御等能力上均有显著提升。混元大模型是腾讯自研的大语言模型,具备强大的中文创作能力,复杂语境下的逻辑推理能力,以及可靠的任务执行能力。

2025-03-07 18:55:00 801

原创 让大模型不再「巨无霸」,这是一份最新的大模型参数高效微调综述

论文首先以最近大热的 LLaMA 模型作为代表,分析并阐述了大语言模型(LLM)和其他基于 Transformer 的模型的架构和计算流程,并定义了所需的符号表示,以便于在后文分析各类 PEFT 技术。此外,作者还概述了 PEFT 算法的分类方法。作者根据不同的操作将 PEFT 算法划分为加性微调、选择性微调、重参数化微调和混合微调。图三展示了 PEFT 算法的分类及各分类下包含的具体算法名称。各分类的具体定义将在后文详细讲解。

2025-02-28 14:47:31 687

原创 快速搭建专业AI知识库的开源工具Ragflow,零基础入门到精通,看这篇就够了!赶紧收藏!

在大模型应用的蓬勃发展中,检索增强生成(Retrieval-Augmented Generation,RAG)技术占据了举足轻重的地位。它就像是大模型的智慧助手,通过从外部知识库中检索相关信息,并将其融入到大模型的回答生成过程中,有效提升了大模型回答的准确性、可靠性和时效性,在问答系统、智能客服、文档摘要等多个领域都发挥着关键作用。上图是一个常见的AI应用的数据流向图,文档分块之后向量化存储到向量数据库,然后输入文本内容,形成prompt,从向量数据库检索相关的知识背景,发送给LLM之后,返回结果。

2025-02-28 14:43:42 2518

原创 大模型微调(Fine-Tuning)全流程思考,零基础入门到精通,看这篇就够了!赶紧收藏!

💡建议严格按照此流程来,不要跳步,不然可能会做无用功。比如如果没有好好构建数据集,最后发现微调模型效果不佳是数据集的问题,就事倍功半了。

2025-02-28 14:42:28 898

原创 无编码器架构潜力或被低估,首个无编码器3D多模态LLM大模型来了

AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:liyazhou@jiqizhixin.com;论文标题: Exploring the Potential of Encoder-free Architectures in 3D LMMs作者单位:上海人工智能实验室,西北工业大学,香港中文大学,清华大学。

2025-02-28 14:41:32 670

原创 写给小白的大模型入门科普,零基础入门到精通,看这篇就够了!赶紧收藏!

大模型,英文名叫Large Model,大型模型。早期的时候,也叫Foundation Model,基础模型。大模型是一个简称。完整的叫法,应该是“人工智能预训练大模型”。预训练,是一项技术,我们后面再解释。我们现在口头上常说的大模型,实际上特指大模型的其中一类,也是用得最多的一类——语言大模型(Large Language Model,也叫大语言模型,简称LLM)。除了语言大模型之外,还有视觉大模型、多模态大模型等。现在,包括所有类别在内的大模型合集,被称为广义的大模型。

2025-02-22 16:30:11 1000

原创 我分析了网络上所有公开的大模型学习路线的优缺点后,自己一行行手敲出了这份应该算是最详细的大模型0基础入门学习路线!

我对比过现在网络上公开的大模型入门学习路线,都没有像我这份路线图一样会详细到告诉你每个阶段应该学什么、具体学习什么内容、看什么教材、学习方法、包括每个阶段学习后的总结。也是因为我想要做的非常非常细致,构思打磨了很长时间,所以没有在答应大家的时间发布出来。因为我的这份路线图是定位零基础也能学的,所以阶段一是学习数学基础,包括线性代数、微积分、概率统计和优化方法,包括每部分的具体学习内容和推荐学习教材都有。

2025-02-22 16:29:24 854

原创 深度学习最强模型!挑战一篇文章让你理解什么是Transformer模型!从原理到代码的详细讲解!

在开始之前,如果你需要我前不久给粉丝整理的。

2025-02-22 16:28:26 1018

原创 从零开始学习大模型-第一章-大模型简介

大模型就像一座庞大的图书馆,里面有非常多的书籍。但与普通图书馆不同的是,这座图书馆中的每本书都是关于不同事物的描述和知识。而这些书籍中的每一页都代表了这个事物的一些特征或细节。现在,想象一下,你是一个研究员,你想了解各种各样的话题,比如天气、历史、科学等等。但是你没有时间和精力去阅读所有的书籍,而且有些书籍可能非常专业和深奥,你也未必能理解。这时,一位聪明的朋友建议你去一座巨大的图书馆,这个图书馆里面的每本书都已经被一个智能的读者阅读过,并且将书中的重要内容总结成了简单易懂的概要。

2025-02-22 16:26:51 639

JAVA核心面试知识梳理大全.pdf

本资源为公共资源,总页数283页,涵盖技术点:java基础,并发编程,源码,微服务,分布式,数据库,算法,设计模式等。

2020-08-06

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除