自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(36)
  • 收藏
  • 关注

原创 ACL 2024亮点:RAG技术进展与论文解析

本文将重点介绍会议中涉及的与Retrieval-Augmented Generation(RAG)相关的论文,探索这一领域最新的研究成果和发展趋势。

2024-11-10 10:45:18 1786

原创 太痛了,知名的开源项目阿里官宣停更

最近阿里发布公告通知,停止对EasyExcel 更新和维护,EasyExcel 是一款知名的 Java Excel 工具库,由阿里巴巴开源,作者是玉箫,在 GitHub 上有 30k+ stars、7.5k forks。

2024-11-10 10:41:47 1237

原创 【大模型部署】使用ollama + AnythingLLM快速且简单的在本地部署llama3

使用ollama + AnythingLLM快速且简单的在本地部署llama3

2024-11-07 18:11:04 2145

原创 从零开始:Windows系统下Qwen2.5大模型的实践教程(一)

本文将基于Windows系统和CPU环境,使用Qwen2.5系列模型,详细实践从大型语言模型的下载、部署到微调的全过程。

2024-11-05 09:53:53 4107

原创 【Ollama入门指南】在本地运行大模型,我们应该怎么做?

这篇我们就来让大模型在我们本地跑起来,这次我们要学习的是一个工具:Ollama,Ollama 的一个关键特性是简化了模型的部署过程,使用户能够更方便地在本地使用和实验最新的 AI 模型。

2024-11-05 09:49:06 2831

原创 【大模型框架】LLM大模型开源RAG框架汇总

本文搜集了一些开源的基于LLM的RAG(Retrieval-Augmented Generation)框架,旨在吸纳业界最新的RAG应用方法与思路。如有错误或者意见可以提出,同时也欢迎大家把自己常用而这里未列出的框架贡献出来,感谢~

2024-11-04 10:44:57 1214

原创 【大模型本地化部署】Ollama+MaxKB 部署本地知识库

本文我们介绍另外一种部署本地知识库的方案:Ollama+MaxKB 部署本地知识库

2024-11-04 10:42:13 2669

原创 只想简单跑个 AI 大模型,却发现并不简单

想要 fine-tune ?那得先能通过代码的方式跑起来模型再说吧!于是,这篇文章就诞生了,记录了我如何“简单”跑个 AI 大模型,结果问题不断的过程。

2024-10-31 14:34:27 1091

原创 【大模型部署】AI LLM 利器 Ollama 架构和对话处理流程解析

Ollama 是一个快速运行 LLM(Large Language Models,大语言模型)的简便工具。通过 Ollama,用户无需复杂的环境配置,即可轻松与大语言模型对话互动。

2024-10-31 14:32:00 1157

原创 RAG 实践- Ollama+RagFlow 部署本地知识库

本文我们介绍另一种实现方式:利用 Ollama+RagFlow 来实现,其中 Ollama 中使用的模型仍然是Qwen2

2024-10-28 16:29:02 3710

原创 如何手撸一个自有知识库的RAG系统

RAG通常指的是"Retrieval-Augmented Generation",即“检索增强的生成”。这是一种结合了检索(Retrieval)和生成(Generation)的机器学习模型,通常用于自然语言处理任务,如文本生成、问答系统等。

2024-10-28 16:27:40 713

原创 【LLM国产化】量化技术在MindIE中的应用

目前,由于大模型参数量显著激增,从而导致模型变得越来越大。因此,需要一些大模型压缩技术来降低模型部署的成本,并提升模型的推理性能。

2024-10-25 09:31:06 1664

原创 十分钟安装部署大模型ChatGML-6B

近期大模型可谓是如火如荼,按耐不住也想手动安装部署大模型,近距离接触大模型,废话不多说直接开始安装部署

2024-10-21 14:27:00 789

原创 《我的AI大模型系列》一、本地部署大模型

大模型 ( Large Model )是指具有大规模参数和复杂计算结构的机器学习模型。 这些模型通常由深度神经网络构建而成,拥有数十亿甚至数千亿个参数。大模型通过训练海量数据来学习复杂的模式和特征,具有更强大的泛化能力,可以对未见过的数据做出准确的预测。

2024-10-21 14:23:46 2300

原创 Llama 3.2:通过开放、可定制的模型彻底改变边缘人工智能和视觉

Llama 3.2:通过开放、可定制的模型彻底改变边缘人工智能和视觉

2024-10-18 09:59:10 1216

原创 Google发布最新推理Scaling Law研究,RAG性能更上一层楼

检索增强生成(RAG)是一种通过引入外部知识来提升语言模型生成效果的方法。简单来说,它不仅依赖模型内部的知识,还会从外部资源中检索到相关信息,这样生成的内容就更有针对性、更有深度。

2024-10-18 09:49:40 1126

原创 27K star!开源AI程序员,可独立完成95%的开发任务

今天我们介绍的开源项目,它希望为世界上第一位人工智能开发伙伴,可独立完成95%的开发任务,它就是:GPT Pilot

2024-10-16 14:26:48 697

原创 推荐系统与大语言模型技术融合:EMNLP/NeurIPS相关论文导览

随着大语言模型在自然语言处理领域的迅速发展,大语言模型技术被广泛地应用于文本类推荐任务中。

2024-10-15 13:54:04 1416

原创 工业大模型:体系架构、关键技术与典型应用

工业大模型的构建主要包括以下4个阶段:工业数据制备,工业基座模型训练,工业任务/行业模型适配,工业场景交互应用

2024-10-15 13:52:55 2664

原创 Transformer学会有手就行?这本 Transformer自然语言处理实战 书无敌了

Transformer模型最初由Google的研究人员在2017年提出,它是一种基于自注意力机制的深度学习模型,今天就给大家推荐一本学Transformer的一本好书! 就是下面这本:《Transformer自然语言处理实战》

2024-10-14 13:54:47 1659

原创 2024年中国工业大模型行业发展研究报告|附43页PDF文件下载

工业大模型玩家与工业互联网平台玩家重合度高,其成长路径目前也表现出高度相似的特征,但目前市场产品、服务、落地场景都处于探索阶段,大家都在同一起跑线。

2024-10-14 13:53:01 1378

原创 微软的RAG框架和GraphRAG

RAG(Retrieval-Augmented Generation,检索增强生成)是一种结合检索和生成的技术,用于提升大语言模型的表现。简单来说,它是通过先检索相关的信息,再生成回答的方式来处理任务。微软的RAG框架就是这样一个系统。

2024-10-12 10:26:15 1024

原创 【AI大模型】Mamba2,比Transformer速度提高了8倍!

大家好,今天为大家介绍一篇Mamba最新研究论文。本文提出了一个新框架Structured State Space Duality (SSD),通过结构化矩阵的视角,统一了State Space Model (SSM)和注意力机制。基于该框架设计的Mamba-2,其核心是对Mamba中SSM进行了改进,在与Transformer表现相当的同时,速度提高了2-8倍。

2024-10-12 09:49:48 2009

原创 李开复、周鸿祎强烈推荐!实战AI大模型+动手做AI Agent (附PDF)

李开复、周鸿祎强烈推荐!实战AI大模型+动手做AI Agent (附PDF)

2024-10-11 15:19:06 1016

原创 基座大模型GLM-4-Plus引领,智谱全模型家族全面上线

智谱在近期发布的若干更新模型,以基座大模型 GLM-4-Plus 推出为标志。智谱很高兴宣布,全模型家族正式上线bigmodel.cn,包括新基座大模型 GLM-4-Plus,这是智谱迄今为止最强大的模型,成为智谱全模型家族坚实的能力底座。

2024-10-11 15:11:42 1217

原创 AI大模型行业必看案例集!2024大型模型典型示范应用案例集+具身智能大模型发展报告!

AI大模型行业必看案例集!2024大型模型典型示范应用案例集+具身智能大模型发展报告!

2024-10-10 13:58:13 571

原创 《Python机器学习》作者新作--- 从零构建大模型来了!

因此,我们选择一种更通用的方法,匹配输出节点与分类的数量。模型的输出层经过调整,输出张量仅包含 2 列,为了完成分类微调,我们专注于输出的最后一行,对应的最后一个 token。我们将原始输出层(这层的功能是将模型内部生成的隐藏表示转换为一个包含 50,257 个 tokens 的词表)替换为一个较小的输出层,该层映射到两个类别:0(非垃圾邮件)和 1(垃圾邮件),如下图 4 所示。简单来说,在垃圾邮件分类任务上,更小的 GPT-2(124M)与更大 BERT(340M)的性能类似,具体如下表 3 所示。

2024-10-09 16:29:27 1191

原创 这三本书就是学AI大模型的神!大模型人请务必翻烂!!!自学AI大模型书籍推荐,附电子版

这三本书就是学AI大模型的神!大模型人请务必翻烂!!!自学AI大模型书籍推荐,附电子版

2024-10-08 14:02:11 1542

原创 AI大模型实战:pytorch安装

今天我们要聊聊如何安装PyTorch,一个在科学计算和数据分析领域广泛应用的流行深度学习框架。安装PyTorch需要一些步骤,但不用担心,我会一步步指导你。

2024-10-08 13:50:32 1022

原创 RAG性能优化杀器,引入上下文检索!

开发者通常通过 RAG扩展 AI 模型的知识。RAG 是一种从知识库中检索相关信息并将其附加到用户提示词中的方法,从而显著提升模型的回答能力。但传统的 RAG 解决方案在编码信息时会丢失上下文,导致系统无法从知识库中检索到相关信息。

2024-10-07 14:34:45 1161

原创 大语言模型(LLM)的子模块拆拆分进行联邦学习

大语言模型(LLM)的子模块拆分进行联邦学习,主要涉及到将大模型的不同部分或功能模块在多个客户端或设备上进行分布式训练,同时保护数据隐私并提升模型性能。

2024-10-07 14:30:06 1276

原创 2024大模型畅销的三本书!千言万语,尽在书中

哈咯各位,我们都知道2024年最火爆的技术非大模型莫属,而今天就给大家分享几本大模型方向2024年新出的书籍,主要分享这三本非常畅销的书----《Transformer自然语言处理实战》,《实战AI大模型》, 《精通Transformer:从零开始构建最先进的NLP模型》 。

2024-10-06 14:57:08 608

原创 更新!大模型入门学习看这些书足够了

哈喽大家好!很久都没有更新大模型这块的书了,今天呢给大家推荐几本大模型的学习书籍!

2024-10-06 14:52:14 887

原创 一书封神!吴恩达大模型入门 LLM CookBook 汉化版教程发布!

这次给大家推荐的是AI圈无人不知的 吴恩达大佬+OpenAI团队一起编写的大模型入门文档,也就是这本:大型语言模型(LLM)的权威文档

2024-08-12 16:29:57 1331

原创 【清华出版】内行人都在学的大模型黑书 外网爆火的LLM应用手册来了!

本书在详细介绍BERT、RoBERTa、T5 和GPT-3 等流行模型前,先讲述了Transformer 的架构以便为你的学习奠定坚实基础。在不到4 年的时间里,Transformer 模型以其强大的性能和创新的思想,迅速在NLP 社区崭露头角,打破了过去30 年的记录。本书将引领你进入Transformer的世界,将讲述不同模型和平台的优势,指出如何消除模型的缺点和问题。《基于GPT-3、ChatGPT、GPT-4等Transformer架构的自然语言处理》分步展示如何微调GPT-3等预训练模型。

2024-08-11 23:45:37 461

原创 LLM大模型好书推荐丨大语言模型 基础与前沿,豆瓣高分力荐!

哈喽啊,今天来给大家分享一本大模型方面的优质书籍,这本书是2024年正式出版发行的,读完后推荐给大家!

2024-08-10 15:57:49 1044 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除