自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(95)
  • 资源 (2)
  • 收藏
  • 关注

原创 【模型部署】在AutoDL上使用Xinference部署模型

在【模型训练】在AutoDl上使用LLamaFactory进行模型训练中,我们介绍了如何通过SSH建立隧道,进而访问LLamaFactory进行模型训练。本章,我们将介绍如何通过Xinference进行模型推理服务的部署。AutoDL平台正常情况下,不对外提供Http或Https服务,所以需要通过SSH隧道建立连接。AutoDL平台安装引擎会失败,所以本例中改为使用vllm引擎。AutoDL平台默认没有安装Git-LFS,所以通过手动安装。

2025-01-10 10:59:25 1445

原创 【模型训练】在AutoDL上使用LLamaFactory进行模型训练

在众多的GPU云平台中,AutoDL是我们常用的一个。它因为显卡可快速扩展、实例运行稳定、网络连接速度快,深受大家的喜爱。不过其端口映射略微复杂,所以本篇文章,我们将介绍在AutoDL平台上进行模型训练的过程。在LLamaFactory的},注意:以上file_name是数据集的绝对路径,需要根据实际情况修改。在AutoDL上使用LLamaFactory进行模型训练,需要进行端口映射,具体方法为使用SSH隧道。

2025-01-10 10:57:58 1877 1

原创 【操作攻略】GPU云环境的使用分享

同上,对于体积小的数据,可以直接使用图示中的上传文件功能。对于体积大的情况,需要使用趋动云提供的sftp上传上传方式。趋动云最近更新增加了导出数据/模型的功能,相较于上述操作更为简便,篇幅原因不做详细说明,感兴趣的同学可以查看。对于体积小的框架(例如:YOLO只有56M),可以使用pip命令安装,具体方法同阿里云的操作说明。训练完毕后,会在训练脚本同一目录下生成runs目录,里面包含训练的日志,以及训练的模型。因为上传后的文件是只读的,不能使用unzip解压,所以我们在本地解压好之后进行上传。

2024-11-19 10:12:11 1322 1

原创 【重拾数学知识】矢量的点乘和叉乘

点乘(又称内积)是两个矢量的代数运算,结果是一个标量。对于两个矢量Aa1a2a3Aa1​a2​a3​和Bb1b2b3Bb1​b2​b3​A⋅Ba1b1a2b2a3b3A⋅Ba1​b1​a2​b2​a3​b3​叉乘(又称外积)是两个矢量的运算,结果是一个新的矢量,且与原来的两个矢量都垂直。对于两个矢量Aa1a2a3Aa1​a2​a3​和。

2024-11-19 10:04:47 1284

原创 【产品体验】使用Coze平台开发一个看图配诗的智能体

AI Agent(AI代理)是一种能够感知外部环境、进行自动决策和执行动作的智能实体。随着大模型技术的快速迭代,Agent的能力也逐步增强,目前部分场景已经开始有相应的落地,例如:我们曾借助LinkAI平台搭建了一个微信公众号智能客服。本章,我们将借助最近国内比较火热的Coze(扣子)平台构建一个智能体。扣子是新一代AI 应用开发平台。无论你是否有编程基础,都可以在扣子上快速搭建基于大模型的各类智能体,并将智能体发布到各个社交平台、通讯软件或部署到网站等其他渠道。

2024-11-14 11:07:41 1516

原创 【产品体验】使用LinkAI部署微信公众号智能客服

在当今数字化时代,智能客服系统已经成为企业与客户之间沟通的重要桥梁。通过使用LinkAI搭建一个微信公众号的智能客服,不仅可以提升客户服务效率,还可以7*24小时在线支持。本文将详细介绍使用LinkAI创建智能客服的效果、部署方法以及相关内容。

2024-11-14 11:05:42 816

原创 【课程总结】day34:多模态大模型之ViT模型、CLIP模型论文阅读理解

前言在【课程总结】day31:多模态大模型初步了解一文中,我们对多模态大模型的基本原理有了初步了解,本章内容将通过论文阅读理解,更进一步理解多模态大模型中所涉及的 Vit 架构、Transformer在视觉应用的理念以及 Clip图像与文本匹配的应用。ViT 模型论文阅读理解多模态大模型中所涉及的最为经典的模型就是 ViT,所以我们先了解该论文的核心要点。论文标题:An Image Is Worth 16x16 Words: Transformers For Image Recognition At

2024-11-06 11:41:16 1412 1

原创 【课程总结】day33:文生图StableDiffusion模型初步了解以及部署体验

在【课程总结】Day16:对抗生成网络GAN中,我们曾接触了解了对抗生成GAN网络,本章将学习了解另外一种文生图的模型Diffusion扩展模型,并尝试搭建和试用stable Diffusion。文生图(Text-to-Image)是一种人工智能技术,可以根据输入的文本描述生成相应的图像。其中近期比较火热的模型有Stable Diffusion,它基于扩散模型,将文本描述转化为图像。

2024-11-06 11:40:34 712

原创 使用Xinference部署向量化模型

在【课程总结】day24(下):大模型部署调用(vLLM+LangChain)一文中,我们曾学习到大模型需要借助 vLLM 进行部署。本章我们将介绍另外一个较火的部署组件Xinference。Xinference 是一个高效的推理引擎,旨在加速深度学习模型的推理过程。它支持多种模型格式,并提供灵活的部署选项,适用于各种应用场景。

2024-11-01 12:34:28 1508

原创 【项目实战】通过LLaMaFactory+Qwen2-VL-2B微调一个多模态医疗大模型

随着多模态大模型的发展,其不仅限于文字处理,更能够在图像、视频、音频方面进行识别与理解。医疗领域中,医生们往往需要对各种医学图像进行处理,以辅助诊断和治疗。如果将多模态大模型与图像诊断相结合,那么这会极大地提升诊断效率。

2024-10-28 10:45:31 2934

原创 【课程总结】day31:多模态大模型初步了解

随着2024年5月14日GPT-4o的发布,多模态大模型逐渐成为行业热点,国内各大厂商阿里、百度、智谱也相继发布了自己的多模态大模型。本章内容,我们将从多模态的体验感受开始,逐步了解多模态大模型的架构组成、训练数据构成,最后搭建一个多模态大模型。多模态大模型是一种能够处理和理解多种数据类型(模态)的人工智能模型。这些模态通常包括文本、图像、音频和视频等。量化是将高精度浮点数表示(如32位浮点数)转换为低精度表示(如16位、8位或更低位数)的过程。这种转换可以显著减少模型的内存占用和计算复杂度。

2024-10-16 12:41:51 1170

原创 【课程总结】day30:大模型之Agent的初步了解

电影《钢铁侠》中的智能助手J.A.R.V.I.S.是一位得力的助手,它不但有强大的理解能力,而且还具备执行行动的能力。随着技术的不断进步,类似于贾维斯的Agent正在逐步从银幕走进现实。本文将探讨Agent的产生背景,并结合一些代码示例理解Agent。第一步# 定义一个获取当前时间的函数 def get_datetime() - > str : """跟时期或时间查询相关的问题,请调用此方法注意:- 此方法没有入参- 返参是字符串形式的日期""" # 调用该函数 get_datetime()

2024-10-09 10:18:12 1106

原创 【课程总结】day29:大模型之深入了解Retrievers解析器

在上一章【课程总结】day28:大模型之深入探索RAG流程中,我们对RAG流程中文档读取(LOAD)->文档切分(SPLIT)->向量化(EMBED)->存储(STORE)进行了深入了解,本章将接着深入了解解析(Retrieval)的使用简介:在 RAG(Retrieval-Augmented Generation)流程中,Retrieval(检索)是关键环节,其主要目标是从大量文档或知识库中提取与用户查询相关的信息。目的。

2024-09-29 11:04:15 1159

原创 【课程总结】day28:大模型之深入探索RAG流程

在上一章【课程总结】day27:大模型之初识RAG中,我们初步了解了RAG的基本概念和原理,并通过代码实践了一个简单的RAG流程。本章我们将基于RAG的基本流程,深入了解文档读取(LOAD)文档切分(SPLIT)向量化(EMBED)和存储(STORE)的每个环节,并结合代码进行常见场景的实践。

2024-08-29 20:25:23 1253

原创 【课程总结】day27:大模型之初识RAG

通过前几章的学习,我们已经掌握连接一个第三方大模型,使用LangChain与大模型建立交互,并且通过Prompt进行提问,得到相应的回答。本章我们将开始了解RAG(检索增强生成)技术,了解RAG的技术原理以及基本使用方法。

2024-08-21 14:08:31 908

原创 【课程总结】day26:大模型应用开发之Prompt进阶使用

在上一章【课程总结】day25:大模型应用之Prompt的初步了解的学习中,我们了解了大模型上层开发中Prompt的基本流程。

2024-08-21 14:05:44 1026

原创 【课程总结】day25:大模型应用开发之Prompt初步了解

在上一章,我们主要了解了什么是LangChain以及基本的部署方式,本章将结合LangChain框架,了解大模型的应用方式:即Prompt。

2024-08-21 14:03:40 932

原创 【课程总结】day24(下):大模型部署调用(vLLM+LangChain)

在上一章【课程总结】day24(上):大模型三阶段训练方法(LLaMa Factory)内容中主要了解一个大模型的训练过程,无论是第三方的大模型还是自研的大模型,都需要部署到服务端,提供对应API接口供上层应用使用。所以,本章将主要了解vLLm + langchain的基本使用方法。

2024-08-15 19:23:14 3296

原创 【课程总结】day24(上):大模型三阶段训练方法(LLaMa Factory)

本章我们将通过 LLaMA-Factory 具体实践大模型训练的三个阶段,包括:预训练、监督微调和偏好纠正。

2024-08-15 19:22:02 2413 5

原创 【课程总结】day23:大模型训练策略(BERT模型与GLM模型)

在前两章的学习中,我们了解到大模型的训练过程,其中Base model(底座大模型)的训练采用了挖空填空的策略。本章我们将结合BERT和GLM两个模型的论文,深入了解在预训练时两者的具体训练策略。

2024-08-15 19:19:53 996

原创 【课程总结】day22:Qwen模型的体验

在上一章【课程总结】day21(下):大模型的三大架构及T5体验中,我们体验了Encoder-Decoder架构的T5模型。本章内容,我们将以Decoder-Only架构的Qwen模型入手,了解Qwen模型结构、聊天模板的概念以及通过大模型进行翻译、信息抽取等任务的尝试。

2024-08-15 19:19:18 1269

原创 【课程总结】day21(下):大模型的三大架构及T5体验

在前两篇学习中【课程总结】day19(中):Transformer架构及注意力机制了解,我们初步了解大模型的公共底层架构的构成,同时借助对的代码深入了解(【课程总结】day20:Transformer源码深入理解之训练过程),初步掌握了的训练过程。本篇我们将对大模型的训练阶段进行初步了解,同时部署一个T5模型进行试用体验。

2024-08-15 19:17:54 1256

原创 【课程总结】day21(上):Transformer源码深入理解之预测过程

在上一章【课程总结】day20:Transformer源码深入理解-训练过程总结中,我们对Transformer的训练过程进行了详细的分析,本章将介绍Transformer的预测过程。

2024-08-15 19:16:50 919

原创 【课程总结】day20:Transformer源码深入理解之训练过程

在上一章【课程总结】day19(下):Transformer源码深入理解总结中,我们对Transformer架构以及初始化部分做了梳理,本章我们将对Transformer训练过程进行代码分析理解。

2024-08-15 19:15:45 1370

原创 【课程总结】day19(下):Transformer源码深入理解之构建模型流程

在上一章【课程总结】day19(下):Transformer架构及注意力机制了解总结中,我们对Transformer架构以及注意力机制有了初步了解,本章将结合中的源码,对Transformer的架构进行深入理解。

2024-08-03 21:11:48 975

原创 【课程总结】day19(中):Transformer架构及注意力机制了解

本章内容,我们将从注意力的基础概念入手,结合Transformer架构,由宏观理解其运行流程,然后逐步深入了解多头注意力、多头掩码注意力、融合注意力等概念及作用。

2024-08-03 21:10:23 1139

原创 【课程总结】day19(上):大模型简介

终于,我们的课程将要进入到当前最为火热的大模型部分。本章内容,我们将开始了解大模型,其中的内容包含大模型的发展历史、大模型的特点、大模型底层架构Transformer的简单了解以及最后对于人工智能的思考。大模型通常指的是具有大量参数(具有数亿到数千亿参数的深度学习模型)的深度学习模型,这些模型在处理复杂任务时展现出显著的性能提升。

2024-08-03 21:08:42 1264

原创 【课程总结】Day18:Seq2Seq的深入了解

在上一章【课程总结】Day17(下):初始Seq2Seq模型中,我们初步了解了Seq2Seq模型的基本情况及代码运行效果,本章内容将深入了解Seq2Seq模型的代码,梳理代码的框架图、各部分组成部分以及运行流程。

2024-08-03 21:07:04 735

原创 【课程总结】Day17(下):初始Seq2Seq模型

日月忽其不淹兮,春与秋其代序。技术更新的车轮在滚滚向前,曾经名噪一时的RNN模型,在新的技术革新下也渐渐落幕,本章我们将初步了解Seq2Seq模型,同时借助Demo代码,对Seq2Seq模型有一个直观了解。

2024-08-03 21:05:44 513

原创 【课程总结】Day17(中):LSTM及GRU模型简介

在上一章【课程总结】Day17(上):NLP自然语言处理及RNN网络我们初步了解RNN的基本概念和原理。本章内容,我们将继续了解RNN的变种模型,如LSTM和GRU。

2024-08-03 21:04:00 1248 1

原创 【课程总结】Day17(上):NLP自然语言处理及RNN网络

在机器学习章节【课程总结】Day6(上):机器学习项目实战–外卖点评情感分析预测中,我们曾借助sklearn进行了外卖点评的情感分析预测;接下来,我们将深入了解自然语言处理的基本概念、RNN模型以及借助RNN重新进行外卖点评的情感分析预测。

2024-08-03 21:02:29 832

原创 【课程总结】Day16:对抗生成网络GAN

在前一阶段课程中,我们学习了图像分割中的语义分割实例分割旋转目标检测等。这些图像分割算法都是有监督学习,而GAN(生成对抗网络)是一种特别的学习策略,其核心思想非常值得借鉴,所以本章将以GAN网络的代码为切入口,了解掌握其核心思想。在上述的两种学习策略中,有一种特殊的、独立的学习策略:GAN(生成对抗网络)。它由两个网络(生成器和判别器),通过对抗在竞争中共同发展。G:生成器(造假)D:鉴别器(打假)训练过程:两个网络刚开始都没有任何能力在竞争中共同发展最后两个网络能力都得到提升。

2024-08-03 21:01:38 1151

原创 【课程总结】Day15(下):图像分割之旋转目标检测

在前两章【课程总结】Day15(上):图像分割之语义分割和【课程总结】Day15(中):图像分割之实例分割中,我们学习掌握了语义分割和实例分割。在本章中,我们将了解YOLO最新的OBB(旋转目标检测)。

2024-08-03 21:00:21 1394

原创 【课程总结】Day15(中):图像分割之实例分割

在上一章,我们通过学习了解了语义分割以及U-Net网络结构【课程总结】Day15(上):图像分割之语义分割。在本章,我们将学习了解图像分割中的实例分割以及相关的数据预处理注意事项。

2024-08-03 20:59:04 1149

原创 【课程总结】Day15(上):图像分割之语义分割

上一章我们已经学习掌握了计算机视觉中的人脸检测【课程总结】Day14:MTCNN过程的深入理解,接下来的我们将学习了解计算机视觉中:语义分割和图像分割。语义分割,是将图像中的每个像素都分类为特定的语义类别,如"人"、“车”、"建筑"等。访问https://segment-anything.com/demo#也可在线体验语义分割。# U_Net模型中的双卷积网络结构# 此处包含padding,为了使输出图像与输入图像大小相同# 编码器部分# 特征图大小不变# 特征图大小长宽减半。

2024-08-03 20:58:26 326

原创 【课程总结】Day14:MTCNN过程的深入理解

在上一章【课程总结】Day13(下):人脸识别和MTCNN模型中,我们初步了解了人脸识别的概念以及MTCNN的网络结构,借助开源项目的代码,初步在本地实现了MTCNN的数据预处理、训练和预测过程。本章内容,我们将深入MTCNN的代码,理解数据预处理、训练和预测过程。

2024-08-03 20:57:19 522

原创 【课程总结】Day13(下):人脸识别和MTCNN模型

在上一章课程【课程总结】Day13(上):使用YOLO进行目标检测,我们了解到目标检测有两种策略,一种是以YOLO为代表的策略:特征提取→切片→分类回归;另外一种是以MTCNN为代表的策略:先图像切片→特征提取→分类和回归。因此,本章内容将深入了解MTCNN模型,包括:MTCNN的模型组成、模型训练过程、模型预测过程等。

2024-07-06 12:36:18 868

原创 【课程总结】Day13(上):使用YOLO进行目标检测

在上一章《【课程总结】Day11(下):YOLO的入门使用》的学习中,我们通过YOLO实现了对图片的分类任务。本章的学习内容,将以目标检测为切入口,了解目标检测流程,包括:数据标准、模型训练以及模型预测。

2024-06-30 23:03:15 1292

原创 【课程总结】Day12:YOLO的深入了解

在【课程总结】Day11(下):YOLO的入门使用一节中,我们已经了解YOLO的使用方法,使用过程非常简单,训练时只需要三行代码:引入YOLO,构建模型,训练模型;预测时也同样简单,只需要两行代码:引入YOLO,预测图像即可。

2024-06-27 11:23:05 1030

原创 【课程总结】Day11(下):YOLO的入门使用

YOLO(You Only Look Once)是一种流行的目标检测算法,由Joseph Redmon等人于2015年提出。YOLO的设计思想是将目标检测任务转化为单个神经网络的回归问题,通过在图像上划分网格并对每个网格预测边界框和类别置信度来实现目标检测。

2024-06-26 22:10:30 1263

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除