- 博客(46)
- 资源 (4)
- 收藏
- 关注
原创 L1G6000 OpenCompass 评测
本节课程聚焦于大语言模型的评测,在后续的课程中我们将介绍多模态大模型的评测方法。OpenCompass 提供了和两种方式。其中 API 模式评测针对那些以 API 服务形式部署的模型,而本地直接评测则面向那些可以获取到模型权重文件的情况。
2024-11-24 13:35:17
714
原创 L1G5000 XTuner 微调实践微调
1.1 使用 conda 先构建一个 Python-3.10 的虚拟环境xtuner,并克隆源码1.2安装 XTuner表示在可编辑模式下安装项目,因此对代码所做的任何本地修改都会生效。
2024-11-15 22:38:25
886
原创 L1G4000 LlamaIndex+本地部署InternLM实践
这里以在服务器上部署 LlamaIndex 为例。首先,打开界面,点击配置开发机系统填写开发机名称后,点击 选择镜像 使用镜像,然后在资源配置中,使用的选项,然后立即创建开发机器。进入开发机后,创建新的 conda 环境,命名为llamaindex,在命令行模式下运行:运行conda命令,激活llamaindex1然后。
2024-11-15 09:39:38
766
原创 L0G4000:玩转HF/魔搭/魔乐社区
书生大模型实战营第四期新鲜出炉的“玩转Hugging Face/魔搭社区/魔乐社区”教程!此教程旨在帮助您学习当前火热的三大AI学习社区。将深入探索如何充分利用 Hugging Face、魔搭社区和魔乐社区的资源和工具,学习模型下载、上传以及创建您的专属Space,玩转三大平台。
2024-10-29 17:10:26
648
原创 L0G2000 Python 基础知识
当你刚开始学习Python编程时,可能会遇到代码不按预期运行的情况。这时,你就需要用到“debug”了。简单来说,“debug”就是能再程序中设置中断点并支持一行一行地运行代码,观测程序中变量的变化,然后找出并修正代码中的错误。而VSCode提供了一个非常方便的debug工具,可以帮助你更容易地找到和修复错误。
2024-10-24 09:37:19
311
原创 在英伟达NIM中测试OCDRNET
在NVIDIA的NIM部署,NVIDIA NIM™ 是 NVIDIA AI Enterprise 的一部分,它提供容器来自托管 GPU 加速推理微服务,用于跨云、数据中心和工作站的预训练和定制 AI 模型。
2024-10-13 12:44:34
1029
1
原创 Lagent 自定义你的 Agent 智能体
接下来,我们将使用 Lagent 的 Web Demo 来体验 InternLM2.5-7B-Chat 的智能体能力。首先,我们先使用 LMDeploy 部署 InternLM2.5-7B-Chat,并启动一个 API Server。然后,我们在另一个窗口中启动 Lagent 的 Web Demo。在等待两个 server 都完全启动(如下图所示)后,我们在。2.通过源码安装的方式安装 lagent。二、Lagent Web Demo 使用。
2024-10-10 22:46:00
255
原创 OpenCompass 来评测 InternLM2 1.8B实践
在 OpenCompass 中评估一个模型通常包括以下几个阶段:配置 -> 推理 -> 评估 -> 可视化。接下来,我们将展示 OpenCompass 的基础用法,分别用命令行方式和配置文件的方式评测InternLM2-Chat-1.8B,展示书生浦语在C-Eval基准任务上的评估。
2024-10-08 23:49:27
850
原创 XTuner微调个人小助手认知
下面我们将根据项目的需求一步步的进行修改和调整吧!在 PART 1 的部分,由于我们不再需要在 HuggingFace 上自动下载模型,因此我们先要更换模型的路径以及数据集的路径为我们本地的路径。为了训练过程中能够实时观察到模型的变化情况,XTuner 贴心的推出了一个。
2024-10-07 22:45:55
975
原创 llamaindex+Internlm2 RAG实践
正常情况下,其会自动从互联网上下载,但可能由于网络原因会导致下载中断,此处我们可以从国内仓库镜像地址下载相关资源,保存到服务器上。我们在使用开源词向量模型构建开源词向量的时候,需要用到第三方库。打开llamaindex_internlm.py 贴入以下代码。2.进入开发机后,创建新的conda环境,命名为。运行llamaindex_RAG.py。运行以下指令,新建一个python文件。1.使用30%的算力,新建开发机。4. 下载 NLTK 相关资源。然后安装相关基础依赖。运行以下命令,获取知识库。
2024-10-07 20:56:36
455
原创 8G 显存玩转书生大模型 Demo---第三期暑假
一、基础任务(一)InternLM2-Chat-1.8B 模型的部署(基础任务)1.创建开发机2.配置环境点击进入开发机进入命令行配置创建cli_demo.py复制代码启动代码。
2024-08-08 23:46:07
353
原创 如何利用InternLM2的开源大型语言模型编写代码解释的agent
定义支持的环境和工具:首先需要定义agent将支持的编程语言和所需的工具(例如,代码解释器)。这可能涉及到特定编程语言的解释器或编译器以及用于代码分析和解释的外部库。采用ChatML格式:利用修改版的ChatML格式来处理agent的输入和输出,这种格式支持通过“环境”角色来实现通用的工具调用。可以通过特定关键词(如“interpreter”或“plugin”)在agent的响应中嵌入对工具的调用。准备训练数据:准备包含大量代码示例及其解释的训练数据集。
2024-03-28 20:24:28
397
原创 复现六:大模型评测教程
本算法库的主要评测对象为语言大模型与多模态大模型。我们以语言大模型为例介绍评测的具体模型类型。基座模型:一般是经过海量的文本数据以自监督学习的方式进行训练获得的模型(如OpenAI的GPT-3,Meta的LLaMA),往往具有强大的文字续写能力。对话模型:一般是在的基座模型的基础上,经过指令微调或人类偏好对齐获得的模型(如OpenAI的ChatGPT、上海人工智能实验室的书生·浦语),能理解人类指令,具有较强的对话能力。
2024-01-24 18:41:08
1360
原创 复现五 LMDeploy 的量化和部署
但 PyTorch 和 DeepSpeed 调用的其实都是 Huggingface 的 Transformers 包,PyTorch表示原生的 Transformer 包,DeepSpeed 表示使用了 DeepSpeed 作为推理框架。所以说,实际和前面的架构图是有区别的。值得说明的是,以上的划分是一个相对完整的模型,但在实际中这并不是绝对的。上面两行命令分别展示了如何直接加载 Huggingface 的模型,第一条命令是加载使用 lmdeploy 量化的版本,第二条命令是加载其他 LLM 模型。
2024-01-24 14:12:33
1003
原创 基于 InternLM 和 LangChain 搭建你的知识库
接着,我们实例化一个基于 InternLM 自定义的 LLM 对象llm.predict("你是谁")构建检索问答链,还需要构建一个 Prompt Template,该 Template 其实基于一个带变量的字符串,在检索之后,LangChain 会将检索到的相关文档片段填入到 Template 的变量中,从而实现带知识的 Prompt 构建。# 我们所构造的 Prompt 模板template = """使用以下上下文来回答用户的问题。如果你不知道答案,就说你不知道。总是使用中文回答。
2024-01-18 17:50:49
791
原创 浦语·灵笔图文理解创作 Demo
本小节我们将使用 InternStudio 中的 A100(1/4) * 2 机器和 internlm-xcomposer-7b 模型部署一个图文理解创作demo。
2024-01-18 11:12:56
776
1
原创 Lagent智能题调用Demo
本小节我们将使用中的 A100(1/4) 机器、模型和Lagent框架部署一个智能工具调用 Demo。Lagent 是一个轻量级、开源的基于大语言模型的智能体(agent)框架,支持用户快速地将一个大语言模型转变为多种类型的智能体,并提供了一些典型工具为大语言模型赋能。通过 Lagent 框架可以更好的发挥 InternLM 的全部性能。
2024-01-17 17:30:54
1150
转载 深度学习——优化器算法Optimizer详解
深度学习——优化器算法Optimizer详解(BGD、SGD、MBGD、Momentum、NAG、Adagrad、Adadelta、RMSprop、Adam)在机器学习、深度学习中使用的优化算法除了常见的梯度下降,还有 Adadelta,Adagrad,RMSProp 等几种优化器,都是什么呢,又该怎么选择呢?在 Sebastian Ruder 的这篇论文中给出了常用优化器的比较,今天来学习一下:https://arxiv.org/pdf/1609.04747.pdf本文将梳理:每个算法的梯
2020-09-17 10:01:09
3077
转载 【论文投稿】计算机学科部分核心期刊投稿攻略
本文来源:IEEE论文那些事儿公众号1.《小型微型计算机系统》【专业方向】发表我国计算机领域的科学研究、工程设计及应用、高等教育等方面的学术论文,并介绍国外先进计算机理论和技术。主要栏目有计算机硬件、软件、网络、多媒体等技术的研究、开发、应用。【联系方式】xwjxt@sict.ac.cn【投稿费用】审稿费100元,版面费1000左右【杂志级别】核心期刊,EI检索【稿酬回...
2020-04-07 12:27:57
1727
转载 目标检测论文集(转载)
本文转载自:https://handong1587.github.io/deep_learning/2015/10/09/object-detection.html#数据总览Detection Results: VOC2012intro: Competition “comp4” (train on additional data)homepage: http://host.robots.o...
2020-03-28 15:41:03
944
原创 Win10专业版+anaconda3+Python3.7+GTX1650安装TensorFlow2.3.0
1)安装好anaconda3并升级到最新版本2)在NVIDIA官网上下载最新的GTX1650网卡的驱动,进行重新安装。3)在CUDA下载地址:https://developer.nvidia.com/cuda-toolkit-archive,本机用的:CUDAcuda_10.0.130_411.31_win10并进行默认安装(默认存在C盘,其它盘没有尝试)。系统会自动添加环境变量...
2019-10-25 10:56:35
5797
13
原创 Scalable Person Re-identification: A Benchmark(可扩张的行人重识别:基准)-1
感谢Google翻译大力支持。摘要:本文为行人重识别提供一个新的高质量数据集,命名为命名为“Market-1501”。一般地,当前的数据集:1)在规模有限; 2)由手绘bboxes,这种设置在实际使用中是不可用的; 3)每个身份(封闭环境)只有一个基本图像和一个查询图像。为了解决这些问题,提出的market-1501数据集在三个方面特点。首先,它包含超过32,000带注释的bboxes...
2019-10-11 10:09:58
1020
原创 如何在TensorFlow环境下安装object_detection
在anaconda环境下安装 google的object_detecthon,主要涉及Protoc的配置,object_detecthon环境变量配置等工作。前期准备工作:(1)在anaconda环境下安装配置好TensorFlow,并且设置好并进入TensorFlow环境。由于机器原因,我使用的CPU版的TensorFlow。A:检查Python的支持:condasearch --...
2019-06-25 11:25:47
1736
原创 在Win7 旗舰版(32位)下安装Opencv
最近跳入Opencv的坑里,安装opencv就差点出不来,下面分享一下安装过程。主要参考https://blog.youkuaiyun.com/iracer/article/details/80498732文章1.安装Anaconda3 (32-bit),使用的安装包是:在安装时加入环境变量,Python版本是3.7.1。2.安装成功后,测试Python环境。3.打开Anaconda P...
2019-04-04 16:11:01
1641
转载 计算机视觉圈子-opencv-转载
https://yongyuan-workbench.rhcloud.com/%E8%AE%A1%E7%AE%97%E6%9C%BA%E8%A7%86%E8%A7%89cv-%E5%9C%88%E5%AD%90-2/作机器视觉和图像处理方面的研究工作,最重要的两个问题:其一是要把握住国际上最前沿的内容;其二是所作工作要具备很高的实用背景。解决第一个问题的办法就是找出这个方向公认最高成就的几个超...
2018-12-12 15:31:10
568
转载 Ubuntu14.04配置caffe
Ubuntu14.04配置caffe转载 2016年09月26日 16:41:47标签:CNN /caffe676前段时间接到任务需要配置caffe并在上面训练神经网络相关,对caffe与深度学习一窍不通的我有幸得到了xizero00师兄的指导并在Ubuntu 14.04上面配置了caffe,亲测可用,以下是师兄写的博文正文:网上充斥各种安装方法,但是都很繁琐,特别是安装显卡驱动以及依赖项,对于初...
2018-04-24 15:47:35
197
MMDetection整体构建流程
2022-05-19
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人