自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(46)
  • 资源 (4)
  • 收藏
  • 关注

原创 L1G1000书生大模型全链路开源体系

2024-11-24 21:14:33 159

原创 L1G6000 OpenCompass 评测

本节课程聚焦于大语言模型的评测,在后续的课程中我们将介绍多模态大模型的评测方法。OpenCompass 提供了和两种方式。其中 API 模式评测针对那些以 API 服务形式部署的模型,而本地直接评测则面向那些可以获取到模型权重文件的情况。

2024-11-24 13:35:17 714

原创 L1G5000 XTuner 微调实践微调

1.1 使用 conda 先构建一个 Python-3.10 的虚拟环境xtuner,并克隆源码1.2安装 XTuner表示在可编辑模式下安装项目,因此对代码所做的任何本地修改都会生效。

2024-11-15 22:38:25 886

原创 L1G4000 LlamaIndex+本地部署InternLM实践

这里以在服务器上部署 LlamaIndex 为例。首先,打开界面,点击配置开发机系统填写开发机名称后,点击 选择镜像 使用镜像,然后在资源配置中,使用的选项,然后立即创建开发机器。进入开发机后,创建新的 conda 环境,命名为llamaindex,在命令行模式下运行:运行conda命令,激活llamaindex1然后。

2024-11-15 09:39:38 766

原创 L1G2000玩转书生「多模态对话」和「AI搜索」产品

第一次分析的时候,红色下划线部分分析有误。第二次分析就没有问题了。

2024-11-13 22:08:35 248

原创 L0G4000:玩转HF/魔搭/魔乐社区

书生大模型实战营第四期新鲜出炉的“玩转Hugging Face/魔搭社区/魔乐社区”教程!此教程旨在帮助您学习当前火热的三大AI学习社区。将深入探索如何充分利用 Hugging Face、魔搭社区和魔乐社区的资源和工具,学习模型下载、上传以及创建您的专属Space,玩转三大平台。

2024-10-29 17:10:26 648

原创 L0G2000 Python 基础知识

当你刚开始学习Python编程时,可能会遇到代码不按预期运行的情况。这时,你就需要用到“debug”了。简单来说,“debug”就是能再程序中设置中断点并支持一行一行地运行代码,观测程序中变量的变化,然后找出并修正代码中的错误。而VSCode提供了一个非常方便的debug工具,可以帮助你更容易地找到和修复错误。

2024-10-24 09:37:19 311

原创 L0G1000 Linux 基础知识

1.创建虚拟机。

2024-10-22 17:12:20 198

原创 在英伟达NIM中测试OCDRNET

在NVIDIA的NIM部署,NVIDIA NIM™ 是 NVIDIA AI Enterprise 的一部分,它提供容器来自托管 GPU 加速推理微服务,用于跨云、数据中心和工作站的预训练和定制 AI 模型。

2024-10-13 12:44:34 1029 1

原创 Lagent 自定义你的 Agent 智能体

接下来,我们将使用 Lagent 的 Web Demo 来体验 InternLM2.5-7B-Chat 的智能体能力。首先,我们先使用 LMDeploy 部署 InternLM2.5-7B-Chat,并启动一个 API Server。然后,我们在另一个窗口中启动 Lagent 的 Web Demo。在等待两个 server 都完全启动(如下图所示)后,我们在。2.通过源码安装的方式安装 lagent。二、Lagent Web Demo 使用。

2024-10-10 22:46:00 255

原创 OpenCompass 来评测 InternLM2 1.8B实践

在 OpenCompass 中评估一个模型通常包括以下几个阶段:配置 -> 推理 -> 评估 -> 可视化。接下来,我们将展示 OpenCompass 的基础用法,分别用命令行方式和配置文件的方式评测InternLM2-Chat-1.8B,展示书生浦语在C-Eval基准任务上的评估。

2024-10-08 23:49:27 850

原创 XTuner微调个人小助手认知

下面我们将根据项目的需求一步步的进行修改和调整吧!在 PART 1 的部分,由于我们不再需要在 HuggingFace 上自动下载模型,因此我们先要更换模型的路径以及数据集的路径为我们本地的路径。为了训练过程中能够实时观察到模型的变化情况,XTuner 贴心的推出了一个。

2024-10-07 22:45:55 975

原创 llamaindex+Internlm2 RAG实践

正常情况下,其会自动从互联网上下载,但可能由于网络原因会导致下载中断,此处我们可以从国内仓库镜像地址下载相关资源,保存到服务器上。我们在使用开源词向量模型构建开源词向量的时候,需要用到第三方库。打开llamaindex_internlm.py 贴入以下代码。2.进入开发机后,创建新的conda环境,命名为。运行llamaindex_RAG.py。运行以下指令,新建一个python文件。1.使用30%的算力,新建开发机。4. 下载 NLTK 相关资源。然后安装相关基础依赖。运行以下命令,获取知识库。

2024-10-07 20:56:36 455

原创 浦语提示词工程实践

一、基本配置1.环境配置安装完成后,激活环境,并安装依赖包。

2024-10-06 23:24:42 630

原创 8G 显存玩转书生大模型 Demo---第三期暑假

一、基础任务(一)InternLM2-Chat-1.8B 模型的部署(基础任务)1.创建开发机2.配置环境点击进入开发机进入命令行配置创建cli_demo.py复制代码启动代码。

2024-08-08 23:46:07 353

原创 书生大模型全链路开源体系:书生·浦语大模型理解

2024-08-08 22:17:39 140

原创 github操作

2024-07-22 16:38:04 155

原创 Python task

1.Python实现wordcount。

2024-07-22 15:46:08 172

原创 完成SSH连接与端口映射并运行hello_world.py

2.配置端口链接及允许hello_world.py。

2024-07-22 15:15:59 193

原创 第二次作业 创作图文并茂文章,图片理解,智能体

图片理解八戒智能体。

2024-04-02 16:18:03 201

原创 如何利用InternLM2的开源大型语言模型编写代码解释的agent

定义支持的环境和工具:首先需要定义agent将支持的编程语言和所需的工具(例如,代码解释器)。这可能涉及到特定编程语言的解释器或编译器以及用于代码分析和解释的外部库。采用ChatML格式:利用修改版的ChatML格式来处理agent的输入和输出,这种格式支持通过“环境”角色来实现通用的工具调用。可以通过特定关键词(如“interpreter”或“plugin”)在agent的响应中嵌入对工具的调用。准备训练数据:准备包含大量代码示例及其解释的训练数据集。

2024-03-28 20:24:28 397

原创 复现六:大模型评测教程

本算法库的主要评测对象为语言大模型与多模态大模型。我们以语言大模型为例介绍评测的具体模型类型。基座模型:一般是经过海量的文本数据以自监督学习的方式进行训练获得的模型(如OpenAI的GPT-3,Meta的LLaMA),往往具有强大的文字续写能力。对话模型:一般是在的基座模型的基础上,经过指令微调或人类偏好对齐获得的模型(如OpenAI的ChatGPT、上海人工智能实验室的书生·浦语),能理解人类指令,具有较强的对话能力。

2024-01-24 18:41:08 1360

原创 复现五 LMDeploy 的量化和部署

但 PyTorch 和 DeepSpeed 调用的其实都是 Huggingface 的 Transformers 包,PyTorch表示原生的 Transformer 包,DeepSpeed 表示使用了 DeepSpeed 作为推理框架。所以说,实际和前面的架构图是有区别的。值得说明的是,以上的划分是一个相对完整的模型,但在实际中这并不是绝对的。上面两行命令分别展示了如何直接加载 Huggingface 的模型,第一条命令是加载使用 lmdeploy 量化的版本,第二条命令是加载其他 LLM 模型。

2024-01-24 14:12:33 1003

原创 XTuner InternLM-Chat 个人小助手认知微调实践

目标:通过微调,帮助模型了解对自己身份方式:使用XTuner进行微调。

2024-01-23 21:07:09 540

原创 XTuner复现

一个大语言模型微调工具箱,由上海人工智能实验室开发。支持的开源LLM (2023.11.01),详情见哔哩哔哩公众号。

2024-01-23 17:40:40 955

原创 基于 InternLM 和 LangChain 搭建你的知识库

接着,我们实例化一个基于 InternLM 自定义的 LLM 对象llm.predict("你是谁")构建检索问答链,还需要构建一个 Prompt Template,该 Template 其实基于一个带变量的字符串,在检索之后,LangChain 会将检索到的相关文档片段填入到 Template 的变量中,从而实现带知识的 Prompt 构建。# 我们所构造的 Prompt 模板template = """使用以下上下文来回答用户的问题。如果你不知道答案,就说你不知道。总是使用中文回答。

2024-01-18 17:50:49 791

原创 浦语·灵笔图文理解创作 Demo

本小节我们将使用 InternStudio 中的 A100(1/4) * 2 机器和 internlm-xcomposer-7b 模型部署一个图文理解创作demo。

2024-01-18 11:12:56 776 1

原创 Lagent智能题调用Demo

本小节我们将使用中的 A100(1/4) 机器、模型和Lagent框架部署一个智能工具调用 Demo。Lagent 是一个轻量级、开源的基于大语言模型的智能体(agent)框架,支持用户快速地将一个大语言模型转变为多种类型的智能体,并提供了一些典型工具为大语言模型赋能。通过 Lagent 框架可以更好的发挥 InternLM 的全部性能。

2024-01-17 17:30:54 1150

原创 轻松玩转书生·浦语大模型internlm-demo 配置验证过程

InternLM-chat-7B InternLM 模型

2024-01-17 16:06:57 1077

原创 OpenMMLab AI实战营第二次笔记

OpenMMLab学习心得

2023-02-03 10:42:37 212 1

转载 深度学习——优化器算法Optimizer详解

深度学习——优化器算法Optimizer详解(BGD、SGD、MBGD、Momentum、NAG、Adagrad、Adadelta、RMSprop、Adam)在机器学习、深度学习中使用的优化算法除了常见的梯度下降,还有 Adadelta,Adagrad,RMSProp 等几种优化器,都是什么呢,又该怎么选择呢?在 Sebastian Ruder 的这篇论文中给出了常用优化器的比较,今天来学习一下:https://arxiv.org/pdf/1609.04747.pdf本文将梳理:每个算法的梯

2020-09-17 10:01:09 3077

转载 【论文投稿】计算机学科部分核心期刊投稿攻略

本文来源:IEEE论文那些事儿公众号1.《小型微型计算机系统》【专业方向】发表我国计算机领域的科学研究、工程设计及应用、高等教育等方面的学术论文,并介绍国外先进计算机理论和技术。主要栏目有计算机硬件、软件、网络、多媒体等技术的研究、开发、应用。【联系方式】xwjxt@sict.ac.cn【投稿费用】审稿费100元,版面费1000左右【杂志级别】核心期刊,EI检索【稿酬回...

2020-04-07 12:27:57 1727

转载 目标检测论文集(转载)

本文转载自:https://handong1587.github.io/deep_learning/2015/10/09/object-detection.html#数据总览Detection Results: VOC2012intro: Competition “comp4” (train on additional data)homepage: http://host.robots.o...

2020-03-28 15:41:03 944

原创 Win10专业版+anaconda3+Python3.7+GTX1650安装TensorFlow2.3.0

1)安装好anaconda3并升级到最新版本2)在NVIDIA官网上下载最新的GTX1650网卡的驱动,进行重新安装。3)在CUDA下载地址:https://developer.nvidia.com/cuda-toolkit-archive,本机用的:CUDAcuda_10.0.130_411.31_win10并进行默认安装(默认存在C盘,其它盘没有尝试)。系统会自动添加环境变量...

2019-10-25 10:56:35 5797 13

原创 Scalable Person Re-identification: A Benchmark(可扩张的行人重识别:基准)-1

感谢Google翻译大力支持。摘要:本文为行人重识别提供一个新的高质量数据集,命名为命名为“Market-1501”。一般地,当前的数据集:1)在规模有限; 2)由手绘bboxes,这种设置在实际使用中是不可用的; 3)每个身份(封闭环境)只有一个基本图像和一个查询图像。为了解决这些问题,提出的market-1501数据集在三个方面特点。首先,它包含超过32,000带注释的bboxes...

2019-10-11 10:09:58 1020

转载 转载:GANS的世界2-0:DG-Net(行人重识别ReID)-目录-史上最新无死角讲解

行人重识别

2019-10-09 12:54:18 306

原创 如何在TensorFlow环境下安装object_detection

在anaconda环境下安装 google的object_detecthon,主要涉及Protoc的配置,object_detecthon环境变量配置等工作。前期准备工作:(1)在anaconda环境下安装配置好TensorFlow,并且设置好并进入TensorFlow环境。由于机器原因,我使用的CPU版的TensorFlow。A:检查Python的支持:condasearch --...

2019-06-25 11:25:47 1736

原创 在Win7 旗舰版(32位)下安装Opencv

最近跳入Opencv的坑里,安装opencv就差点出不来,下面分享一下安装过程。主要参考https://blog.youkuaiyun.com/iracer/article/details/80498732文章1.安装Anaconda3 (32-bit),使用的安装包是:在安装时加入环境变量,Python版本是3.7.1。2.安装成功后,测试Python环境。3.打开Anaconda P...

2019-04-04 16:11:01 1641

转载 计算机视觉圈子-opencv-转载

https://yongyuan-workbench.rhcloud.com/%E8%AE%A1%E7%AE%97%E6%9C%BA%E8%A7%86%E8%A7%89cv-%E5%9C%88%E5%AD%90-2/作机器视觉和图像处理方面的研究工作,最重要的两个问题:其一是要把握住国际上最前沿的内容;其二是所作工作要具备很高的实用背景。解决第一个问题的办法就是找出这个方向公认最高成就的几个超...

2018-12-12 15:31:10 568

转载 Ubuntu14.04配置caffe

Ubuntu14.04配置caffe转载 2016年09月26日 16:41:47标签:CNN /caffe676前段时间接到任务需要配置caffe并在上面训练神经网络相关,对caffe与深度学习一窍不通的我有幸得到了xizero00师兄的指导并在Ubuntu 14.04上面配置了caffe,亲测可用,以下是师兄写的博文正文:网上充斥各种安装方法,但是都很繁琐,特别是安装显卡驱动以及依赖项,对于初...

2018-04-24 15:47:35 197

MMDetection整体构建流程

本文会介绍如何在MMDetection中从头开始搭建一套属于自己的算法。作者会从宏观的角度重新梳理一下MMDetection的使用方法以及流程原理,

2022-05-19

market1501数据集论文.pdf

market-1501数据集原版论文,作者介绍了一个新的行人重识别数据集的,并与其它数据集进行比较。

2019-10-11

Unity3D脚本中文教程Javascript版本

自己在网上搜集整理的Unity3D脚本教程JavaScript版本,花了不少精力,希望对大家有用

2017-11-22

JSP项目开发全程实录(随书光盘代码)

JSP项目开发全程实录,随书附赠的光盘代码

2014-03-11

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除