自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

HOOK1的博客

记录我人工智能学习之旅

  • 博客(19)
  • 收藏
  • 关注

原创 Datawhale AI 夏令营 Task1

记录第一次参加Kaggle上的比赛,通过一站式的教程,没有一点阻碍的跑通了baseline。

2024-07-14 11:08:41 285 1

原创 AI Agent

智能体 = LLM+观察+思考+行动+记忆Agent(智能体) = 一个设置了一些目标或任务,可以迭代运行的大型语言模型。这与大型语言模型(LLM)在像ChatGPT这样的工具中“通常”的使用方式不同。在ChatGPT中,你提出一个问题并获得一个答案作为回应。而Agent拥有复杂的工作流程,模型本质上可以自我对话,而无需人类驱动每一部分的交互。

2024-02-29 23:25:16 1010

原创 备战蓝桥杯 ---- 刷题

看到这道题的时候我的第一想法是直接暴力枚举即可,于是便开始了尝试,emmm样例是过了,但是超时,也是时间复杂度o(n**3), 然后看了题解说,知道了方程,直接将常数c移项即可,这样就变成了枚举a,b在一个序列中找是否存在一个数等于c,这样就可二分了。

2024-01-29 18:43:12 302

原创 古诗小助手微调② --- lmdeploy量化

执行完成后将会在当前目录生成一个workspace的文件夹。这里面包含的就是 TurboMind 和 Triton “模型推理”需要到的文件。

2024-01-28 19:23:02 1106 1

原创 让git clone失败不再成为你的烦恼

因为要部署模型的需要,需要把文件都上传到github上,本来是挺简单的一个事情,到头来却成为最困难的一件事,因为我遇到了下面这两种情况,无数次的失败,让我崩溃😩。

2024-01-27 11:35:30 1176

原创 古诗小助手微调①--- 浦语全链实战xtuner微调

而是提前从 OpenXLab ModelScope 下载模型到本地。减号代表要删除的行,加号代表要增加的行。依次为:模型、配置文件、数据集。③不用 xtuner 默认的。②创建数据集放置的文件夹。①激活环境&配置环境。

2024-01-24 00:31:21 1081

原创 【书生·浦语大模型实战营】- 合集

大模型微调学习之旅④ — XTuner 大模型单卡低成本微调实战。大模型微调学习之旅⑤ — LMDeploy 大模型量化部署实践。大模型微调学习之旅⑥ — OpenCompass 大模型评测。大模型微调学习之旅① — 书生·浦语大模型全链路开源体系。大模型微调学习之旅② — 浦语大模型趣味Demo。

2024-01-23 17:04:13 469 1

原创 大模型微调学习之旅⑥ — OpenCompass 大模型评测

OpenCompass采取客观评测与主观评测相结合的方法。针对具有确定性答案的能力维度和场景,通过构造丰富完善的评测集,对模型能力进行综合评价。针对体现模型能力的开放式或半开放式的问题、模型安全问题等,采用主客观相结合的评测方式。

2024-01-23 16:39:37 1381 1

原创 大模型微调学习之旅⑤ — LMDeploy 大模型量化部署实践

LMDeploy是 LLM在英伟达设备上部署的全流程解决方案。包括模型轻量化、推理和服务。项目地址这是 lmdeploy 吞吐量测试结果,已经超过一些常见框架。可以运行更大模型。不用怕设备性能不够,可以把 65B 或更大的模型,切分到多个 设备上运行。lmdeploy 不止实现了多 batch,更完成了 kv cache 量化,有效降低单用户成本。只要是 transformer 结构(InternLM/LLaMa/Vicuna),无论 HuggingFace 或 Meta 格式,都可以转成需要的 bin。

2024-01-21 18:26:08 2427 1

原创 大模型微调学习之旅④ — XTuner 大模型单卡低成本微调实战

图解:Alpaca 格式,斯坦福大学开源数据集的格式,也是社区开源项目使用较多的一种格式MOSS 格式,复旦大学开源指令微调数据集的格式,包含多轮对话和工具调用Gunacao 格式,QLoRA 项目中所使用数据集的格式OpenAI 格式,GPT-3.5-Turbo Finetune 接口要求的数据集格式。

2024-01-13 22:06:56 3951 1

原创 大模型微调学习之旅③ — 基于 InternLM 和 LangChain 搭建你的知识库

LangChain可以快速帮我们构建一个RAG应用① 什么是LangChainLangChain是一个开源框架,旨在帮助开发人员在应用程序中使用大型语言模型(LLM)。它允许用户围绕LLM快速构建应用程序和管道,并直接与OpenAI的ChatGPT模型以及Hugging Face集成。LangChain支持多种编程语言,包括Python和JavaScript,并提供了丰富的API和工具,以方便开发人员快速构建复杂的LLM应用程序。

2024-01-11 22:12:13 1720 1

原创 大模型微调学习之旅② — 浦语大模型趣味Demo

第二节课,理解和认识了internstudio平台的使用和模型的下载和部署,算是入门了!不得不夸一下群里的问题文档,我的报错全有对应的解决方法太赞了!!!!!群内问题解决文档下面是报错的内容和解决方案,大家可以点击链接看看,很有帮助的,可以节省很多时间!

2024-01-11 01:09:57 479 1

原创 大模型微调学习之旅① — 书生·浦语大模型全链路开源体系

当前的大模型进入了”百模大战“时代,截止到2023.10.8全球已经发布的大模型超200个,中美的数量占全球的九成。2023年大模型突然遍地开花,井喷式发展,尤其是后半年,几乎大部分科技公司、学术团体、研究机构、以及学生团队都在发布各自的大模型,大模型不在是”独家”,它的上手难度和成本在逐步的下降。而大模型的更进一步的发展,那就是开源,这样做会吸引大量的科技公司、学术团体、研究机构等去进行二创,一旦规模达到一定程度,那么就会形成生态。而[书生·浦语」大模型,它就是选择了开源这条路,把所有的内容都开源出来。

2024-01-09 23:03:06 1035

原创 conda安装GPU版本的pytorch【无脑教程】

②创建虚拟环境③进入虚拟环境④nvidia-smi查看gpu版本。

2023-12-30 19:50:47 957 1

原创 Zabbix最详细教程Ubuntu部署Zabbix6.0[图文]

1.1zabbix介绍1.2 zabbix的组成1.3为什么使用zabbixZabbix 是由 Alexei Vladishev 开发的一种网络监视、管理系统,基于 Server-Client 架构。可用于监视各种网络服务、服务器和网络机器等状态。使用各种 Database-end 如 MySQL, PostgreSQL, SQLite, Oracle 或 IBM DB2 储存资料。Server 端基于 C语言、Web 管理端 frontend 则是基于 PHP 所制作的。

2023-12-30 18:13:39 6104 17

原创 YOLOV8-ONNX接口预测(第五届计挑赛尝试onnx)

【代码】YOLOV8-ONNX接口预测。

2023-12-26 20:34:54 315 1

原创 传统的图像处理方法(HOG+SVM)

【代码】传统的图像处理方法(HOG+SVM)

2023-11-20 20:57:05 131 1

原创 ·有趣的以图搜图原理

汉明距离是衡量两个等长字符串之间的差异性的度量方式。在图像处理中,可以使用汉明距离来比较两个图像的相似程度。在上述代码中,哈希函数将图像转换为二进制序列,每个位代表一个像素的值。汉明距离是通过计算两个二进制序列中不同位的数量来衡量它们之间的差异程度。汉明距离的计算步骤如下:1. 对比两个二进制序列中对应位置的位,统计不同位的数量。2. 将不同位的数量除以总位数,得到差异程度的比例。这个比例越小,表示两个序列越相似;比例越大,表示两个序列越不相似。3. 最终得到的差异程度比例即为汉明距离。

2023-11-02 21:36:25 1493

原创 基于ResNet实现猫十二分类--附加UI界面(96%正确率)

如果想要实现这个优化好的ui界面,12类猫的简介及其特征的获取,需要接入文心一言的token。获取方法:飞浆星河社区个人中心-->访问令牌(100万次免费使用机会)

2023-10-20 17:35:06 1214 2

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除