- 博客(182)
- 资源 (3)
- 问答 (1)
- 收藏
- 关注
原创 milvus lite快速实践
Milvus Lite 是Milvus 的轻量级版本,Milvus 是一个开源向量数据库,通过向量嵌入和相似性搜索为人工智能应用提供支持,最典型的应用场景就是 RAG(Retrieval-Augmented Generation,检索增强生成),为 RAG 系统提供了强大的向量存储和检索能力。通过下面的实践,可以了解文本向量化与相似度匹配(语义匹配)的大概过程,了解RAG落地背后的机制。
2025-03-08 15:41:19
957
原创 开源向量数据库Milvus简介
Milvus 是一个开源的、高性能、高扩展性的向量数据库,专门用于处理和检索高维向量数据。它适用于相似性搜索(Approximate Nearest Neighbor Search,ANN),特别适合**AI、推荐系统、计算机视觉、自然语言处理(NLP)**等领域。Milvus 由 Zilliz 开发,并已捐赠给 LF AI & Data 基金会。向量是神经网络模型的输出数据格式,可以有效地对信息进行编码,在知识库、语义搜索、检索增强生成(RAG)等人工智能应用中发挥着举足轻重的作用。
2025-03-01 18:55:55
1239
原创 etcd部署硬件资源推荐
原文:https://etcd.io/docs/v3.5/op-guide/hardware/etcd 通常在开发或测试环境中运行良好,即使资源有限;在笔记本电脑或廉价云服务器上开发时,使用 etcd 也很常见。然而,在生产环境中运行 etcd 集群时,遵循一些硬件指南对于正确的管理非常有用。这些建议并非硬性规定;它们为稳健的生产部署提供了良好的起点。正如以往一样,在投入生产之前,应使用模拟工作负载对部署进行测试。
2025-02-28 20:33:01
692
原创 6. 基础关卡-OpenCompass 评测书生大模型实践
有了模型和硬件后,你需要在评测配置文件中指定模型路径和相关参数,然后评测框架就会自动加载模型并开始评测。这种评测方式虽然前期准备工作相对繁琐,需要考虑硬件资源,但好处是评测过程完全在本地完成,不依赖网络状态,而且你可以更灵活地调整模型参数,深入了解模型的性能表现。我们接下以评测InternLM2.5-1.8B-Chat在C-Eval数据集上的性能为例,介绍如何评测本地模型。本节课程聚焦于大语言模型的评测,在后续的课程中我们将介绍多模态大模型的评测方法。这样我们指定了评测的模型和数据集,然后运行。
2025-01-20 14:05:07
976
原创 6. 进阶关卡-MindSearch深度解析实践
部署MindSearch到 hugging face Spaces上。MindSearch 是一个开源的 AI 搜索引擎框架,具有与 Perplexity.ai Pro 相同的性能。
2025-01-18 10:29:20
634
原创 4. 进阶关卡-InternVL多模态模型部署微调实践
它包含了大量关于食物的图片和问题,帮助多模态大模型更好地理解不同地区的饮食习惯和文化特色。这个数据集的推出,让我们能够更深入地探索和理解食物背后的文化意义。文件中,MODEL_PATH处传入InternVL2-2B的路径,如果使用的是InternStudio的开发机则无需修改,否则改为模型路径。需要修改为对应的想要转的checkpoint。,根据获取方式的不同,可能需要修改配置文件中的。为转换后的模型checkpoint保存的路径。查看微调后的效果,是否有食物识别错误的现象。
2025-01-17 16:07:56
1121
原创 3. 进阶关卡-LMDeploy 量化部署进阶实践
我们要运行参数量为7B的InternLM2.5,由InternLM2.5的码仓查询的文件可知,该模型的权重被存储为bfloat16格式。对于一个7B(70亿)参数的模型,每个参数使用16位浮点数(等于 2个 Byte)表示,则模型的权重大小约为:70亿个参数×每个参数占用2个字节=14GB所以我们,选择 30%A100*1(24GB显存容量),后选择立即创建,等状态栏变成运行中,点击进入开发机,我们即可开始部署。
2025-01-17 15:53:00
770
原创 1. 进阶关卡-探索书生大模型能力边界
InternThinker 是一个强推理模型,具备长思维能力,并能在推理过程中进行自我反思和纠正,从而在数学、代码、推理谜题等多种复杂推理任务上取得更优结果。相应的,模型生成回复的时间也会变长,本节课我们将来一起探索一下 InternThinker 的能力边界。
2025-01-17 14:56:12
252
原创 5. 基础关卡-Xtuner微调个人小助手认知任务
使用XTuner微调InternLM2-Chat-7B实现自己的小助手认知,如下图所示(图中的尖米需替换成自己的昵称),记录复现过程并截图。
2025-01-17 14:49:28
793
原创 3. 基础关卡-浦语提示词工程实践
将不使用系统提示的书生浦语大模型作为 baseline 对比,提交的系统提示词要指导LLM表现出比baseline更高的性能,提供对比截图并加以分析说明即可。以撰写年度财务报告为目标,分别展示是否使用系统提示词的效果差异。任选下面其中1个任务基于LangGPT格式编写提示词 (
2025-01-17 14:31:20
398
原创 2. 基础关卡-玩转书生「多模态对话」和「AI搜索」产品
它会对你提出的问题进行分析并拆解为数个子问题,在数百个网页中搜索、总结各个子问题的答案,并给出完整的搜索关键词、思考路径、参考网页等中间过程,从而提供广泛、深度、高可信度的最终答案。此智能体为 MindSearch 的官方实现,具有与 Perplexity.ai Pro 相当的性能。请以 MindSearch 的回复作为参考 (推荐) 或者直接粘贴 MindSearch 的回复内容在知乎上回答 3 个问题的任意一个。**prompt:**目前生成式AI在学术和工业界有什么最新进展?
2025-01-17 12:25:52
714
原创 1. 基础关卡-书生大模型全链路开源体系
学习观看、结合写一篇关于书生大模型全链路开源开放体系的笔记发布到知乎、优快云等任一社交媒体,将作业链接提交到以下问卷,助教老师批改后将获得 100 算力点奖励!!!
2025-01-17 11:45:08
187
原创 极简容器云WeKube快速体验
WeKube 是一个基于 Kubernetes 构建的极简,它提供了一个简单直观的方式来部署、管理和监控。WeKube 的目标是让用户无需关心底层基础设施的具体细节,而是将注意力集中在应用本身及其业务逻辑上。
2024-12-26 22:40:16
1159
原创 Kubernetes备份恢复方案Velero快速实践
Velero是go语言开发的,用于提供备份和恢复 Kubernetes 集群资源和持久卷的开源工具,可在公有云平台或本地环境中运行 Velero。
2024-12-05 18:58:32
1182
原创 docker镜像多阶段构建
多阶段构建(multi-stage builds)是 Docker 的一个功能,用于简化 Docker 镜像的构建过程并减小镜像体积。它允许你在一个 Dockerfile 中定义多个构建阶段,只将最终的产物复制到最后的镜像中,从而避免不必要的文件和依赖被包含在最终镜像中。下面是一个简单的多阶段构建示例,演示如何构建一个 Go 应用程序。
2024-12-02 18:44:36
445
原创 书生大模型实战营第四期-入门岛-4. maas课程任务
使用Hugging Face平台、魔搭社区平台(可选)和魔乐社区平台(可选)下载文档中提到的模型(至少需要下载config.json文件、model.safetensors.index.json文件),请在必要的步骤以及结果当中截图。
2024-11-26 18:14:37
931
原创 书生大模型实战营第四期-入门岛-3. Git关卡任务
每位参与者提交一份自我介绍。的 class 分支~命名格式为 .md,其中 是您的报名问卷UID。文件路径应为 ./icamp4/。【大家可以叫我】内容可以是 GitHub 昵称、微信昵称或其他网名。在 GitHub 上创建一个 Pull Request,提供对应的 PR 链接。
2024-11-26 14:27:37
394
原创 KubeSphere内网环境实践GO项目流水线
kubesphere官方给出的流水线都是在公网环境下,并对接github、dockerhub等环境。本文在内网实践部署,代码库使用内网部署的gitlab,镜像仓库使用harbor。
2024-11-23 20:38:38
1045
原创 KubeSphere内网环境实践Maven项目流水线
kubesphere官方给出的流水线都是在公网环境下,并对接github、dockerhub等环境。本文在内网实践部署,代码库使用内网部署的gitlab,镜像仓库使用harbor。
2024-11-23 20:26:52
1269
原创 Linux非LVM磁盘分区及文件系统在线扩容
本文主要针对已经格式化并在使用的分区和文件系统进行扩容,对于新建分区并格式化使用,本文不做介绍。这里的在线扩容指的是磁盘分区不需要umount,可以不影响业务进行在线扩容,适用于系统盘和数据盘在非LVM管理下的在线扩容场景。
2024-11-21 20:29:44
627
原创 KubeVirt下gpu operator实践(GPU直通)
参考《在 KubeVirt 中使用 GPU Operator》,记录gpu operator在KubeVirt下实践的过程,包括虚拟机配置GPU直通,容器挂载GPU设备等。KubeVirt 提供了一种将主机设备分配给虚拟机的机制。该机制具有通用性,支持分配各种类型的 PCI 设备,例如加速器(包括 GPU)或其他连接到 PCI 总线的设备。
2024-11-21 20:10:15
1092
原创 nvidia gpu operator安装、升级及卸载
在使用Helm chart时,可以通过以下选项自定义设置。这些选项可在安装时通过--set进行指定。下表列出了最常用的选项。如果您希望使用自定义的驱动容器镜像(例如版本 465.27),可以按照以下步骤构建自定义的驱动容器镜像:通过在构建 Docker 镜像时指定参数来重建驱动容器。有关参考信息,驱动容器的 Dockerfile 可在Git 仓库中找到。使用适当的 Dockerfile 构建容器。请确保驱动容器的标签符合的格式,例如。在 Helm 安装命令中通过覆盖默认值来指定新的驱动镜像和镜像库。
2024-11-20 20:34:16
1501
原创 开源虚拟化解决方案PVE
*Proxmox Virtual Environment(简称PVE)**是一款基于 QEMU/KVM 和 LXC 的开源服务器虚拟化管理解决方案。您可以通过集成的易用 Web 界面或 CLI(命令行界面)管理虚拟机、容器、高可用集群、存储和网络。Proxmox VE 的代码采用 GNU Affero 通用公共许可证第 3 版(GNU AGPLv3)许可。该项目由 Proxmox Server Solutions GmbH 开发和维护。有关 Proxmox VE 主要功能的概述,请参阅。
2024-11-16 14:45:42
1508
原创 在 KubeVirt 中使用 GPU Operator
KubeVirt 是 Kubernetes 的一个虚拟机管理插件,允许您在 Kubernetes 集群中运行和管理虚拟机。它消除了为虚拟机和容器工作负载管理独立集群的需求,二者现在可以在单一 Kubernetes 集群中共存。在此之前,GPU Operator 仅支持为运行 GPU 加速的容器配置工作节点。现在,GPU Operator 也可以用于为运行 GPU 加速的虚拟机配置工作节点。运行带有 GPU 的容器和虚拟机所需的前提条件不同,主要区别在于所需的驱动程序。
2024-11-13 17:06:43
1304
原创 KubeVirt入门介绍
KubeVirt 技术满足了那些已经或希望采用 Kubernetes 的开发团队的需求,这些团队拥有现有的基于虚拟机的工作负载,但这些工作负载无法轻易地容器化。更具体地说,KubeVirt 提供了一个统一的开发平台,让开发人员可以在一个通用的共享环境中构建、修改和部署基于应用容器和虚拟机的应用程序。其优势广泛而显著。对于依赖现有虚拟机工作负载的团队,KubeVirt 使他们能够快速将应用程序容器化。
2024-11-11 23:09:21
1063
原创 云原生安全解决方案NeuVector 5.X部署实践
使用 Kubernetes 来部署单独的管理器、控制器和执行器容器,并确保所有新节点都部署了执行器。NeuVector 需要并支持 Kubernetes 网络插件,例如 flannel、weave 或 calico。示例文件将部署一个管理器和三个控制器。它将作为 DaemonSet 在每个节点上部署一个执行器。默认情况下,以下示例也会部署到 Master 节点。有关使用节点标签指定专用的管理器或控制器节点的信息,请参见底部部分。由于潜在的会话状态问题,不建议在负载均衡器后面部署(扩展)多个管理器。
2024-11-09 09:29:58
1309
原创 书生大模型实战营第四期-入门岛-1. Linux前置基础
闯关任务Conda 是一个开源的包管理和环境管理系统,可在 Windows、macOS 和 Linux 上运行,用于安装、运行和更新软件包及其依赖项。使用 Conda可以轻松在本地计算机上创建、保存、加载和切换不同的环境。在开发机中已经安装了conda,我们可以直接使用,而且开发机中也有内置的conda命令,下面我们会介绍conda的基本使用,还有的使用方法以及介绍一下是怎么实现的。conda设置conda环境管理conda和pipstudio-conda使用与Shell(扩展)
2024-11-07 19:52:56
810
原创 基于Docker搭建Maven私服仓库
Maven支持二进制,容器,helm cart、operator等方式安装运行。本文记录使用docker在内网搭建maven私服仓库。
2024-11-03 22:51:50
1585
原创 Python自省机制
Python 自省(Introspection)是一种动态检查对象的能力,使得开发者可以在运行时获取对象的相关信息,比如属性、方法、类型等。自省机制让 Python 具备了更强的动态性和灵活性,便于调试和开发。自省,在我们日常生活中,通常是自我反省的意思。但在计算机编程中,自省并不是这个意思,表示的是自我检查的行为或能力。它的内容包括:告诉别人,我是谁告诉别人,我能做什么。
2024-10-26 21:39:56
435
原创 使用Poste搭建内网邮件服务器
Poste.io 是一个功能全面、易于安装的邮件服务器解决方案,完全容器化,可以通过 Docker 直接部署。提供SMTP + IMAP + POP3 + 防垃圾邮件 + 防病毒 + 网页管理 + 网页邮件等功能,同时集成 Let’s Encrypt,可以自动管理和更新 SSL 证书。Poste.io 提供免费版本,支持大多数功能,但如果需要企业级支持和一些高级功能,需要购买商业版本。在下载镜像到本地后,可以实现分钟级的邮件服务器部署。
2024-10-26 21:39:12
14212
原创 基于Docker搭建Gitlab代码仓库
gitlab容器默认的http端口为80,https端口为443。如果要使用不同的端口,docker run命令映射端口时需要注意。例如,要在主机的端口8929上公开 Web 界面,并在端口2289使用以下docker run命令:发布端口的格式是。在 Docker 的文档中阅读有关公开传入端口的更多信息。进入正在运行的容器:用编辑器打开并设置。
2024-10-23 21:48:45
1443
原创 SonarQube快速实践
支持从 ZIP 文件或 Docker 镜像创建单节点 的SonarQube 实例。有关 Kubernetes 安装,请参阅《在 Kubernetes 上部署 SonarQube》。有关集群设置(数据中心版本)的详细信息,请参阅《将服务器安装为集群》。安装SonarQube 数据库。安装 SonarQube 服务器并执行基本设置。可以选择从ZIP 文件或Docker 镜像安装服务器。如有必要,执行高级设置。
2024-10-22 21:46:08
1460
原创 perf工具使用指导
perf是 Linux 内核自带的性能分析工具,主要用于分析系统性能瓶颈和程序的性能问题。通过合理使用perf工具,可以有效地分析和优化系统性能。
2024-10-17 20:34:43
624
SysinternalsSuite
2020-08-15
KVM虚拟化学习资料,pdf文件,2本
2017-08-20
c程序转换为java程序,最好用图形界面实现
2014-11-02
TA创建的收藏夹 TA关注的收藏夹
TA关注的人