自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(250)
  • 收藏
  • 关注

原创 LoRA 微调实战:手把手教你打造专属领域 AI(附代码)

LoRA(低秩适应)是一种高效微调大模型的方法,通过训练少量增量参数(低秩矩阵)而不改变基座模型的大部分权重,显著减少计算资源需求。本文详解了LoRA的原理与实战流程,包括模型加载、参数配置、最优参数搜索、训练评估及权重合并等步骤。相比传统全参数微调,LoRA在保持效果的同时降低了显存占用和训练成本。文章还提供了代码示例和评估指标(如PPL、BLEU等),并对比了手写代码与LLaMAFactory工具的异同。最后建议结合多适配器或量化技术进一步优化。

2025-08-11 23:42:45 1070

原创 工作效率提升:github常用命令总结

Git协作开发实战指南 本文提供完整的Git工作流程指南,包含初始化仓库、分支管理和团队协作规范。核心内容包括: 初始化项目:git init、.gitignore配置、首次推送命令速查表 分支策略:推荐使用feature/xxx命名功能分支,保持main分支纯净 协作流程:克隆→创建分支→开发→推送→发起MR→代码评审→合并 常用命令:状态查看、分支操作、冲突解决等实用命令速查 最佳实践:清晰的MR描述、定期同步主干、保护主分支等团队协作建议 附带完整的命令示例表,帮助开发者快速掌握Git团队协作规范,实

2025-07-29 11:55:53 662

原创 Coze应用实战:Coze Studio 一键部署指南

《Coze Studio本地化部署实战指南》详细介绍了从环境准备到服务验证的全流程操作。文章重点包括:1)硬件要求(2核CPU/4GB内存)和Docker环境配置;2)通过Git获取源码的两种方式;3)关键模型配置步骤,特别是火山方舟API Key和Endpoint ID的获取方法;4)部署启动及日志监控要点。特别针对常见报错提供了解决方案(Elasticsearch容器健康检查失败的CRLF格式问题处理)。部署完成后,用户可通过localhost:8888访问本地版Coze Studio,其基础功能与在线

2025-07-28 22:23:18 1257

原创 Windows 11 家庭版 Docker 完整部署指南

Windows 11家庭版Docker部署指南 本指南详细介绍了在Windows 11家庭版上完整部署Docker的6大步骤: 系统准备:BIOS启用虚拟化,通过脚本安装Hyper-V 核心组件:配置WSL 2并安装Ubuntu发行版 Docker安装:下载Docker Desktop并完成基础配置 存储优化:迁移Docker数据防止C盘爆满 网络加速:配置国内镜像源和代理设置 验证测试:检查各组件运行状态 关键问题解决方案: Hyper-V安装失败时,直接执行DISM命令启用功能 存储路径优化通过WSL导

2025-07-28 10:49:49 1159

原创 Coze应用实战:0 代码搭建微信智能互动助手

📢 实战指南:如何用扣子(Coze)快速搭建微信公众号智能客服? 1️⃣ 准备工作:需拥有正常状态的微信公众号并获取开发者ID(AppID)。 2️⃣ 智能体搭建: 在扣子平台创建智能体,设置客服人设与回复风格 添加插件(如图片理解/联网搜索)和工作流(如文章信息抓取) 调试问答效果,优化交互体验 3️⃣ 一键发布:通过授权绑定微信公众号,实现智能客服快速部署 4️⃣ 功能展示:支持智能问答、文章推荐、问题解答等场景 💡 适用场景:电商咨询、教育答疑、内容推荐等。完整教程含技术细节可访问优快云博客查看

2025-07-22 00:33:09 861

原创 在云端 JupyterLab 一键打包下载根目录文件的实用脚本

📦 一键打包JupyterLab工作目录的Python脚本 本文介绍了一个简洁高效的Python脚本解决方案,通过zipfile模块自动打包JupyterLab根目录下的所有文件和子目录,解决手动下载多文件时的繁琐操作。核心代码仅20行,支持保持原始目录结构,并可扩展排除特定文件、动态命名等功能。 使用步骤: 将脚本保存为pack_all.py 运行后生成all_files.zip 右键下载即可获取完整项目 适合需要频繁下载云端项目的开发者,显著提升工作效率。关注"AGI启程号"公众号

2025-07-05 15:56:30 1112

原创 大模型学习应用 10: 将静态 HTML 项目部署到 Vercel

📌 大模型实战开发指南:静态HTML部署Vercel全攻略 本文详解如何将静态HTML项目快速部署至Vercel并绑定自定义域名: 1️⃣ 准备 GitHub与Vercel账号,配置本地Git环境; 2️⃣ 推送项目 至GitHub仓库; 3️⃣ 部署选项 提供两种方式(控制台/CLI),自动生成.vercel.app访问链接; 4️⃣ 域名绑定 分步指导DNS记录配置(A/CNAME),自动启用HTTPS; 5️⃣ 成果示例 附实战项目链接与效果图。 🔗 资源获取:关注公众号「AGI启程号」或访问CS

2025-06-19 23:59:40 1058

原创 大模型学习应用 9: 阿里云ECS部署「微信草稿箱 FastAPI 服务」全流程技术文档

《FastAPI服务从ECS部署到域名优化的全流程指南》摘要:本文详细介绍了在阿里云ECS上部署FastAPI服务的完整流程,包括选择Ubuntu 22.04镜像创建实例、配置网络与安全组、通过网页SSH连接环境,安装Python3和Miniconda创建虚拟环境,上传项目并启动FastAPI服务(开发模式使用Uvicorn,生产模式使用Gunicorn)。最后配置Nginx反向代理,绑定域名解析到EIP,并提供了HTTPS配置建议和多服务扩展方案。全文从基础搭建到生产优化,帮助开发者实现高性能Web应用的

2025-06-19 00:58:49 1205

原创 大模型学习应用 8: Ubuntu 服务器部署(内网)「微信草稿箱 FastAPI 服务」全流程技术文档

本文详细介绍了在Ubuntu服务器上部署微信草稿箱FastAPI服务的全流程技术方案。内容涵盖前置环境检查、代码拉取、环境配置、本地验证、生产级进程托管(systemd)、Nginx反向代理设置,以及外网访问的局限性和临时解决方案(Ngrok穿透)。服务部署在内网环境,如需外网访问需配置端口转发或使用云服务方案。文档提供了完整的操作命令和配置示例,包括环境变量管理、Nginx站点设置和故障排查要点,适合开发者快速实现API服务的本地化部署与调试。

2025-06-14 23:36:10 652

原创 Linux: 命令总结

🚀大模型落地开发实战指南!深入浅出,助你轻松入门!📚 数据分析、深度学习、大模型与算法的综合进阶,尽在优快云。

2025-06-12 14:36:48 453

原创 总结常用 tmux 命令(常用)

启动jupyter 服务不要直接用jupyter server命令,使用jupyter notebook 或者jupyter lab就可以。就可以正常连接了,再按 同时按 Ctrl+B 放开后 再按D 就能后台保持,浏览器就能正常连接了。如果输出一串类似 /tmp/tmux-1000/default,1234,0 的内容,就说明你正被一个 tmux server 管理(也就是在会话里)。📚 数据分析、深度学习、大模型与算法的综合进阶,尽在优快云。如果什么都没输出(空行),说明你不在 tmux 会话中。

2025-06-12 11:30:53 516

原创 大模型学习应用 7: 基于LlamaIndex 的三种RAG实现方式

本文介绍了三种RAG(检索增强生成)实现方式,帮助开发者根据需求灵活选择。首先,默认RAG使用LlamaIndex的VectorStoreIndex结合OpenAI嵌入模型快速上手;其次,混合RAG在问答环节调用DeepSeek-Chat,向量化仍用OpenAI嵌入,实现性能优化;最后,全本地RAG使用DeepSeek问答和本地Hugging Face嵌入,实现纯本地化部署。此外,文章还简要探讨了其他可选方案,如全本地LLM、向量数据库升级及多模型混合等优化思路。通过逐步剖析和代码示例,开发者可根据资源与业

2025-06-11 21:58:32 1079

原创 大模型学习应用 6: Vercel 部署 自动获取微信公众号文章获取 项目

本文详细介绍了如何在Vercel平台部署基于FastAPI的微信公众号草稿箱文章获取项目。项目通过微信开发者API实现,主要功能包括: 获取并缓存access_token 分页查询草稿箱文章 返回文章标题、链接、摘要等关键信息 🔧 部署步骤: 克隆GitHub仓库代码 在Vercel控制台配置APPID和APPSecret环境变量 完成自动化部署 ⚠️ 注意事项: 需将Vercel服务器IP加入微信白名单 免费版仅适合测试

2025-06-11 17:45:21 825

原创 大模型学习应用 5: Vercel 部署 Python FastAPI 项目完整指南

本文详细介绍了在Vercel平台部署Python FastAPI项目的完整流程,包括项目结构配置、核心代码实现、GitHub部署准备、Vercel部署步骤以及常见问题解决方案。重点演示了如何配置vercel.json路由、FastAPI应用开发技巧和避免Mangum适配器导致的错误。通过提供健康检查、应用信息等多个API端点示例,帮助开发者快速验证部署可行性。文章还包含本地测试方法和版本依赖管理建议,为后续更复杂的服务部署奠定基础。

2025-06-11 09:44:40 1421

原创 ChatGPTNextChat项目重构计划(九):NextChat 解析API路由处理逻辑 stream.ts

此文件的主要作用是在Tauri环境中,封装一个自定义的流式网络请求函数fetch,替代浏览器原生的fetch函数,以实现通过Tauri后端与外部API交互。在Tauri环境中使用后端的命令发起HTTP请求。监听Tauri后端返回的流式事件()逐步接收数据块。将接收到的数据流封装成浏览器标准的Response对象。在非Tauri环境中回退到原生fetch函数。id: number;: number;chunk?: number[];

2025-05-20 18:02:35 1061

原创 ChatGPTNextChat项目重构计划(八):NextChat 解析API路由处理逻辑 chat.ts

图片压缩和处理预处理包含图片的消息图片上传和缓存处理实现流式响应(逐步返回模型生成结果),并处理模型调用函数(Tools)以及思考(think)模式显示。图片处理(压缩、缓存、上传)流式响应实现(动态展示模型结果)工具调用(function calling)处理模型“思考模式”特殊处理逻辑通过以上详细解析,可以帮助大家深入掌握 NextChat 客户端与服务端流式交互与数据处理的具体实现细节!

2025-05-20 17:54:28 731

原创 ChatGPTNextChat项目重构计划(七):NextChat 解析API路由处理逻辑 common.ts

请求代理函数接收 HTTP 请求(Next.js判断请求类型(OpenAI 或 Azure 等)构造转发请求的 URL 与头信息对特定模型进行访问控制发送请求至 OpenAI 或其他服务商处理响应(如移除敏感头信息)返回响应给客户端请求 → 判断服务(Azure/OpenAI) → 验证模型权限 →构造转发请求 → 发起请求 → 处理响应 → 返回客户端以上详细解析帮助大家彻底理解 NextChat 项目的核心请求转发机制。

2025-05-19 14:56:10 1069

原创 ChatGPTNextChat项目重构计划(六):NextChat 解析API路由处理逻辑 auth.ts

在 NextChat 项目中,auth.ts用于实现对 API 请求的身份认证,验证请求者是否合法:获取并解析请求中的鉴权信息(如 Access Code 或 API Key)。检查服务器端配置(例如是否需要 Access Code,是否允许用户使用自己的 API Key)。验证鉴权信息有效性(如检查 Access Code 是否匹配)。根据情况为请求注入系统预设的 API Key。!apiKey) {return {若服务器配置了禁止用户自带 API Key (

2025-05-19 14:48:11 1072

原创 ChatGPTNextChat项目重构计划(五):NextChat 解析API路由处理逻辑 openai.ts

当请求进入 NextChat 项目的 OpenAI 接口时(例如...接收 HTTP 请求(req验证请求方法(如OPTIONS请求特殊处理)。检查请求路径(是否允许调用的 OpenAI API 子路径)。进行权限认证(调用auth()将请求转发给 OpenAI(调用特殊处理(例如,列出模型时进行额外过滤)。返回响应。HTTP请求进入│├── OPTIONS请求?──→ 直接返回OK│├── 路径合法性检查 ──不合法→ 403 Forbidden│。

2025-05-16 17:02:41 701

原创 ChatGPTNextChat项目重构计划(四):NextChat 解析API路由处理逻辑 route.ts

NextChat 项目使用Next.js动态路由捕获API请求,根据提供商(provider)不同,将请求分发到专门的处理器(handler)进行处理。无论请求GET或POST,统一处理并返回。未识别的请求默认走代理handler(这是一种清晰的多提供商支持设计模式,方便扩展和维护。

2025-05-16 16:48:38 927

原创 ChatGPTNextChat项目重构计划(三):NextChat API 文档测试总结

请求方法: POST请求格式:{{"role": "system", "content": "你是一个助手"},{"role": "user", "content": "你好"}],响应格式流式响应(stream=true):data: {"id":"chatcmpl-xxx","object":"chat.completion.chunk","choices":[{"delta":{"content":"你好"},"index":0}]}...非流式响应。

2025-05-15 14:23:44 1209

原创 ChatGPTNextChat项目重构计划(二):深入分析NextChat API交互

HeadersPayloadResponse都在 Network 面板的单条请求详情里。你可以对比官方文档,确认参数和返回格式是否符合预期。如果有异常,可以截图这些内容,便于排查问题。

2025-05-15 14:20:24 752

原创 ChatGPTNextChat项目重构计划(一):建立开发环境

🚀大模型落地开发实战指南!深入浅出,助你轻松入门!📚 数据分析、深度学习、大模型与算法的综合进阶,尽在优快云。

2025-05-14 15:11:33 677

原创 ChatGPTNextChat项目运行跑通

《大模型落地开发实战指南》提供了详细的步骤,帮助开发者轻松入门大模型开发。首先,使用Conda创建一个名为nextchat的虚拟环境,并安装Node.js和Yarn。接着,克隆NextChat项目到本地,安装项目依赖,并配置必要的环境变量。最后,通过运行开发服务器或构建生产版本来启动项目。使用Conda的好处在于它提供了一个独立的Node.js环境,避免依赖冲突,并方便管理不同版本的Node.js。更多详细内容可关注微信公众号「AGI启程号」或访问优快云博客主页。

2025-05-14 10:49:55 937

原创 工作效率提升:SSH 公钥并把它添加到 GitHub

🚀大模型落地开发实战指南!深入浅出,助你轻松入门!📚 数据分析、深度学习、大模型与算法的综合进阶,尽在优快云。

2025-05-13 14:54:15 975

原创 深度学习每周学习总结Y2(Yolov5 使用自己的数据集进行训练 )

本期我们使用自己的数据进行训练,训练过程中遇到种种问题,但都有解决,现在已经可以正常跑起来了,值得注意的一点是,由于是新建的虚拟环境,cuda似乎没有利用起来,后续需要再研究一下。YOLO(You Only Look Once)是一种非常流行的目标检测算法,用于从图像或视频中实时识别物体。与传统的目标检测方法不同,YOLO将目标检测任务转化为回归问题,在一个单独的神经网络中同时完成物体的定位和分类。因此,YOLO的主要特点是高效、实时,并且能够处理复杂的场景。图像分割:将输入图像分为多个网格。

2025-02-28 11:29:36 1073

原创 深度学习每周学习总结Y1(Yolov5 调用官方权重进行检测 )

YOLO(You Only Look Once)是一种非常流行的目标检测算法,用于从图像或视频中实时识别物体。与传统的目标检测方法不同,YOLO将目标检测任务转化为回归问题,在一个单独的神经网络中同时完成物体的定位和分类。因此,YOLO的主要特点是高效、实时,并且能够处理复杂的场景。图像分割:将输入图像分为多个网格。边界框预测:每个网格预测一定数量的边界框,每个边界框包含物体的坐标、宽高以及该物体的类别概率。目标分类与置信度。

2025-02-21 02:36:20 1065

原创 深度学习每周学习总结R6(RNN实现阿尔茨海默病诊断)

数据导入及处理部分:在 PyTorch 中,我们通常先将 NumPy 数组转换为 torch.Tensor,再封装到 TensorDataset 或自定义的 Dataset 里,然后用 DataLoader 按批次加载。模型构建部分:RNN设置超参数:在这之前需要定义损失函数,学习率(动态学习率),以及根据学习率定义优化器(例如SGD随机梯度下降),用来在训练中更新参数,最小化损失函数。定义训练函数:函数的传入的参数有四个,分别是设置好的DataLoader(),定义好的模型,损失函数,优化器。

2025-02-11 23:35:29 1538

原创 深度学习每周学习总结R5(LSTM-实现糖尿病探索与预测-模型优化)

数据导入及处理部分:在 PyTorch 中,我们通常先将 NumPy 数组转换为 torch.Tensor,再封装到 TensorDataset 或自定义的 Dataset 里,然后用 DataLoader 按批次加载。模型构建部分:LSTM设置超参数:在这之前需要定义损失函数,学习率(动态学习率),以及根据学习率定义优化器(例如SGD随机梯度下降),用来在训练中更新参数,最小化损失函数。定义训练函数:函数的传入的参数有四个,分别是设置好的DataLoader(),定义好的模型,损失函数,优化器。

2025-01-24 21:44:32 1356

原创 深度学习每周学习总结R4(LSTM-实现糖尿病探索与预测)

数据导入及处理部分:在 PyTorch 中,我们通常先将 NumPy 数组转换为 torch.Tensor,再封装到 TensorDataset 或自定义的 Dataset 里,然后用 DataLoader 按批次加载。模型构建部分:LSTM设置超参数:在这之前需要定义损失函数,学习率(动态学习率),以及根据学习率定义优化器(例如SGD随机梯度下降),用来在训练中更新参数,最小化损失函数。定义训练函数:函数的传入的参数有四个,分别是设置好的DataLoader(),定义好的模型,损失函数,优化器。

2025-01-13 09:33:35 1344

原创 工作效率提升:使用Anaconda Prompt 创建虚拟环境总结

通过上述步骤,可以在D盘创建并使用 Conda 虚拟环境,同时确保 Jupyter Notebook 能够正确调用该环境中的 Python 解释器。这样做不仅避免了修改系统环境变量的问题,还能更好地管理和组织您的开发环境。如果在操作过程中遇到任何问题,请随时提供详细信息,我将进一步协助您解决。

2025-01-10 16:59:42 1193

原创 深度学习每周学习总结R3(LSTM-火灾温度预测)

数据导入及处理部分:在 PyTorch 中,我们通常先将 NumPy 数组转换为 torch.Tensor,再封装到 TensorDataset 或自定义的 Dataset 里,然后用 DataLoader 按批次加载。模型构建部分:LSTM设置超参数:在这之前需要定义损失函数,学习率(动态学习率),以及根据学习率定义优化器(例如SGD随机梯度下降),用来在训练中更新参数,最小化损失函数。定义训练函数:函数的传入的参数有四个,分别是设置好的DataLoader(),定义好的模型,损失函数,优化器。

2025-01-09 10:54:52 1034

原创 个人网站建设记录(持续更新中)

首先是购买域名,然后再逐步开发测试个人网站 ,建立一个空白网站,逐步添加功能,比如做一个根据上传文件进行RAG+大模型问答的服务。

2024-12-31 17:45:04 378

原创 深度学习每周学习总结R2(RNN-天气预测)

数据导入及处理部分:在 PyTorch 中,我们通常先将 NumPy 数组转换为 torch.Tensor,再封装到 TensorDataset 或自定义的 Dataset 里,然后用 DataLoader 按批次加载。模型构建部分:RNN设置超参数:在这之前需要定义损失函数,学习率(动态学习率),以及根据学习率定义优化器(例如SGD随机梯度下降),用来在训练中更新参数,最小化损失函数。定义训练函数:函数的传入的参数有四个,分别是设置好的DataLoader(),定义好的模型,损失函数,优化器。

2024-12-31 14:28:01 1453

原创 深度学习每周学习总结R1(RNN-心脏病预测)

数据导入及处理部分:在 PyTorch 中,我们通常先将 NumPy 数组转换为 torch.Tensor,再封装到 TensorDataset 或自定义的 Dataset 里,然后用 DataLoader 按批次加载。模型构建部分:RNN设置超参数:在这之前需要定义损失函数,学习率(动态学习率),以及根据学习率定义优化器(例如SGD随机梯度下降),用来在训练中更新参数,最小化损失函数。定义训练函数:函数的传入的参数有四个,分别是设置好的DataLoader(),定义好的模型,损失函数,优化器。

2024-12-27 00:59:02 1252

原创 深度学习每周学习总结J9(Inception V3 算法实战与解析 - 天气识别)

数据导入及处理部分:本次数据导入没有使用torchvision自带的数据集,需要将原始数据进行处理包括数据导入,查看数据分类情况,定义transforms,进行数据类型转换等操作。划分数据集:划定训练集测试集后,再使用torch.utils.data中的DataLoader()分别加载上一步处理好的训练及测试数据,查看批处理维度.模型构建部分:Inception V3。

2024-12-19 21:58:49 831

原创 大模型学习应用 4: 搭建openai代@理(Vercel)

有意义的场景优化访问速度如果你所在的地区访问 OpenAI 的 API 存在网络延迟或不稳定的问题,搭建代@理可以通过更优的网络路径提升访问速度和稳定性。简化 API 调用通过代理,你可以对 OpenAI 的 API 请求进行统一管理,比如添加默认参数、日志记录或限流机制,简化前端调用逻辑。隐藏 API Key部署代@理可以保护你的 OpenAI API Key,避免直接暴露在客户端(如前端应用),减少被滥用的风险。功能扩展。

2024-12-06 15:56:35 824

原创 深度学习每周学习总结J8(Inception V1 算法实战与解析 - 猴痘识别)

数据导入及处理部分:本次数据导入没有使用torchvision自带的数据集,需要将原始数据进行处理包括数据导入,查看数据分类情况,定义transforms,进行数据类型转换等操作。划分数据集:划定训练集测试集后,再使用torch.utils.data中的DataLoader()分别加载上一步处理好的训练及测试数据,查看批处理维度.模型构建部分:Inception V1。

2024-12-06 09:52:22 1231

原创 深度学习每周学习总结J7(对ResNeXt-50 算法的思考)

当时,代码中未对通道数进行显式对齐,存在潜在问题。如果通道数确实一致,可能是前面的代码已经对输入通道数做了隐式约束。最好在代码中显式处理通道对齐问题,确保逻辑自洽,避免因意外输入导致错误。在else:如果shortcut使用一个 1x1 卷积升维(或降维)来使通道数从变为。如果shortcut是,即直接复制输入数据,不会对输入张量的通道数进行任何修改。这意味着当时,shortcut的通道数与输入x的通道数是完全相同的。TensorFlow 版本存在潜在问题:未显式保证残差连接中。

2024-11-29 11:08:31 1264

原创 深度学习每周学习总结J6(ResNeXt-50 算法实战与解析 - 猴痘识别)

数据导入及处理部分:本次数据导入没有使用torchvision自带的数据集,需要将原始数据进行处理包括数据导入,查看数据分类情况,定义transforms,进行数据类型转换等操作。划分数据集:划定训练集测试集后,再使用torch.utils.data中的DataLoader()分别加载上一步处理好的训练及测试数据,查看批处理维度.模型构建部分:DenseNet-121 + SE模块。

2024-11-22 17:32:40 1072

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除