- 博客(148)
- 收藏
- 关注
原创 Wan2.1环境的安装,以及使用产品图片合成展示视频
我这里的是python 3.11, cuda12 ,所以需要对应上。我这里提供的是linux环境。删除txt里面的flash_attn,这个需要单独安装,直接pip install 会报错。打开服务器对应的7860端口地址看到的是页面:(没有妹子,妹子是我自己用来测试的)建议上4090,24G以上的显卡。V100跑的话会现存不足,我也没跑通。下载完成后上传到服务器,在vac的python环境。执行 pip instal (对应的包).whl。环境:4080 32G。
2025-06-06 18:41:44
272
原创 mPLUG-Owl3图片描述
本文介绍了如何在GitHub上安装和运行mPLUG-Owl3项目。首先,使用Conda创建并激活Python 3.9环境,然后克隆项目并安装依赖。接着,解决flash_attn的安装问题,需根据系统版本选择合适的安装包。启动项目时,通过gradio_demo.py脚本自动检查或手动设置模型,也可通过魔搭社区预先下载模型。启动命令为python gradio_demo.py。可能遇到的问题包括RuntimeError,可通过设置环境变量LD_LIBRARY_PATH解决。启动后,通过浏览器访问指定IP地址,首
2025-05-23 17:06:04
321
原创 ollama接口配合chrome插件实现商品标题和描述生成
本文介绍了如何安装和配置ollama_shop_extension插件及其后台服务。首先,下载后台代码并按照README.md文件配置Python环境,使用conda创建虚拟环境并安装依赖。接着,运行server.py启动后台服务。然后,下载并解压前端插件,在Chrome浏览器中加载插件。加载成功后,插件按钮会出现在页面上,单击可打开菜单页面,双击则直接打开对话窗口。在使用对话功能前,需设置后台服务地址,默认为http://127.0.0.1:5000。文中以qwen3:0.6b模型为例,展示了对话效果,并
2025-05-22 22:37:47
311
原创 Chrome插件教程
选择你的插件目录(包含 manifest.json)点击「加载已解压的扩展程序」的 PNG 图片命名为。打开 Chrome 浏览器。开启右上角「开发者模式」(内容脚本,操作网页)
2025-05-22 15:52:03
297
原创 ollama接口数据返回格式化数据,商品标题,商品详情
本文介绍了如何使用Ollama接口生成商品标题和商品详情的代码实现。首先,通过Pydantic定义结构化输出格式,生成商品标题时,要求标题不超过30字,并包含用户提供的关键词。代码通过Ollama的Client接口,结合历史对话和系统角色,生成符合要求的商品标题。接着,文章展示了如何生成商品详情,要求详情使用Markdown格式,并包含标题和关键词。代码通过构建提示词和历史对话,生成符合要求的商品详情,并输出标题、关键词和Markdown详情。整体效果依赖于所使用的模型,微调后的模型效果更佳。
2025-05-22 14:46:04
165
原创 LLaMA-Factory微调LLM-Research/Llama-3.2-3B-Instruct模型
本文介绍了在GPU环境下使用LLaMA-Factory进行模型微调的步骤。首先,通过nvidia-smi检查GPU环境,然后使用git clone获取LLaMA-Factory代码并创建Python环境。接着,安装依赖并下载预训练模型。文章详细说明了如何构建自定义数据集,包括数据格式要求和注册方法。随后,通过修改配置文件进行模型微调,并加载微调后的模型进行推理。最后,介绍了如何导出微调后的模型。整个过程涵盖了从环境准备到模型导出的完整流程,适用于在特定数据集上微调大型语言模型。
2025-05-22 08:56:47
1357
原创 ollama+open-webui搭建可视化大模型聊天
本文介绍了如何搭建Ollama后端和Open-WebUI前端环境。首先,从Ollama官网或GitHub下载并安装Ollama,运行模型时可能遇到网络问题,可参考相关解决方案。接着,通过Conda创建Python环境,克隆Open-WebUI的GitHub仓库,安装依赖并启动服务。启动后,在浏览器中访问指定地址即可使用Open-WebUI界面。整个过程包括环境配置、依赖安装和服务启动,为使用Ollama和Open-WebUI提供了详细指导。
2025-05-22 07:34:35
366
原创 LLM模型的常见部署方式
大语言模型(LLM)的部署方式多样,主要根据部署场景、资源条件和访问控制需求进行选择。常见的部署方式包括:1. 本地部署,适合数据安全要求高的场景,优点在于数据隐私性强和推理成本可控,但硬件门槛高且维护成本大;2. 云端部署,适合计算资源不足的场景,优点在于快速接入和强大的云端硬件资源,但成本受调用次数影响且存在数据安全风险;3. 混合部署,结合本地和云端优势,适合有定制需求但希望快速迭代的场景。此外,按推理方式可分为单机推理和多卡推理,按服务形式可分为REST API、GRPC、WebSocket和嵌入式
2025-05-21 17:30:02
323
原创 常见的LLM
本文梳理了主流大语言模型(LLM)的分类及应用场景。开源模型包括Meta的LLaMA系列、Mistral的高效7B模型、Google的Gemma轻量版,以及中文领域的ChatGLM、Baichuan等;闭源模型则以OpenAI的GPT系列、Google的Gemini和Anthropic的Claude为代表。专业方向模型涵盖代码生成(如CodeLlama)、多模态(如GPT-4o)和语音处理(如Whisper)。选择建议:多语言任务优选GPT-4/Claude3,轻量部署可用Mistral7B,中文场景推荐C
2025-05-21 16:42:46
273
原创 AI应用电商篇汇总(持续补充)
摘要:本文介绍了三个主流大数据集平台——阿里云天池、魔搭社区和Hugging Face Datasets,这些平台为AI研究提供了丰富的开源数据集资源。同时探讨了从电商角度设计大模型Prompt的应用场景,如商品推荐、用户画像分析等。文章还提及了优快云博客上关于Prompt工程的相关技术分享,为电商领域的大模型应用提供了实践参考。这些资源和技术方案有助于推动电商智能化发展,提升个性化服务能力。<|end▁of▁sentence|>
2025-05-21 16:27:56
294
原创 从电商角度设计大模型的 Prompt
本文介绍了电商领域大模型Prompt设计的核心方法,围绕"角色+任务+数据+格式"的公式展开。提供了5大核心场景的Prompt模板:商品文案生成、用户评论分析、营销活动策划、销售数据解读和智能客服回复。每个模板都包含具体示例,如"智能按摩仪文案生成"、"双11活动策划"等。文章还总结了4个实用技巧:明确角色定位、结构化数据、约束输出格式和多轮对话设计,并列举了电商Prompt库的典型应用场景。这些方法能有效提升电商运营、客服、营销等环节的工作效率。
2025-05-21 16:25:25
955
原创 主流 LLM 部署框架
如果有多个 GPU 或者强大的硬件,DeepSpeed-MII 和 Turbomind 能发挥更大作用。:FasterTransformer 和 Triton 是极限推理加速场景的优选。提供了类似 OpenAI 接口的私有部署服务,适合有低成本部署需求的场景。是一个多框架支持的通用推理框架,适合需要兼容多种框架和处理多模型的场景。是专为高效推理而生,特别适合对延迟要求非常严格的任务。:vLLM 和 TGI 非常适合高并发的在线推理任务。场景,尤其是需要优化内存和推理性能的环境。
2025-04-26 17:24:52
1051
原创 常见的六种大语言模型微调框架
特性KilnAxolotlUnsloth适用场景通用参数高效微调一键式训练+部署快速搞定LLaMA/Mistral魔改自由实验超轻量极快微调超大模型、超多显卡训练上手难度⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐自由度⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐显存优化LoRA/QLoRAQLoRA集成LoRA/QLoRA可选LoRA/QLoRA灵活4bit QLoRA极限版ZeRO / 3D并行 极限优化分布式支持❓(需配Trainer)❌(单机为主)
2025-04-26 17:09:19
524
原创 Spring Boot 启动顺序
Spring Boot 启动顺序主要涉及多个关键步骤,涵盖。如果你想调试启动过程,可以加。适用于更复杂的参数解析,适用于简单参数处理。
2025-03-18 13:32:23
422
原创 如何搭配 AI 量化策略选股
等方法,提高选股精准度和交易决策效率。量化投资中,AI 主要依靠。AI 量化选股策略结合了。AI 可以通过回测,选出。AI 量化选股主要依靠。
2025-03-16 00:08:05
1620
原创 Java 生产者-消费者模式
在 Java 中,(Producer-Consumer Pattern)是一种常见的多线程设计模式,通常用于在,以,并防止生产过快或消费过快导致数据丢失或资源浪费。
2025-03-08 09:41:22
637
原创 流媒体服务Nginx + RTMP 模块、Wowza Streaming Engine、Red5、SRS(Simple Real-time Server对比
特性Nginx + RTMP 模块Red5SRS开源/收费开源收费开源开源支持协议RTMP、HLS、DASH、WebRTC等RTMP、RTSP、HLS等RTMP、HLS、DASH、WebRTC等实时转码无有无有(有限)性能高性能,适合高并发高性能,适合大规模平台性能较弱高性能,适合大规模并发配置复杂度简单较复杂较复杂中等适用场景小到中型平台、个人项目大规模商业直播平台视频会议、互动直播实时互动直播、大规模平台收费免费收费免费免费。
2025-02-28 04:50:09
617
原创 常见的消息中间件以及应用场景
任务调度和异步处理高吞吐量和大数据处理微服务解耦和通信实时推送和通知高性能、低延迟应用根据具体的需求(如消息量、延迟要求、事务性等),选择合适的消息中间件可以帮助实现系统的解耦、异步处理和高可用性。
2025-02-28 04:38:06
888
原创 不同场景下使用 Resilience4J、Sentinel、Spring Cloud Circuit Breaker 和 API Gateway 来实现熔断功能
框架用途示例提供熔断、重试、限流等容错功能使用注解定义熔断器,并提供回退方法。Sentinel提供流量控制、熔断、降级等功能,支持高并发的分布式系统使用注解标记熔断资源,并提供回退方法。提供统一的熔断接口,支持不同实现(如 Resilience4J、Hystrix)使用创建熔断器,并定义回退逻辑。用作微服务网关,支持熔断、限流等流量控制机制在 Spring Cloud Gateway 中配置过滤器,设置熔断策略。
2025-02-28 04:18:07
792
原创 多维模型数据库(OLAP)和列式数据库的区别
OLAP(在线分析处理)和列式数据库虽然在某些场景下有重叠,但它们是不同的概念,各自有不同的目的和特点。
2025-02-28 03:47:17
666
原创 浅谈流媒体协议以及视频编解码
流媒体协议用于传输视频、音频等多媒体数据,确保数据流畅地传输到用户设备。常见的流媒体协议包括 RTMP、HLS、DASH、WebRTC 等,每种协议具有不同的特点和适用场景。视频编解码技术是视频压缩与解压缩的过程,目的是减小视频文件的大小并确保高质量的视频流传输。常见的视频编解码格式包括 H.264、H.265、VP8、VP9 等,每种编码格式有不同的压缩效率、视频质量和计算需求。RTMP和WebRTC通常用于低延迟的实时直播场景,WebRTC 适用于互动型应用,如视频会议。HLS和DASH。
2025-02-28 03:18:51
1482
原创 freeswitch支持的协议以及区别
SIP是最常用的协议,适用于语音、视频和即时消息。XMPP主要用于即时消息和在线状态信息。WebRTC专为 Web 浏览器之间的实时通信设计,支持语音、视频、数据流。IAX和H.323主要用于较传统的 VoIP 系统,前者对 NAT 穿透较好,后者用于视频会议。MGCP主要用于媒体网关的控制,较少用于现代通信环境。SCTP和RTP则侧重于信令和媒体数据的传输,适用于对传输可靠性有高要求的应用。
2025-02-28 03:06:31
571
原创 常见的非关系性数据库
键值数据库:适用于高速缓存、会话存储等。文档数据库:适用于存储灵活、半结构化的数据。列族数据库:适用于需要快速读取某些列的大数据存储和分析。图数据库:适用于存储和查询关联数据,如社交网络、推荐系统等。时序数据库:适用于处理时间序列数据,如监控、传感器数据等。搜索引擎数据库:适用于全文搜索和日志分析。
2025-02-28 02:50:16
544
原创 非关系型数据库和关系型数据库的区别
总的来说,关系型数据库适用于需要高一致性、固定数据结构和复杂查询的应用场景,而非关系型数据库则更适合高可用、灵活性强和大规模数据存储的场景。
2025-02-28 02:46:19
983
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人