
大模型部署
文章平均质量分 84
IT修炼家
没事写点啥...
展开
-
移动端部署qwen2.5大模型
移动端使用ollama部署qwen2.5大模型原创 2024-12-18 10:06:14 · 8325 阅读 · 0 评论 -
Ubuntu server安装中文支持
Ubuntu server不带中文支持包,这里教了在线和离线环境下安装中文支持的方法原创 2024-12-13 12:16:05 · 1999 阅读 · 0 评论 -
auto-gptq安装以及不适配软硬件环境可能出现的问题及解决方式
auto-gptq安装方式以及可能遇到的问题和解决方法原创 2024-12-12 15:26:21 · 3669 阅读 · 1 评论 -
【大模型报错】RuntimeError: CUDA error: no kernel image is available for execution on the device
pytorch版本为2.1.2,大模型一直强调是xformer不支持,于是降低pytorch版本(其本质也是降低xformer版本)。在网上搜了很多博客,也问了chatgpt,基本可以确定是显卡版本、CUDA版本、pytorch版本有地方不兼容。之前调用大模型一直用的vllm,网上搜了下,可以确定P40显卡缺少一些算子,不支持vllm调用大模型。:将qwen大模型部署到新的服务器上,之前服务器显卡是4090,新的服务器显卡是P40。cuda版本为11.8,也不是最新的,P40是支持的。原创 2024-12-02 11:44:37 · 864 阅读 · 1 评论 -
两张4090极限部署qwen模型,72b-int4版本能布上吗?
两张4090挖掘qwen模型极限部署情况原创 2024-10-31 17:08:17 · 4113 阅读 · 1 评论 -
NCCL安装(Ubuntu等)
NCCL安装原创 2024-10-31 16:02:23 · 2648 阅读 · 0 评论 -
大模型3——AI论文分析助手
搭建了一个使用大模型分析学术论文的框架,并可以交互问答。原创 2024-10-24 11:45:29 · 993 阅读 · 1 评论 -
大模型输出的outputs为什么要取[0](即outputs[0])
对大模型输出output取output[0]的原因进行说明原创 2024-10-21 17:43:10 · 465 阅读 · 0 评论 -
大模型GGUF文件是啥?
GGUF文件说明原创 2024-10-18 14:16:44 · 2452 阅读 · 0 评论 -
大模型重复输出怎么办?
对大模型重复输出问题进行了简要介绍,分析了原因并给出了一些缓解方法。原创 2024-10-17 15:32:39 · 7434 阅读 · 0 评论 -
大模型微调2——使用LLaMA-Factory微调qwen模型优化推理效果
使用LLaMA-Factory框架微调qwen大模型,介绍了LLaMA-Factory和微调流程原创 2024-10-12 16:47:28 · 2270 阅读 · 0 评论 -
大模型微调1——使用LoRA微调qwen模型优化推理效果
使用LoRA微调技术微调qwen大模型,优化大模型在逻辑推理上的回答效果。分析了其步骤,给出了其代码块。原创 2024-10-12 12:22:34 · 1876 阅读 · 0 评论 -
大模型——如何实现超长多轮对话
分析了多轮对话的难点和现有的一些解决思路原创 2024-10-10 16:38:39 · 8272 阅读 · 0 评论 -
大模型在多轮对话中的“massage“
大模型的massage如何工作的,尤其在多轮对话中,如何设计,这应该是正确使用大模型的必备知识!原创 2024-10-08 17:42:42 · 1452 阅读 · 0 评论 -
让大模型不乱输出的参数
大模型的常见参数介绍原创 2024-10-08 17:35:51 · 1087 阅读 · 0 评论 -
超快捷的大模型下载方式
大模型一般很大,在部署的时候寻求快速的下载方法很重要。这里介绍了多种大模型下载方法,欢迎交流!原创 2024-10-08 17:31:18 · 662 阅读 · 0 评论 -
大模型2-初试大模型+RAG
初步将大模型与检索增强生成(RAG)技术结合起来,使用yuan和qwen两种大模型进行试验,对比添加RAG前后的结果原创 2024-10-08 16:13:04 · 1349 阅读 · 0 评论 -
大模型1-本地部署实现交互问答
在本地部署大模型,并构建问答对话,实现大模型交互问答部署,本文以yuan和qwen为例。原创 2024-10-08 13:54:11 · 1454 阅读 · 0 评论