
AI-LLM-实战
LLM-实战
木卫二号Coding
悟饭,你也变强了
展开
-
第四十五篇-Tesla P40关闭GPU的ECC释放部分显存
Tesla系列GPU默认开启了ECC(error correcing code,错误检查和纠正)试了试,显存多出1.5G左右。建议开启ECC,GPU可靠性高。开启ECC 提升数据可靠性,可用内存的减少和性能上的损失。关闭ECC,释放完整显存,性能优化,数据错误风险增加。原创 2025-03-11 22:34:52 · 258 阅读 · 0 评论 -
第四十五篇-Tesla P40+QWQ-32B部署与测试
速度还是可以的,一般问题都OK的,其他性能还要再测测。原创 2025-03-07 21:52:48 · 299 阅读 · 0 评论 -
第四十四篇-Tesla P40+Janus-Pro-7B部署与测试
速度挺快,简单的快5秒,复杂的就长了20秒+也可以使用hf-mirror在线下载。速度挺慢的,30秒+,有时更长。效果不好评判,只有自己试用。deepseek原创 2025-02-14 22:27:25 · 792 阅读 · 0 评论 -
第四十三篇-Ollama-TeslaP40-Qwen2.5-Coder-32B速度
Ollama-TeslaP40-Qwen2.5-Coder-32B原创 2024-11-21 21:52:38 · 912 阅读 · 1 评论 -
第四十二篇-离线升级Ollama-V4.1
【代码】第四十二篇-离线升级Ollama-V4.1。原创 2024-11-21 21:51:33 · 559 阅读 · 0 评论 -
第四十一篇-Docker安装Neo4j
【代码】第四十一篇-Docker安装Neo4j原创 2024-10-02 22:48:25 · 1028 阅读 · 0 评论 -
第四十篇-TeslaP40+Ollama+Ollama-WebUI(自编译)
本文介绍用自己编辑ollama-webui,链接本地ollama。原创 2024-08-28 23:37:29 · 1142 阅读 · 0 评论 -
第三十九篇-TeslaP40+CosyVoice-安装
以上文本,在P40中大概20秒生成,GPU显存消耗 2126MiB GPU 90%~100%可以先下载CosyVoice-300M-Instruct与CosyVoice-ttsfrd。原创 2024-08-28 21:44:52 · 786 阅读 · 0 评论 -
第三十八篇-TeslaP40-SenseVoice部署,速速杠杠的
TeslaP40-SenseVoice部署,速速杠杠的,P40默认跑SenseVoice,识别1分钟的音频3秒完成,识别的准确率还是很好的,有待进一步测试。原创 2024-08-24 00:31:58 · 575 阅读 · 0 评论 -
第三十七篇-OpenCompass本地评测InternLM-1.8B
【代码】第三十七篇-OpenCompass评测InternLM-1.8B。原创 2024-08-15 12:30:32 · 235 阅读 · 0 评论 -
第三十六篇-基于MedicalGPT微调大模型、PT、SFT、RM、RL
基于MedicalGPT微调大模型,PT,SFT,RM,RL原创 2024-07-26 09:28:06 · 445 阅读 · 0 评论 -
第三十五篇-各大模型测评地址和说明集合
llm任务进行基准测试,包括AI2推理挑战、HellaSwag、MMLU等。原创 2024-07-19 18:07:35 · 1754 阅读 · 0 评论 -
第三十四篇-学习构建自己的Agent
https://github.com/shibing624/agentica (原项目名:actionflow)该项目可以学习如何构建Agent,可以使用ollama。原创 2024-07-03 09:16:31 · 321 阅读 · 0 评论 -
第三十三篇-Ollama+AnythingLLM基本集成
AnythingLLM专属私有知识库,可以使用本地OllamaLLM模型,可以上传文件,基于文件回答问题。原创 2024-06-21 00:01:18 · 1609 阅读 · 0 评论 -
第三十二篇-Ollama+Lobe-Chat基本集成配置
【代码】第三十二篇-Ollama+Lobe-Chat基本集成配置。原创 2024-06-17 23:50:22 · 562 阅读 · 0 评论 -
第三十一篇-Ollama+OneAPI基本集成配置
本文介绍使用oneapi+ollama实现openai接口实现。原创 2024-06-13 22:17:55 · 6303 阅读 · 0 评论 -
第三十篇-Ollama-TeslaP40-Ollama-Qwen2-57B等速度
【代码】第三十篇-Ollama-TeslaP40-Ollama-Qwen2-57B等速度。原创 2024-06-11 00:47:29 · 1275 阅读 · 0 评论 -
第二十九篇-LM Studio设置国内模型源
第二十九篇-LM Studio设置国内模型源。原创 2024-05-22 21:26:47 · 3443 阅读 · 1 评论 -
第二十八篇-Ollama-TeslaP40-Ollama-8B-Qwen1.5-32B等速度
Tesla-P40还是挺令我惊讶的,14B模型速度还是非常好的,有机会大家可以用来试试。原创 2024-04-27 14:50:20 · 2317 阅读 · 0 评论 -
第二十七篇-Ollama-加载本地模型文件
可以查看已有下载的modlefile文件内容。等等一段时间会提示完成。原创 2024-04-27 14:01:14 · 20370 阅读 · 2 评论 -
第二十六篇-Ollama-监听本地IP与端口
修改ollama配置使其可以监听0.0.0.0和修改端口,可以外网访问。原创 2024-04-27 14:00:39 · 20260 阅读 · 1 评论 -
第二十五篇-Ollama-离线安装
ollama-离线安装,使用离线方式安装ollama。原创 2024-04-27 10:02:36 · 6857 阅读 · 0 评论 -
第二十四篇-Ollama-在线安装
ollama-在线安装,运行速度相当不错。原创 2024-04-27 09:52:21 · 2587 阅读 · 3 评论 -
第二十三篇-15T Tokens LLM 开源数据集-FineWeb
该数据集旨在为大型语言模型(LLM)的训练提供优化的数据处理流程,并使用datatrove库进行处理。FineWeb的性能已超越了RefinedWeb等其他高质量网络数据集。数据集许可: Open Data Commons Attribution License (ODC-By) v1.0。FineWeb是一个由Hugging Face提供的大规模英语网页数据集,包含超过15万亿个经过清洗和去重的token,源自CommonCrawl。原创 2024-04-23 11:08:31 · 587 阅读 · 0 评论 -
第二十二篇-ZincSearch-安装部署
替换ElasticSearchGoLang资源占用少,可ES的API相关连接。原创 2024-03-29 10:55:49 · 683 阅读 · 0 评论 -
第二十一篇-LM-Studio安装部署gguf模型到windows电脑
一般CPU,1B 7B 模型,int4量化还是可以用用的,更大模型推荐GPU。原创 2024-02-28 19:53:46 · 8198 阅读 · 1 评论 -
第二十篇-推荐-纯CPU(E5-2680)推理-llama.cpp-qwen1_5-72b-chat-q4_k_m.gguf
CPU利用2600%左右,42G内存,如果更强的CPU估计还是能到4倍速度吧速度还是可以的,0.6 tokens/s 这个速度还是很慢的,测试一下还是可以的,毕竟是70B的模型呀,继续研究中。原创 2024-02-27 21:46:02 · 1592 阅读 · 2 评论 -
第十九篇-推荐-纯CPU(E5-2680)推理-Nous-Hermes-2-Mixtral-8x7B-DPO.Q4_K_M
CPU利用2000% 24线程可再大些速度还是可以的,4 tokens/s 继续研究中,这个CPU还是可以的,要是换成AMD高级CPU估计效果更好,主要是不用GPU。原创 2024-02-23 21:48:15 · 538 阅读 · 0 评论 -
第十八篇-推荐-Huggingface-镜像-2023-11
https://aifasthub.com/modelsAI快站可下载你希望快速的模型权重文件原创 2023-11-21 17:24:24 · 775 阅读 · 0 评论 -
第十七篇-Awesome ChatGPT Prompts-备份-中文(百度翻译)
Awesome ChatGPT Prompts——一个致力于提供挖掘ChatGPT能力的Prompt收集网站https://prompts.chat/Awesome ChatGPT Prompts【英文】Awesome ChatGPT Prompts【中文-百度翻译】原创 2023-11-20 16:56:26 · 3524 阅读 · 0 评论 -
第十六篇-Awesome ChatGPT Prompts-备份
Awesome ChatGPT Prompts——一个致力于提供挖掘ChatGPT能力的Prompt收集网站。2023-11-16内容如下。原创 2023-11-16 09:26:47 · 1246 阅读 · 0 评论 -
第十五篇-推荐-Huggingface-镜像-2023-10
我们强烈推荐使用 huggingface 官方提供的 huggingface-cli 命令行工具进行模型文件的下载。默认使用多文件并行下载,速度更快。(如需更极致的下载速度,可对文件链接用其他多线程下载工具下载,默认不推荐)域名 hf-mirror.com,用于镜像 huggingface.co 域名。支持排除特定文件或指定特定文件下载,便于用户自定义下载内容。支持指定镜像 endpoint,可直接使用本站镜像服务。支持断点续传,避免因网络中断而导致的文件损坏。推荐一个Huggingface-镜像网站。原创 2023-10-25 21:18:09 · 8652 阅读 · 2 评论 -
第十四篇-问题处理-libcudart.so.11.0: cannot open shared object file: No such file or directory
【代码】问题处理-libcudart.so.11.0: cannot open shared object file: No such file or directory原创 2023-10-18 22:40:36 · 5509 阅读 · 0 评论 -
第十三篇-Tesla P40+ModelScope+Gradio+QWen-14B-Int4
【代码】第十三篇-Tesla P40+ModelScope+Gradio+QWen-14B-Int4。原创 2023-09-28 23:36:25 · 1184 阅读 · 2 评论 -
第十二篇-Tesla P40+ModelScope+Gradio+QWen+MindChat
本文主要实现Qwen-7B-Chat与MindChat-Qwen-7B的简单部署与测试原创 2023-08-30 00:09:46 · 859 阅读 · 0 评论 -
第十一篇-Tesla P40+Text-Generation-Webui
简单好用(当然速度不是最快的),支持多种方式加载模型,transformers, llama.cpp, ExLlama, AutoGPTQ, GPTQ-for-LLaMa, ctransformers支持多类模型, Llama-2-chat, Alpaca, Vicuna, WizardLM, StableLM等图形化界面聊天,微调。原创 2023-08-22 22:49:32 · 1567 阅读 · 1 评论 -
第十篇-Tesla P40+FastChat+Vicuna-13B-V1.5
我下载模型放在/models/vicuna-13b-v1.5,可以自己定义目录。2.Tesla P40性能还是不行,一个你好要回答15秒。1.内存消耗,8bit需要14G显存。一个一个下载,26文件下载比较耗时。3.后期准备找个性能更好的显卡试试。登录加载完成就可以体验了。原创 2023-08-09 14:21:06 · 719 阅读 · 0 评论 -
第九篇-自我意识数据准备
格式化自我意识数据用于ChatGLM微调。原创 2023-08-02 22:02:13 · 796 阅读 · 0 评论 -
第八篇-Tesla P40+ChatGLM2+LoRA
Tesla P40+ChatGLM2+LoRA+CentOS7原创 2023-08-02 21:45:50 · 2049 阅读 · 0 评论 -
第七篇-Tesla P40+ChatGLM2+P-Tuning
data/train.json【自我意识-训练数据train.json】我使用和train.json一致,正式使用是要使用真实数据。train_loss 要小,如果1,2这种未调出的效果很差。可以替换【AI小木】【小吕】来构建你自己的自我认识数据集。我的是/models/chatglm2-6b。如果调整了数据集,要清理缓存,缓存目录如下。显卡:Tesla P40 24G。下载模型相关文件到自己目录。系统:CentOS-7。修改 train.sh。原创 2023-08-01 23:16:26 · 1325 阅读 · 0 评论