
大模型
文章平均质量分 60
大模型全栈
好大一坨坨
is not null
展开
-
CTranslate2转换模型
首先,确保安装了 CTranslate2 和 faster-whisper(基于 CTranslate2 的 Whisper 实现)。转换完成后,模型会保存在 /path/to/whisper-small-ct2 目录中。–quantization:量化方式(可选 int8、float16 等)。–model:Hugging Face 模型的路径。–output_dir:转换后的模型输出路径。原创 2025-02-20 10:55:41 · 335 阅读 · 0 评论 -
实战:vLLM多机多卡部署大模型
【代码】实战:vLLM多机多卡部署大模型。原创 2025-02-18 17:24:59 · 2286 阅读 · 3 评论 -
Open Compass评估Qwen模型实战
自定义数据集可直接通过命令行来调用开始评测。原创 2025-02-06 14:44:45 · 459 阅读 · 0 评论 -
GGUF介绍安装及使用
GGUF 格式的全名为(GPT-Generated Unified Format),提到 GGUF 就不得不提到它的前身GGML 是专门为了机器学习设计的张量库,最早可 以追溯到 2022/10。其目的是为了有一个单文件共享的格式,并 且易于在不同架构的 GPU 和 CPU 上进行推理。但在后续的开发 中,遇到了灵活性不足、相容性及难以维护的问题。原创 2025-01-25 15:22:05 · 2366 阅读 · 0 评论 -
Ollama安装部署及加载自定义量化Qwen大模型
Qwen/Qwen1.5-1.8B-Chat 模型为例子ModelFile文件内容。原创 2025-01-25 15:03:37 · 1052 阅读 · 0 评论 -
ModelScope下载模型
在 ModelScope 中,snapshot_download 是一个非常有用的工具,可以直接下载模型文件到指定路径,而无需加载模型。原创 2025-01-25 14:46:59 · 2609 阅读 · 0 评论 -
Ubuntu系统:Miniconda3下载安装
如果显示版本号,说明安装成功。原创 2025-01-15 17:51:45 · 1411 阅读 · 0 评论 -
Huggingface下载模型的几种方式
【代码】Huggingface下载模型的几种方式。原创 2024-12-26 15:04:06 · 8052 阅读 · 0 评论 -
主流向量数据库对比
粗体推荐使用,性能较好。原创 2024-12-22 21:46:33 · 2563 阅读 · 0 评论