要在 Linux 服务器上使用 Ollama 运行您自行微调的模型,您可以按照以下步骤进行:
-
准备模型文件:
- 确保您的微调模型已保存为 GGUF、PyTorch 或 Safetensors 格式。
-
创建 Modelfile 文件:
- 在服务器上创建一个名为
Modelfile
的文件,内容如下:
将FROM /path/to/your/model/file
/path/to/your/model/file
替换为您模型文件的实际路径。
- 在服务器上创建一个名为
-
使用 Ollama 创建模型:
- 在终端中执行以下命令:
将ollama create your_model_name -f /path/to/Modelfile
your_model_name
替换为您希望的模型名称,/path/to/Modelfile
替换为Modelfile
文件的实际路径。
- 在终端中执行以下命令:
-
运行模型:
- 执行以下命令启动模型:
这将启动您创建的模型,您可以在终端中与之交互。ollama run your_model_name
- 执行以下命令启动模型:
请注意,Ollama 支持从 GGUF、PyTorch 或 Safetensors 格式导入自定义模型。
此外,您可以通过编写 Modelfile
配置文件,自定义模型的推理参数,如温度、top_p 等,以调节模型的生成效果。
如果您的模型是 Safetensors 格式,且采用 LlamaForCausalLM、MistralForCausalLM 或 GemmaForCausalLM 架构,您可以直接通过 Modelfile
导入。
通过上述步骤,您即可在 Ollama 上运行您微调后的模型。