1、下载ollama,官网是Ollama,下载较慢,可以考虑使用迅雷等工具。
2、安装ollama,默认是C盘,为什么避免模型下载也下载到c盘,需要先关闭ollama软件,然后创建一个环境变量,变量名设置为:OLLAMA_MODELS,变量值设置为大模型要下载的位置,比如G:\Ollama目录下。
3、命令行模式下载大模型 ollama run deepseek-r1:32b
4、
1、下载ollama,官网是Ollama,下载较慢,可以考虑使用迅雷等工具。
2、安装ollama,默认是C盘,为什么避免模型下载也下载到c盘,需要先关闭ollama软件,然后创建一个环境变量,变量名设置为:OLLAMA_MODELS,变量值设置为大模型要下载的位置,比如G:\Ollama目录下。
3、命令行模式下载大模型 ollama run deepseek-r1:32b
4、
您可能感兴趣的与本文相关的镜像
Llama Factory
LLaMA Factory 是一个简单易用且高效的大型语言模型(Large Language Model)训练与微调平台。通过 LLaMA Factory,可以在无需编写任何代码的前提下,在本地完成上百种预训练模型的微调
1132

被折叠的 条评论
为什么被折叠?