- 博客(1)
- 问答 (1)
- 收藏
- 关注
原创 离线搭建Ollama 并且加载运行Qwen2.5本地模型
1、从github上下载对应架构版本的Ollama离线包,对应下载地址为https://github.com/ollama/ollama/releases。由于项目需要,调研离线部署相关大模型框架和部署运行大模型,遂进行相关调用ollama和xinference。4、将对应模型上传至ollama_cache 目录下 具体模型下载详见魔搭模型库。2、将相关下载下来的包上传至服务器上,进行相关解压操作/home/Ollama。6、 配置大模型下载目录。10、测试模型是否正常。5、执行命令创建模型。
2025-02-28 11:14:44
324
求各位大神帮忙解决Android 问题
2016-12-02
TA创建的收藏夹 TA关注的收藏夹
TA关注的人