- 博客(3)
- 收藏
- 关注
原创 大模型本地部署:基于Ollama管理的大模型本地库
周报汇报过程中,老板要求我将大模型部署到本地(当然我也不知道为什么一定要这么做,因为国外学术研究都是直接调用API,也许老板有自己的想法),所以我只能立即执行他的命令!这里为你的docker运行提供了三种方式,一种是本地端运行,一种是在别的服务器上的(比如你们组里自己的服务器),另外一种是提供nvidia GPU支持方式的。
2025-01-17 15:07:35
1542
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人