注:如有需要开发大模型应用,网站等,后台私信我。
1、ollama简介
ollama是一个可以在本地部署大语言模型的平台,与传统的云端AI服务不同,ollama可以直接在本地设备上运行集成大模型,减少通信延迟,保证数据安全性,适用于搭建一个本地大模型应用。ollama对于环境的要求,需要python3.8及以上的版本,如果需要使用GPU进行加速,还需要nNAVIDIA显卡和CUDA驱动。
2、ollama安装
本次分享基于linux系统操作,其他系统按照官网文档,按照界面操作提示一步一步进行即可。
2.1、物理机部署
物理机部署有两种方式:1)、使用脚本直接安装,升级(这种方式有种缺点,就是不确定环境依赖是否完整);2)、采用安装包离线安装的方式(这种方式博主尝试几次,坑比较多,不建议新手使用);
# 1、采用安装脚本进行安装
curl -fsSL https://ollama.com/install.sh | sh
# 2、采用下载安装包进行安装
# 下载
curl -L https://ollama.com/download/ollama-linux-amd64.tgz -o ollama-linux-amd64.tgz
# 解压到指定目录
tar -C /usr -xzf ollama-linux-amd64.tgz
# 启动
ollama serve
# 测试
ollama -v
# 3、GPU 版本安装
# 下载
curl -L https://ollama.com/download/ollama-linux-amd64-rocm.tgz -o ollama-linux-amd64-rocm.tgz
# 解压
tar -C /usr -xzf ollama-linux-amd64-rocm.tgz
配置服务启动

最低0.47元/天 解锁文章
5万+

被折叠的 条评论
为什么被折叠?



