随着Deepseek的火爆,Spring AI 插上 DeepSeek 的翅膀,飞向智能新高度!DeepSeek 如同 Spring AI的“最强大脑”,将为其注入强大的 AI 能力,开启智能应用的新纪元。

本章采用Ollama本地部署Deepseek,并应用整合到Spring AI中。
01 本地部署Ollama
1.1 进入Ollama官网
链接地址:https://ollama.com/

可以根据自己的需求下载macOS、Linux、Windows版本的Ollama。
本章采用Linux方式部署, 直接复制命令在Linux执行即可。

注意:
这里的Linux系统使用的Centos7,笔者之前在搭建过程中使用过Centos5.x,中间出现了各种问题,无法安装成功。使用Centos7之后就很顺利完成Ollama的安装。
1.2 检查是否安装成功
ollama -v

出现Ollama的版本说明Ollama已经安装完成。
02 本地部署Ollama
Ollama中提供了大量的模型,可以根据自己的需要结合服务器的性能下载。从Ollama官网可以看到Deepseek模型的下载量稳居榜首。

2.1 拉取Deepseek-r1模型
Deepseek-r1模型提供7个不同参数的模型,不同的参数要求的服务器性能也不同,其中 671b 是满血版。笔者采用1.5b的参数部署,方面演示。

2.2 使用Ollama拉取大模型
ollama pull deepseek-r1:1.5b
2.3 查看大模型
ollama list

2.4 运行大模型
ollama run deepseek-r1:1.5b

启动完成之后就可直接和大模型对话了。
2.5 结束对话
/bye

2.6 Ollama 配置远程访问
Ollama 默认时不支持远程访问的,需要增加远程服务的配置。如果不配置就会出现使用IP访问时,无法访问的情况,这也是一种安全机制。
vim /etc/systemd/system/ollama.service
# 增加远程配置项

最低0.47元/天 解锁文章
1825

被折叠的 条评论
为什么被折叠?



