ai大模型
木偶彡
java
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
使用spring ai实现简单会话
本文介绍了如何在Linux系统上通过HTTP访问本地部署的Ollama接口。首先,需要在项目中引入Spring Boot和Spring AI的相关依赖包,包括spring-boot-starter-web、spring-boot-starter-test和spring-ai-ollama-spring-boot-starter。接着,在配置文件中设置Ollama的基础URL和聊天模型。然后,通过Java类实现一个简单的DEMO,使用ChatClient与Ollama进行交互,并通过@RestControll原创 2025-05-14 15:30:04 · 438 阅读 · 0 评论 -
如何通过http访问ollama接口
本文介绍了如何修改Ollama服务的配置文件以启用远程访问。首先,使用sudo vim /etc/systemd/system/ollama.service命令编辑配置文件,增加Environment="OLLAMA_HOST=0.0.0.0:11434"和Environment="OLLAMA_ORIGINS=*"两行配置,以允许所有IP地址通过11434端口访问服务。配置完成后,执行sudo systemctl daemon-reload重新加载配置,并使用sys原创 2025-05-13 17:38:22 · 558 阅读 · 0 评论 -
本地部署ollama及deepseek(linux版)
本文介绍了如何安装和配置Ollama,一个用于管理和运行机器学习模型的工具。首先,通过设置代理并执行安装脚本来安装Ollama。安装完成后,可以使用systemctl命令查看Ollama的状态。文章还列举了Ollama的常用命令,如启动服务、创建模型、运行模型等,并介绍了常用的环境变量配置。接着,文章指导如何配置模型保存路径并下载模型。最后,通过运行模型完成本地部署。整个过程为后续的应用奠定了基础。原创 2025-05-13 16:16:04 · 1000 阅读 · 0 评论
分享