保姆级!使用Ollama本地部署DeepSeek-R1大模型 并java通过api 调用

本章介绍在window上部署 DeepSeek R1-32B :需要安装的有:Ollama,python 3.10,DeepSeek ,Open WebUI。

一、安装Ollama

下载地址 https://ollama.com/ 直接下载window的。下载完成后直接一路安装就行。(这里默认安装在C盘 模型下载也是C盘,所以C盘一定要大 (不过!!!!下面有教你怎么修改下载模型地址 别让它下载到C盘)
在这里插入图片描述
安装完成后可以看看是否安装成功:ollama -v 或者浏览器访问下: http://localhost:11434/

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

二、设置Ollama环境变量

常用Ollama环境变量介绍

在这里插入图片描述
环境变量还有很多 网上有很多 可自行搜索

为什么需要配置OLLAMA_HOST及OLLAMA_ORIGINS?,OLLAMA_MODELS

  1. 突破本地限制:局域网访问

默认情况下,Ollama仅监听127.0.0.1:11434,仅允许本机访问。通过设置OLLAMA_HOST=0.0.0.0:端口号,可将服务绑定到所有网络接口,实现局域网内多设备共享模型资源。

  1. 解决跨域问题:Web UI集成

浏览器安全策略会阻止跨域请求,例如使用Open WebUI或LobeChat等前端工具时。配置OLLAMA_ORIGINS=*(允许所有来源)或指定域名列表(如http://localhost:3000,http://yourdomain.com"),可解除跨域限制。

  1. 安全与性能
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值