Windows 部署 ollama

1.安装

官方地址:https://ollama.com/

1.1 下载ollama

1.2 安装

1.3 运行 Ollama

1.4 测试ollama运行状态

http://localhost:11434

curl http://localhost:11434/api/generate -d "{ \"model\": \"qwen2:0.5b\", \"prompt\": \"Who r u?\" ,\"stream\":false}"

C:\Users\Administrator>curl http://localhost:11434/api/generate -d "{ \"model\": \"qwen2:0.5b\", \"prompt\": \"Who r u?\" ,\"stream\":false}"
{"error":"model \"qwen2:0.5b\" not found, try pulling it first"}

1.5 拉取qwen2模型

查看可用模型列表

https://ollama.com/library

拉取qwen2

qwen2 的 0.5b1.5b、7b 和 72b 的模型大小分别是 352M、935M、4.4G 和 41G

ollama run qwen2:0.5b

查询当前下载的模型

1.6 测试模型
ollama run qwen2:0.5b

1.7 本机访问
curl http://localhost:11434/api/generate -d "{ \"model\": \"qwen2:0.5b\", \"prompt\": \"Who r u?\"}"

curl http://localhost:11434/api/generate -d "{ \"model\": \"qwen2:0.5b\", \"prompt\": \"Who r u?\" ,\"stream\":false}"

1.8 局域网访问

环境变量 配置 OLLAMA_HOST,0.0.0.0, 然后重启ollama

 

局域网访问

1.9 修改模型位置以及环境变量

默认模型下载位置:C:\Users\Administrator\.ollama

修改位置:

OLLAMA_MODELS

D:\LLM\.ollama

### 如何在Windows操作系统上部署Ollama框架或服务 #### 准备工作 为了确保顺利部署,确认计算机满足最低硬件需求,并已安装必要的软件环境。对于Windows用户而言,官方提供了非常直观的预览版,包括了内置的GPU加速功能、访问完整模型库的能力,以及对OpenAI的兼容性在内的Ollama API,这使得操作变得更为简便[^1]。 #### 下载与安装 前往官方网站获取适用于Windows系统的最新版本安装包。下载完成后按照提示完成安装向导中的每一步设置。整个安装流程被设计得很简洁明了,旨在让用户能够快速启动并运行所需的服务。 #### 启动服务 安装结束后,在命令行工具(如PowerShell)中输入指定指令来初始化OLLAMA服务: ```powershell ollama start ``` 此命令会自动检测当前环境配置情况,并尝试连接到远程服务器以同步最新的资源文件。如果一切正常,则可以在几秒钟内看到成功消息显示于终端界面上。 #### 模型管理 接下来可以利用CLI客户端执行更多高级任务,比如加载特定类型的神经网络结构或者调整超参数选项等。例如要下载某个预先训练好的模型实例,只需键入如下语句即可实现自动化处理过程: ```powershell ollama models pull <model-name> ``` 这里`<model-name>`代表目标数据集对应的唯一标识符字符串,请根据实际应用场景灵活替换相应值[^2]。 #### 应用集成 最后为了让其他应用程序也能方便地接入这套生态系统当中去,建议进一步探索有关LangChain-Ollama插件的相关文档资料。该组件允许开发者轻松构建基于自然语言理解能力之上的交互界面原型作品,极大提高了开发效率的同时也降低了技术门槛的要求。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值