Windows环境下安装和使用Ollama

Ollama简介

Ollama 是一个用于在本地运行大型语言模型(LLM)的开源框架。具有以下特点:

  • 简化部署:利用 Docker 容器技术简化 LLM 的部署过程,用户只需执行简单命令,即可在本地计算机上部署和管理模型,无需深入了解底层复杂性。
  • 捆绑模型组件:将模型权重、配置和数据捆绑到一个名为 Modelfile 的包中,优化设置和配置细节,包括 GPU 使用情况,方便用户管理和切换不同模型。
  • 支持多种模型:支持 Llama 2、Code Llama、Mistral、Gemma 等多种大型语言模型,并允许用户根据特定需求定制和创建自己的模型。
  • 跨平台支持:支持 macOS、Linux 平台,Windows 平台的预览版也已发布。
  • 命令行操作便捷:安装完成后,用户通过简单的命令行操作即可启动和运行大型语言模型,如执行ollama run gemma:2b可运行 Gemma 2B 模型 。
  • 资源要求明确:对不同规模的模型有明确的资源要求,如至少需要 8GB 的内存 / 显存来运行 7B 模型,16GB 运行 13B 模型,32GB 运行 34B 模型。
  • 轻量级且可扩展:代码简洁明了,运行时占用资源少,同时支持多种模型架构,可扩展以支持新的模型,还支持热加载模型文件,无需重新启动即可切换不同的模型。

以上是“豆包”AI生成的对Ollama的介绍。

Ollama并不是一个像ChatGPT或Llama这样的大语言模型(LLMs),它被称作本地模型供应者(local model provider),类似的还有Llamafile, Jan, 以及LM Studio等。Ollama是一个在本地电脑上搭建和运行大语言模型的轻量、可扩展的框架。它提供了用来创建、运行和管理模型的API,以及一个包含多个预建构模型的库,让用户可以在不同应用上使用这些模型。

注意:Ollama中的模型是预建构模型(pre-built models),跟大语言模型相比,它们没有收集数据,但可以用来搭建和训练。

安装

Ollama官网可以直接免费下载对应操作系统的安装包,但是国内下载速度很慢。也可以通过Docker下载安装。

如果需要Windows版的安装包可以私信我免费领取。

下载完成后可以直接双击安装包安装,但是这样会直接安装到C盘,且无法更改安装路径。

自定义安装路径

由于后面下载大模型会占用很多空间,所以建议自定义安装路径。
可以在Windows终端中输入以下命令来自定义安装路径:

 # .\OllamaSetup.exe为安装包文件所在路径
 # D:\Ollama为安装的目标路径
.\OllamaSetup.exe /DIR="D:\Ollama"

自定义模型储存路径

除了更改Ollama的安装路径,也建议更改通过Ollama下载的模型的储存路径:
在用户环境变量中添加一个OLLAM_MODELS环境变量来定义模型的储存位置,变量值即为指定的模型储存路径:

### 安装Ollama并配置P40硬件加速 对于希望在Windows操作系统上安装Ollama并利用NVIDIA Tesla P40进行硬件加速的用户来说,有几个重要的步骤需要注意。由于官方支持可能有限,建议遵循社区最佳实践文档来完成这一过程。 #### 准备工作环境 确保已安装适用于Windows操作系统的CUDA Toolkit以及cuDNN库版本兼容于所使用的TensorFlow或PyTorch框架[^1]。这些工具包提供了必要的驱动程序支持文件,使GPU能够被机器学习应用程序有效调用。 #### 下载与安装Ollama 访问Ollama官方网站获取最新版软件包,并按照给定说明执行安装流程。通常情况下,这涉及到下载可执行文件(.exe),运行它并通过图形界面引导设置向导完成整个过程。 #### 配置P40硬件加速 为了启用P40作为计算资源,在安装完成后需确认设备管理器中显示有可用的NVIDIA GPU,并通过命令提示符验证`nvidia-smi`指令能否正常返回有关显卡的信息。接着调整Ollama的相关配置参数以指向正确的CUDA路径: ```bash set CUDA_HOME=C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\vX.X ``` 此处`vX.X`应替换为实际安装的CUDA版本号。 #### 测试模型推理性能 最后一步是测试新搭建平台上的模型推断速度是否得到了预期提升。可以尝试加载预训练好的BERT或其他大型语言模型来进行简单的预测任务,观察其耗时情况并与CPU-only模式下对比效果差异。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值