Ollama、轻量级AI 模型,Windows本地部署

Windows 下载部署 Ollama

什么是Ollama

Ollama 是一个轻量级的本地推理工具,主要用于运行 AI 模型。它允许用户在本地设备上运行和交互基于大语言模型(LLM)的应用,而无需依赖云服务。这种工具的主要优势是隐私保护和低延迟,尤其适合那些需要处理敏感数据或希望脱离互联网的场景。

以下是一些 Ollama 的关键特点:

  1. 离线运行:不需要连接云端,完全本地推理。
  2. 支持多种模型:可加载不同的 LLM,例如一些开源的语言模型。
  3. 跨平台支持:通常支持在 macOS、Windows 和 Linux 等系统上运行。
  4. 用户友好:提供简洁的接口和配置,适合开发者和非技术用户。

Ollama官网

https://ollama.com/

Ollama Github地址

https://github.com/ollama/ollama

这里我以Windows为例,在本地部署一台AI模型平台

Windows 下载部署Ollama

1.下载 Ollama应用程序

Ollama下载地址

https://ollama.com/download

下载后会得到一个【OllamaSetup.exe】文件,双击运行安装【Install】即可,安装完成会提示Ollama running,你电脑右下角的状态栏里会有一个羊驼的logo

Ollama默认开机启动(几乎不会影响开机速度)

2.修改Ollama配置(可跳过)

【Ollama】大模型下载地址默认在C:\Users\用户名\.ollama\models

大模型的地址最好还是更改地址(毕竟真的很大,当然不改也可以)

修改Ollama模型下载地址

右击我的电脑点击【属性】或在设置中搜索【查看高级系统设置】点击,打开【系统属性】,然后点击【环境变量】,在下面的【系统变量】中点击【新建】添加下面这段话

变量名:OLLAMA_MODELS

变量值:H:\app\ollama\.ollama\models

变量名不能变,变量值为你想要存放ollama 模型的地址

1

配置完成可打开【cmd】命令行窗口查看,输入

echo %ollama_models%

出现刚刚配置的路径就是正确情况

修改Ollama默认端口号

Ollama默认在11434端口运行

在【环境变量】的【用户变量】中添加

变量名:OLLAMA_HOST

变量值::114344

设置成功后访问http:\\127.0.0.1:114344屏幕上会出现【Ollama is running】字样

3.下载Docker

问什么要下载Docker,不下载docker也是可以使用Ollama的是不过大多是在【PowerShell】这样的命令行窗口内(像这样的可以直接看下面下载Ollama大模型),下载Docker后可以使用其的WebUI,官方也是推荐这样,下面我们开始安装Docker。

下载docker桌面端
  • 打开windows子系统

点击键盘【win】键,搜索打开【控制面板】,点击【程序】,然后再点击【启用或关闭Windows功能】,下拉到底下找到【适用于Linux的Windows子系统】,点击选上后点【确定】。功能启动需要重启后启用

重启前先点赞收藏下呗,万一找不到该咋办 ^_^

  • 先确保wsl2更新至最新

查看wsl2版本

wsl --version

如果不是可使用wsl --update进行更新

wsl --update

也可手动安装前往WSL下载

  • 下载docker

前往docker 官网下载Windows桌面版

https://www.docker.com/products/docker-desktop/

下载好后会提醒重启电脑

还是那就话:重启前先点赞收藏下呗,万一找不到该咋办 ^_^

  • 配置docker resources(可选)

配置resources地址会改变images下载的位置

打开Docker桌面版(一般会提醒你登录,其实不登录也可以使用),点击右上角的【设置】图标,再点击【Resources】就会看到当前images下载位置,你可点击【Browse】进行更改

Docker 默认是双击就启动,启动后在屏幕右下角状态栏可看到

  • 拉取并运行Ollama镜像

拉取并运行只需要这一段程序即可

打开【cmd】输入

docker run -d -p 9876:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

使用9876端口作为WebUI入口,可修改;-v为日志输出路径,可修改;--name后为镜像名字,可修改;--restart为开启自启动

启动成功后访问http:\\127.0.0.1:9876可以看见

2

默认为登录页面我这是注册登录过后的

4.下载Ollama大模型并使用

前往 Ollama Lib 下载

https://ollama.com/library

点击你想下载的大模型,我这里以llama3.2为例

PowerShell下载(不推荐)

3

复制ollama run llama3.2在powershell中运行即可,下载成功就可以访问了

Docker下载

打开上述的http://127.0.0.1:9876页面
4
5
下载完成后,回到主页【点击新对话】就可以使用了

在这里插入图片描述

### 本地部署Ollama并使用Rerank模型的教程 #### 配置Ollama本地环境 为了在本地环境中成功部署Ollama,需先安装其依赖项并完成基础设置。Ollama是一个轻量级工具,用于管理和运行大型语言模型(LLMs),它支持多种架构和模型类型[^1]。以下是具体的配置方法: 1. 安装Ollama客户端:可以通过官方文档中的命令行指令来下载最新版本的二进制文件,并将其添加到系统的PATH变量中。 ```bash curl https://ollama.ai/install.sh | sh ``` 2. 下载所需的模型权重:Ollama允许用户从远程仓库拉取预训练好的模型实例。例如,Llama系列或其他社区贡献的变体均可作为候选。 ```bash ollama pull llama2 ``` 3. 启动服务端口监听:启动后的Ollama将以REST API的形式对外提供接口调用功能,便于后续与其他组件交互操作。 ```bash ollama serve ``` 以上步骤完成后即可初步搭建起一个可用的基础平台框架结构[^2]。 #### 整合Rerank模型于Dify之中 当Ollama已经就绪之后,则可以进一步探索关于如何引入重排序机制以增强检索质量这一话题。通常来说,在实际应用场景下往往需要结合向量数据库以及相应的相似度计算逻辑共同作用才能达到理想效果。具体做法如下所示: - **定义嵌入函数**:利用已加载完毕的语言理解能力生成高质量文本表示形式供下游任务消费使用; - **执行初次筛选过程**:依据输入查询串快速定位可能匹配的目标集合范围; - **实施二次精排策略**:借助专门设计过的评分公式重新调整候选项顺序列表位置关系直至最终呈现给终端使用者为止。 值得注意的是,整个流程里涉及到多个关键技术点均有可能影响整体性能表现水平高低差异情况存在因此建议开发者们根据各自项目实际情况灵活调整参数设定数值大小等等细节方面内容以便获得最佳用户体验感受体验[^1]。 ```python import requests def get_reranked_results(query, top_k=5): # Step 1: Generate embeddings using the embedding model. response = requests.post( "http://localhost:11434/api/generate", json={"model":"embedding_model_name","prompt":query} ) query_embedding = response.json()["embeddings"] # Step 2: Perform initial retrieval with vector database (e.g., Pinecone or Milvus). db_response = search_vector_db(query_embedding=query_embedding,top_n=top_k*2) # Step 3: Apply Reranking logic based on custom scoring function. ranked_items = apply_custom_scoring(db_response["results"]) return ranked_items[:top_k] # Example Usage of Function Defined Above Here... print(get_reranked_results("What is machine learning?")) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值