本文将介绍如何使用ollama实现对开源大模型的本地化部署,让每个有技术能力的企业都可以“套壳”大模型,在各自的专业领域内“遥遥领先“。在本案例中我将使用两个开源的软件:
-
ollama:是一个轻量级可扩展的框架,它可以轻易地帮你管理本地的众多开源大模型,并支持众多的开源大模型,包括llama 2 、gemma、codegemma、Mistral等,并允许用户自定义和创建自己的模型。
-
open-webui:是一个开源的Web界面,用于同各种大语言模型进行交互,并可以同ollama所管理的大语言模型进行快速集成。它提供了一个用户界面,允许用户输入prompt指令,并获得所选择模型生成的响应,由于本地化部署,其返回的结果和人工反馈又可以做为人工标注的数据,对开源大模型进行微调和强化学习用的训练数据。
本文主要介绍如下内容:
-
安装ollama
-
选择并安装大模型
-
安装Open-WebUI
-
测试大语言模型效果
-
大语言模型优化
安装Ollama
首先,打开Ollama的官方网站(https://ollama.com/download),如下图所示,选择自己操作系统版本即可:

下载完成之后,双击安装,安装完成之后会在Mac上看到如下的图标,代表安装完成:

选择并安装大模型
在Ollama的官方网站有一个Models菜单,如下图所示:

点击即可看到Ollama所支持的所有大模型列表,这里的下拉列表有很

最低0.47元/天 解锁文章
5396

被折叠的 条评论
为什么被折叠?



