使用Ollama本地部署 Llama3大模型!最简单的方法,无需GPU也能使用

前言

开源大模型领域当前最强的无疑是 LLaMA 3!Meta 这次不仅免费公布了两个性能强悍的大模型(8B 和 70B),还计划发布一个可以与 GPT-4 对打的 400B 模型。今天,我们将介绍一种简单易懂的本地部署方法,非常适合新手!

一、安装Ollama客户端

首先我们需要安装ollama客户端程序,下载地址:【点击跳转】
在这里插入图片描述

进入界面点击下载,不同的操作系统选择不同的版本
下载成功后,直接点击安装
安装成功后可以在控制台直接运行:

ollama --help

Large language model runner

Usage:
  ollama [flags]
  ollama [command]

Available Commands:
  serve       Start ollama
  create      Create a model from a Modelfile
  show        Show information for a model
  run         Run a model
  pull        Pull a model from a registry
  push        Push a model to a registry
  list        List models
  cp          Copy a model
  rm          Remove a model
  help        Help about any command

Flags:
  -h, --help      help for ollama
  -v, --version   Show version information

Use "ollama [command] --help" for more information about a command.

二、安装webUI

LLaMA 的一个开源的 WebUI,用于本地部署和管理 LLaMA 模型。它提供了一种简单易用的界面,使开发者可以在本地机器上运行 LLaMA 模型,并对其进行配置和使用。

1、安装Docker Desktop

这里我们通过docker来安装WebUI,关于docker的安装
可以使用Docker Desktop,下载地址:【点击跳转】

在这里插入图片描述
根据不同的操作系统进行下载,然后进行安装,安装成功,在控制台运行:

docker --help

Usage:  docker [OPTIONS] COMMAND

A self-sufficient runtime for containers

Options:
      --config string      Location of client config files (default
                           "/Users/lihao/.docker")
  -c, --context string     Name of the context to use to connect to the
                           daemon (overrides DOCKER_HOST env var and
                           default context set with "docker context use")
  -D, --debug              Enable debug mode
  -H, --host list          Daemon socket(s) to connect to
  -l, --log-level string   Set the logging level
                           ("debug"|"info"|"warn"|"error"|"fatal")
                           (default "info")
      --tls                Use TLS; implied by --tlsverify
      --tlscacert string   Trust certs signed only by this CA (default
                           "/Users/lihao/.docker/ca.pem")
      --tlscert string     Path to TLS certificate file (default
                           "/Users/lihao/.docker/cert.pem")
      --tlskey string      Path to TLS key file (default
                           "/Users/lihao/.docker/key.pem")
      --tlsverify          Use TLS and verify the remote
  -v, --version            Print version information and quit
  ........

说明已经安装成功

2、安装webUI

webUI项目地址:【点击跳转】
如果使用docker安装命令如下:

CPU版本:

docker run -d -p 5001:8080 --add-host=host.docker.internal:host-gateway -v /your/data/path:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

GPU版本:

docker run -d -p 5001:8080 --gpus=all -v your/ollama/path:/root/.ollama -v your/data/path:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

请注意上面挂载本地目录时,选择你本地实际的目录

由于我再MacOS上测试,这里用不了GPU版本,使用的是CPU版本,安装成功我们可以直接访问:http://localhost:5001

在这里插入图片描述
这里点击【sign up】随便输入你的邮箱和密码进行注册

登录进入主界面
在这里插入图片描述
这里全是英文,我们可以设置中文

3、设置语言

具体步骤:
在这里插入图片描述

点击齿轮
在这里插入图片描述

然后选择中文

4、下载模型

同样点击右上角的设置按钮

在这里插入图片描述
这里如果不清楚具体模型,可以点击下面的:点击这里,也可以通过下面网站来查看具体的模型。模型网址:【点击跳转】
这里我选择安装,如下:
在这里插入图片描述
大家可以根据自己电脑的配置情况进行下载
在这里插入图片描述
下载完成后重新启动webUI
回到主界面,就可以选择模型了,如下:
在这里插入图片描述

搭建完毕


总结

如果想深度使用Llama3,还是准备一个好的GPU环境来测试,CPU环境下还是很吃力。

### Ollama 本地部署教程 #### 安装准备 为了顺利安装和使用 Ollama,在开始之前需确认环境满足最低需求。通常情况下,Ollama 支持多种操作系统,包括 Linux, macOS 及 Windows 的 WSL (Windows Subsystem for Linux)[^1]。 #### 执行安装脚本 最简便的方式是通过官方提供的单行命令来完成安装过程: ```bash curl -fsSL https://ollama.com/install.sh | sh ``` 这条命令会自动下载并设置好所需的一切组件[^4]。 #### 启动服务 一旦安装完毕,可以通过简单的命令启动 Ollama 服务: ```bash ollama start ``` 当看到提示 `ollama is running` 即表示安装成功,并可以在其他工具如 maxkb 中配置 Ollama大模型[^3]。 #### 使用方法概览 ##### 加载预训练模型 Ollama 提供了一系列预训练好的大型语言模型可以直接加载使用,比如 Llama 2 或 Code Llama 等。这些模型能够处理自然语言理解、代码生成等多种任务[^2]。 ##### 创建自定义模型 除了现成的模型外,用户还可以根据具体应用场景定制化开发新的模型。可以采用 GGUF/pyTorch 或者 Safetensors 格式的权重文件来自建模型。 ##### 终端交互体验 借助于内置的支持功能,使用者能够在终端内直接开启与大模型之间的对话交流,实现即时反馈的效果。 ##### Web API 接口调用 对于希望集成到更复杂应用中的开发者来说,Ollama 还提供了一个 RESTful 风格的 Web API 来远程控制和服务请求,甚至可通过浏览器界面操作。 #### 注意事项 在整个过程中需要注意的是,尽管 CPU 上也能跑起大模型,但对于性能有一定追求的情况下建议配备 GPU 设备以获得更好的计算效率;另外就是确保网络连接稳定以便顺利完成初次资源获取以及后续更新维护工作。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

流年五十前

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值