文章目录
前言
今天和大家分享一下如何在本地安装Llama3.1大模型,并通过LobeChat可视化UI界面实现公网远程访问。这款强大的开源语言模型不仅支持八种语言,还具备通用知识、数学计算、多语言翻译和工具使用能力。
利用LobeChat的可视化用户界面,用户可以直接在网页上与Llama进行交互。接下来,本文将指导你如何进行这一过程。
【视频教程】
Windows系统电脑本地部署Llama3.1AI大模型并实现异地远程使用
1. 本地部署Llama3.1
本地电脑硬件要求:
Windows:3060以上显卡+8G以上显存+16G内存,硬盘空间至少20G
Mac:M1或M2芯片 16G内存,20G以上硬盘空间
本篇文章测试环境:Windows10专业版
首先需要安装Ollama客户端,来进行本地部署Llama3.1大模型
下载地址:https://ollama.com/download
在下载页面点击Windows,然后点击下载按钮。
下载完成后,双击下载的安装程序。
点击Install进行安装。
安装完成后,双击ollama客户端自动打开Windows Power Shell,如果没有自动弹出,也可以手动打开cmd,这里打开cmd为例:
我们在终端中输入ollama
,它会显示出当前这款ollama程序,它的使用及安装命令
接下来继续在终端中安装Llama3.1-8b(至少需要8G显存)
ollama run llama3.1:8b