在本地部署LobeChat

LobeChat是一个开源的、现代设计的 ChatGPT/LLM UI/框架。支持语音合成、多模态和可扩展(函数调用)插件系统。一键免费部署您的私人 OpenAI ChatGPT/Claude/Gemini/Groq/Ollama 聊天应用程序。

一:实现对本地大语言模型的支持

实现对以下模型服务提供商的支持:
1、AWS Bedrock:集成 AWS Bedrock 服务,支持 Claude/LLama2 等模型,提供强大的自然语言处理能力。
2、Anthropic (Claude):接入 Anthropic 的 Claude 系列机型,包括 Claude 3 和 Claude 2,在多模态能力和扩展上下文方面取得突破,树立了新的行业标杆。
3、Google AI(Gemini Pro、Gemini Vision):访问 Google 的 Gemini 系列型号,包括 Gemini 和 Gemini Pro,以支持高级语言理解和生成。
4、Groq:访问 Groq 的 AI 模型,高效处理消息序列并生成响应,能够进行多回合对话和单次交互任务。
5、OpenRouter:支持Claude 3、Gemma、Mistral、Llama2、Cohere等机型路由,智能路由优化提升使用效率,开放灵活。
6、01.AI(Yi Model):集成 01.AI 模型,具有快速推理速度的一系列API,不仅缩短了处理时间,还保持了出色的模型性能。
7、Together.ai:Together Inference API 提供了 100 多个领先的开源聊天、语言、图像、代码和嵌入模型。对于这些型号,您只需按实际使用量付费。
8、ChatGLM:新增直普艾ChatGLM系列机型(GLM-4/GLM-4-vision/GLM-3-turbo),为用户提供了另一种高效的对话模式选择。
9、Moonshot AI (Dark Side of the Moon):与来自中国的创新型 AI 初创公司 Moonshot 系列模型集成,旨在提供更深入的对话理解。

二:模型视觉识别

LobeChat 现在支持 OpenAI 最新的 gpt-4-vision 模型,具有视觉识别功能, 一种可以感知视觉效果的多模态智能。用户可以轻松地将图像上传或拖放到对话框中, 代理将能够识别图像的内容,并在此基础上进行智能对话, 打造更智能、更多样化的聊天场景。
此功能开辟了新的交互方式,使交流能够超越文本并包含丰富的视觉元素。 无论是在日常使用中共享图像,还是在特定行业中解释图像,代理都能提供出色的对话体验。

三:TTS & STT 语音对话

LobeChat 支持文本转语音 (TTS) 和语音转文本 (STT) 技术,使我们的应用程序能够将文本消息转换为清晰的语音输出, 允许用户与我们的对话代理进行交互,就好像他们正在与真人交谈一样。用户可以从各种语音中进行选择,以便与代理配对。

此外,TTS 为那些喜欢听觉学习或希望在忙碌时接收信息的人提供了一个出色的解决方案。 在LobeChat中,我们精心挑选了一系列高质量的语音选项(OpenAI Audio,Microsoft Edge Speech),以满足来自不同地区和文化背景的用户的需求。 用户可以选择适合个人喜好或特定场景的语音,从而获得个性化的通信体验。

四:文本到图像生成

通过支持最新的文本到图像生成技术,LobeChat 现在允许用户直接在与代理的对话中调用图像创建工具。通过利用 DALL-E 3、MidJourney 和 Pollinations 等 AI 工具的功能,代理现在可以将您的想法转化为图像。

这实现了更加私密和身临其境的创作过程,允许将视觉叙事无缝集成到您与代理的个人对话中。

五:插件系统(函数调用)

LobeChat的插件生态系统是其核心功能的重要扩展,大大增强了LobeChat助手的实用性和灵活性。

六:本地部署LobeChat

安装pnpm

#安装pnpm
curl -fsSL https://deb.nodesource.com/setup_18.x | sudo -E bash - && apt-get install -y nodejs

#安装pnpm
npm install pnpm -g

克隆代码并安装

$ git clone https://github.com/lobehub/lobe-chat.git
$ cd lobe-chat
$ pnpm install
$ pnpm dev

七:本地安装Ollama

1、安装ollama
curl -fsSL https://ollama.com/install.sh | sh

2、运行ollama

因为我们使用简体中文的原因,所以大模型选择了通义千问,当然也可以使用moonshot。如果使用英文,也可以选openai。运行如下:

ollama run qwen:4b

八:配置LobeChat

在lobechat设置里面,选择语言模型。配置openai,因为ollama支持openai的api格式,所以这里可以直接填写通义千问的参数:

OpenAI API Key:输入123(随便输入)
接口代理地址:http://localhost:11434/v1
模型列表:qwen:4b(或7b,14b,32b,72b,根据自己显卡的能力选择相应模型)。

然后在默认助手那里,选择默认的大模型,如下图:

九:访问页面

http://localhost:3010

注意:localhost要换成服务器的具体IP地址。 

### 安装和配置LobeChat于极空间NAS设备 #### 准备工作 为了确保顺利安装并运行 LobeChat 应用程序,在开始之前需确认极空间 NAS 设备满足最低硬件需求以及网络连接正常。此外,建议提前备份重要数据以防万一。 #### 环境准备 由于 LobeChat 是基于现代化设计的开源 ChatGPT/LLMs 聊天应用与开发框架[^1],因此需要先在极空间 NAS 上准备好相应的依赖环境。通常这涉及到 Docker 的安装和支持,因为许多此类应用程序会通过容器化的方式部署来简化管理流程。 对于极空间 NAS 来说,可以通过其内置的应用商店查找并安装最新版本的 Docker Engine 或者直接下载官方提供的适用于 ARM 架构(如果适用)或其他对应架构的镜像文件手动完成安装过程。 #### 下载与解压 获取到适合目标平台使用的 LobeChat 发布包之后,将其上传至 NAS 中指定目录下并通过 SSH 登录终端执行命令来进行解压缩操作: ```bash tar -zxvf lobe-chat-vX.X.X-linux-arm64.tar.gz -C /path/to/installation/ ``` 这里假设所处的操作系统为 Linux 平台且 CPU 类型属于 arm64 架构;`vX.X.X` 表示具体的版本号,请替换为实际数值;最后的部分则是自定义的目标位置路径。 #### 修改配置文件 进入刚刚创建好的项目根目录内找到名为 `config.example.yaml` 的模板文档,并复制一份重命名为 `config.yaml` 作为正式生效版。编辑此 YAML 文件调整必要的参数选项比如监听地址、端口号等以适应本地网络状况和个人偏好设定。 #### 启动服务 当一切就绪后就可以尝试启动 LobeChat 了。一般情况下只需简单输入如下指令即可让后台进程自动接管后续事宜: ```bash ./lobe_chat serve & ``` 上述步骤完成后应该就能成功访问由自己架设起来的专属聊天机器人界面啦!
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

BBM的开源HUB

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值