慧星云+Chatbox :云上部署DeepSeek告别使用卡顿

DeepSeek 官网卡顿

DeepSeek 系列模型的现象级爆火,引发国内外广泛关注与讨论热潮,然而充满热情的使用者也让 DeepSeek 官网崩溃导致无法正常使用。

为了解决用户使用痛点,慧星云推出了云端蒸馏与满血版的 DeepSeek,搭配 Chatbox 客户端的极简操作界面,为更多用户提供了更加稳定、高效、易用的方案。

云端部署 更高效的选择

云端使用的步骤也十分简单:

image.png

下载 Chatbox AI

1.找到 Chatbox AI 官网(https://chatboxai.app/zh)并安装对应版本,也可以选择直接启动网页版使用。

未标题-1.png

使用自己的 API Key

jQuery.chatbox 说明文档 特性 1.轻量级动画特效以及友好的界面 2.支持多窗口 3.完善的回调函数以实现自定义功能 4.多种调用方式 4.良好的封装以及扩展性 5.每个聊天窗对象实例以data属性的形式附加在聊天窗DOM对象上(如果你想获得某个特定插件的实例,可以直接从页面元素中获取:$('{boxId}').data('chatbox')) 配置项 配置项分为全局配置项和实例配置项 全局配置项: 参数            类型           默认值                说明 ----------------------------------------------------------------------------------------------- id              number          null                  当前用户的id,也就是发送者的id,必须是唯一值 user            string          null                  发送者的显示名称,可以是昵称用户名等,不要求唯一 debug           boolean         false                 是否打开调试功能 idPrefix        string          'chatbox_'            生成页面DOM元素的id值 实例配置项: 参数            类型           默认值                说明 ----------------------------------------------------------------------------------------------- id              number          null                  接收者的id,同时也会作为实例id,必须是唯一值 user            string          null                  接收者的显示名称,可以是昵称用户名等,不要求唯一 title           string          'Chat with ' {user}   聊天窗的标题 回调函数 回调函数也分为两种,一种是全局回调函数另一种是实例回调函数。 但是有点Javascript基础的开发者应该了解不管是哪种类型的回调函数我们都应该以传递函数引用的方式来调用,而不是对每个实例创建一个函数副本。 这样会造成内存浪费。全局回调函数不会在实例化每个聊天窗对象时重复创建副本分配给每个对象实例,而实例回调函数会。 因此在不需要为每个独立的聊天窗分配不同的回调功能时使用实例回调函数也应该以传递函数引用的方式来分配回调函数以节省内存空间。 回调函数参考: 函数名                  参数       说明 ----------------------------------------------------------------------------------------------- onChatboxCreate                     创建聊天窗时触发 onChatboxEnable                     聊天窗被启用时触发 onChatboxDisable                    聊天窗被禁用时触发 onMessageSend           msg         发送消息时触发,唯一参数:消息内容msg onMessageReceive        msg         收到消息时触发,唯一参数:消息内容msg onMessageSystem         msg         收到系统消息时触发,唯一参数:消息内容msg onChatboxDestroy                    销毁聊天窗时触发 优先级:实例回调函数优先级高于全局回调函数,也就是说实例配置项中的回调函数会覆盖全局配置项中同名的回调函数。 this指针:this指针经由apply或者call方法已经指向调用该方法的实例。 API(属性和方法) 全局API: 属性/方法名       类型       参数          说明 ----------------------------------------------------------------------------------------------- globalOptions     属性        无           保存所有聊天窗的全局配置项 getQueue()        方法        无           返回当前聊天窗的实例队列 实例API: 属性/方法名       类型      参数              说明 ----------------------------------------------------------------------------------------------- $elem             属性        无              保存着当前聊天窗实例的jQuery对象 opts              属性        无              保存着当前聊天窗实例的初始化选项 show()            方法        无              显示聊天窗 hide()            方法        无              隐藏聊天窗 enable()          方法        无              启用聊天窗 disable()         方法        无              禁用聊天窗 message()         方法        msg,type        设置接收到的消息到聊天窗,两个参数:消息内容msg、消息类型type blink()           方法        无              高亮标题栏闪烁提示 destroy()         方法        无              无 调用方式 设定全局配置项: 直接定义配置对象globalOptions,未给定的配置项依旧会使用默认值并不会被该配置对象覆盖 $.chatbox.globalOptions = {     id:10000,     user:'Jason',     debug:true,     onChatboxCreate:function(){         //要执行的代码     } } 或者以附加属性的方式 $.chatbox.globalOptions.id = 10000; $.chatbox.globalOptions.user = 'Jason'; $.chatbox.globalOptions.onChatboxCreate = function(){     //要执行的代码 }; 初始化聊天窗: $.chatbox({     id:11254,     user:'Tony',     title:'Chat with Tony',     onChatboxCreate:function(){         //要执行的代码     } }); 调用API方法: 第一种调用方式 $.chatbox({instanceId}).message({message content}); 第二种调用方式 $({boxId}).data('chatbox').message({message content}); 标签:Chatbox
<think>好的,我需要帮助用户了解如何在本地部署集成Ollama和ChatboxDeepSeek模型。首先,我需要整理用户提供的引用内容,看看里面有哪些关键步骤。根据引用[2]和引用[3],部署过程大致分为三个步骤:安装Ollama、安装DeepSeek模型,以及配置Chatbox。 首先,安装Ollama。用户提到需要下载对应操作系统的安装包,然后运行安装程序。安装完成后,可能还需要验证是否安装成功,比如通过命令行输入ollama --version。接下来,安装DeepSeek模型,这里有不同的版本,如1.5B、7B、14B等。用户需要运行类似ollama run deepseek-r1:7b的命令来下载和安装模型。需要注意模型名称的正确性,避免输入错误。 然后是配置Chatbox。用户需要下载并安装Chatbox,然后在设置中选择API类型为Ollama,填写正确的接口地址http://localhost:11434,并输入对应的模型名称。同时,防火墙设置也很重要,确保端口11434开放,否则连接可能会失败。 可能还需要考虑不同操作系统下的具体步骤是否有差异,比如Windows和macOS在安装Ollama时的区别。另外,用户可能会遇到模型下载速度慢的问题,这时候可能需要检查网络连接或者使用镜像源。在配置Chatbox时,如果无法连接,可能需要检查Ollama服务是否正在运行,或者模型名称是否正确。 还需要提醒用户注意模型的版本选择,不同版本的模型对硬件资源的要求不同,比如较大的模型可能需要更多的内存和显存。如果用户遇到内存不足的问题,可能需要选择较小的模型版本,如1.5B或7B。 最后,生成相关问题时,需要覆盖用户可能关心的性能优化、应用场景以及常见问题解决方法,比如如何提升模型响应速度、适合的任务类型等。确保回答结构清晰,分步骤说明,让用户能够逐步跟随操作,避免遗漏关键细节。</think>### 如何在本地部署集成 Ollama 和 ChatboxDeepSeek 模型? 以下是分步部署指南,结合引用内容整理: #### 1. **安装 Ollama** - **下载安装包**:访问 [Ollama 官网](https://ollama.ai/) 下载对应操作系统的安装包(支持 Windows/macOS/Linux)[^2]。 - **运行安装程序**:安装完成后,Ollama 会默认启动后台服务,可通过命令行验证是否安装成功: ```bash
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值