- 博客(7)
- 收藏
- 关注
原创 AnythingLLM接入硅基流动的API
访问 SiliconFlow 官网:https://cloud.siliconflow.cn/i/24s1PqPc。配置相关内容,Base URL选择硅基流动的URL地址,APIKEY申请一下,模型名根据你选定的模型填写。下载安装AnythingLLM,登录进来,点击设置,选择LLM提供商。回到我们硅基流动官网,发现我们token值发生了变化,说明调用成功。添加成功后,在工作区聊天设置这边选择刚刚添加的供应商模型。新建APIkey和获取模型名。代理配置区也进行更新,同上。自此工作区模型更新成功。
2025-02-23 20:40:17
873
原创 操作系统采用源码部署openwebui
问题分析,OpenWebUI 需要的 Node.js 版本是 >=18.13.0 <=22.x.x,而你当前的 Node.js 版本是 v12.22.9,不满足要求。而我这边 npm 版本是 8.5.1,虽然满足要求,但 Node.js 版本过低导致整个安装失败。没报apt_pkg模块不存在错误后,出现新的问题,没找到openwebui,这时候我们pip list |grep open-webui查看发现库不存在,执行pip install open-webui安装库。配置环境变量(根目录下)
2025-02-20 12:37:50
1701
原创 JetBrains 全系列的 IDE接入deepseekAI模型教程
Tip:这里我演示PyCharm和IDEA的接入过程,其他应用接入过程相同,可照搬。
2025-02-13 16:18:00
1321
原创 【程序员必备小技巧】vscode接入deepseek大模型
到这一步模型都以及部署完成了。接下来我们进行运行测试,由于我选择的是本地部署的AI,所以有点吃GPU,这点根据自己选择变更。工具选择完后,选择ollama里面的模型,这边简易选择Autodetect,自动匹配工具里的模型。当然也可以自己选择。点击进去后在输入框的左下角我们选择自己所需要的模型,我这边选择的是本地部署的ollama模型,实现全面离线化。根据自己的需求选择不同的插件,我这边选择的是Continue,如下图所示。插件安装完成后可以在左侧栏看到Continue图标,点进去。
2025-02-12 14:36:31
1292
原创 【小妙招】WPS接入deepseek大模型,10min速成
访问OfficeAI插件下载地址:https://www.office-ai.cn/,下载插件(目前只支持windows系统)。安装插件:下载完成后,双击安装文件,按照提示完成安装。在安装过程的弹窗中,确保已勾选需要的所有功能,如“文生图”功能。打开DeepSeek官网:https://www.deepseek.com/。登录账号:点击右上角的“API开放平台”,登录账号(如果没有账号,先注册一个)。创建API Key:登录成功后,点击左侧的“API Keys”,然后点击“创建API Key”,输入一个名称
2025-02-11 16:24:15
10866
原创 deepseek离线本地化部署
下载完成后,双击安装包文件,按照安装向导的提示进行安装。默认安装路径为 C:\Users\<用户名>\AppData\Local\Programs\Ollama,如果需要更改安装路径,可以在安装过程中选择自定义安装目录。安装完成后,按下 Win+R 键,输入 CMD 并回车,打开命令提示符。在命令提示符中输入 ollama -v,如果显示 Ollama 的版本号(如 0.5.7),则说明安装成功。进入ollama官网下载模型选择适配你电脑的模型。参考下方表格671B1400GB全方位高性能70B。
2025-02-10 14:55:50
2366
原创 公众号接入Deepseek
"wechatmp_app_secret": "your_wechatmp_app_secret", // 微信公众平台App Secret。"group_name_white_list": ["ChatGPT测试群", "ChatGPT测试群2"], // 支持的群名称。"wechatmp_app_id": "your_wechatmp_app_id", // 微信公众平台App ID。
2025-02-08 18:58:41
1133
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人