
LLM
文章平均质量分 67
你喜欢喝可乐吗?
PersonalNotes
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Python脚本开发全流程指南:从基础结构到企业级部署
Python脚本开发全流程指南摘要 Python脚本开发涵盖环境配置、结构设计、功能实现、测试和部署全流程。环境搭建推荐Python 3.13+,使用venv隔离依赖,PyCharm或VS Code作为IDE。脚本结构应遵循PEP 8规范,采用模块化设计,通过if __name__ == "__main__"区分执行模式。核心功能包括argparse参数处理、pandas业务逻辑和异常处理。测试环节使用unittest框架,调试推荐ipdb工具。企业级部署可通过Docker容器化和Sup原创 2025-07-21 11:59:30 · 761 阅读 · 0 评论 -
Dify插件开发全解析:从环境搭建到代码实现
Dify插件开发全流程指南 本文系统介绍了Dify平台插件开发的完整流程。首先需要配置开发环境,包括安装Dify插件脚手架工具(支持Windows/Linux/macOS)和Python 3.12+环境。接着通过脚手架工具初始化项目,选择插件类型并配置权限。核心开发环节涉及继承Tool基类实现_invoke方法,支持文本、JSON等多种消息类型返回。完成开发后需配置测试环境,通过Dify获取调试Key进行验证,并检查日志排查问题。文章通过DeepSeek输出清洗插件的具体代码示例,展示了参数配置、功能实现和原创 2025-07-21 10:36:59 · 984 阅读 · 0 评论 -
ubuntu ollama 遇到的若干问题
本文介绍了在Linux服务器上重新安装Ollama的过程及遇到的问题。首先详细说明了卸载旧版本的步骤,包括停止服务、删除二进制文件、清除模型数据和用户组等。然后提供了两种安装方式:自动脚本和手动下载安装包。安装完成后,配置了系统服务以确保自动启动。文中重点记录了两个主要问题:1)端口11434被占用时的排查和解决方法;2)模型下载因网络问题超时的解决方案,建议使用国内镜像源(如DeepSeek官方镜像)并修改配置文件。还提供了相关参考链接,帮助用户实现Ollama模型的本地化部署。原创 2025-06-27 11:30:40 · 331 阅读 · 0 评论 -
在Ubuntu服务器上部署xinference
xinference 在服务器部署原创 2025-04-17 14:39:07 · 978 阅读 · 0 评论 -
dify通过查询数据库的数据来进行数据展示
dify平台查询数据库,deepseek原创 2025-04-16 12:08:38 · 941 阅读 · 0 评论 -
ragflow 默认端口被占用,更改端口号
需修改 docker-compose-gpu.yml 文件。(1)cpu部署的版本。(2)gpu部署的版本。原创 2025-03-21 18:32:34 · 719 阅读 · 0 评论 -
dify 默认端口被占用,更改端口号
【代码】dify 默认端口被占用,更改端口号。原创 2025-03-21 18:16:02 · 1299 阅读 · 0 评论 -
在 Ubuntu 中用 Docker 安装 RAGFlow
大模型、私有知识库、ragflow、docker、ubuntu原创 2025-03-20 14:34:07 · 731 阅读 · 0 评论 -
Windows 11 搭建私有知识库(docker、dify、deepseek、ollama)
在docker打开的前提下,在命令框中输入以下命令,将dify上传到docker。将下载的文件 Docker Desktop Installer.exe 安装,登录后,点击右上角头像 -> 设置,可参考以下图片添加模型。打开 Docker Desktop,可看到上传的镜像。将下载的文件 OllamaSetup.exe 安装。在该文件所在的文件夹下,鼠标右键点击 在终端中打开。请参考该文章内容自行探索dify的其他功能。下载文件的链接若打不开,请科学上网。浏览器登录,打开以下链接。找到该文件夹下的文件。原创 2025-02-13 10:25:06 · 1402 阅读 · 0 评论 -
ollama
ollama docker镜像地址。原创 2025-02-12 10:52:49 · 129 阅读 · 0 评论