- 博客(8139)
- 资源 (18)
- 收藏
- 关注
原创 在 Nextcloud 中设置仅组内分享
在 Nextcloud 中设置组内分享,可以通过以下步骤实现:如果需要更灵活的组内文件管理,可以使用“组文件夹”应用:
2025-04-01 16:54:06
98
原创 python pymysql报错:pymysql.err.OperationalError: (1130, “host.docker.internal‘ is not allowed to conne
主机名连接MySQL时被拒绝,原因是MySQL服务器未授权该主机访问。这个错误表明您的Python脚本尝试通过。若仍失败,尝试直接使用宿主机IP替代。,并检查DNS解析是否正常。
2025-04-01 15:09:16
497
原创 python3.6使用mysql-connector-python报错:SyntaxError: future feature annotations is not defined
方案适用场景操作难度稳定性升级Python长期项目中等高降级驱动版本紧急修复低中修改库代码临时测试低低更换驱动灵活调整低高推荐优先级方案一 > 方案四 > 方案二 > 方案三。
2025-04-01 13:39:35
211
原创 linux centos7 在线升级glibc:解决报错 /lib64/libm.so.6: version ‘GLIBC_2.29‘ not found
出现错误的原因是 CentOS 7 系统的 GLIBC 版本较低,而你尝试运行的 SQLite3 程序依赖于更高版本的 GLIBC。
2025-04-01 11:29:28
336
原创 Linux centos7 离线环境快速安装 SQLite3 的二进制版本(无需编译和额外下载)
使用 U 盘或其他存储设备,将下载好的二进制文件传输到离线的 CentOS 7 机器上。下载适用于 Linux 的预编译二进制文件。,这是一个包含命令行工具的 64 位二进制包。如果安装成功,会显示 SQLite 的版本号。命令行工具复制到系统的可执行路径中。
2025-04-01 10:15:41
195
原创 Dify知识库对文档上传的限制及要求:文档数量、单文件大小上限
支持格式包括TXT、Markdown、PDF、HTML、DOCX、CSV等。支持批量上传,具体批量数量上限取决于订阅计划。例如,免费版可能限制单次批量上传数量,企业版可放宽限制。支持集成ETL服务(如Unstructured服务)以解析复杂格式,例如EML、MSG、PPTX等。对于需要更大容量的场景,可通过创建多个知识库并整合使用。从Notion或网页同步数据时,需关注API速率限制,避免高频请求触发配额问题。超过15MB的文档建议使用“父子分段”模式,避免因长文本分段不当影响检索效果。
2025-03-31 17:00:03
329
原创 解决Nextcloud新建用户默认语言是英文且默认地区是美国的方法
地区缩写查看网址:https://github.com/moment/moment/tree/develop/locale。语言缩写查看网址:https://www.transifex.com/explore/languages/PS: 如果上述方法设置后没有生效,请进入下面网址查看对应的缩写。我们在服务器上部署Nextcloud后,默认新用户的语言和地区也是英文和美国。进入网站根目录下的config文件夹。下面介绍一下如何修改默认设置。在末尾追加两行配置信息。默认的界面语言是英文,
2025-03-31 15:41:31
91
原创 QAnything README
知识库数据量大的场景下两阶段优势非常明显,如果只用一阶段embedding检索,随着数据量增大会出现检索退化的问题,如下图中绿线所示,二阶段rerank重排后能实现准确率稳定增长,即数据越多,效果越好。QAnything使用的检索组件强大的双语和跨语种语义表征能力【基于MTEB的语义表征评测指标基于LlamaIndex的RAG评测,表现SOTA【基于LlamaIndex的RAG评测指标。
2025-03-31 09:59:32
691
原创 QAnything FAQ: 使用ollama本地服务时问答效果不佳
【代码】QAnything FAQ: 使用ollama本地服务时问答效果不佳。
2025-03-31 09:50:31
614
原创 AIGC和AGI介绍
AIGC(Artificial Intelligence Generated Content,人工智能生成内容)是指利用人工智能技术自动生成各种类型的内容,包括文本、图像、音频、视频等。AIGC通过深度学习、自然语言处理(NLP)、计算机视觉等技术,使机器能够理解、生成和优化内容,从而在内容生产过程中实现自动化和智能化。它基于生成对抗网络(GAN)、大型预训练模型等技术方法,通过已有数据的学习和识别,以适当的泛化能力生成相关内容。
2025-03-31 09:48:43
461
原创 网易有道开源本地知识库问答系统 QAnything 介绍及本地部署
(Embedding + Rerank),能有效提升大规模数据检索的准确率,数据量越大效果越好。此外,QAnything 支持跨语种问答(中英文混合问答),并可通过私有化部署保障数据安全,适用于企业级应用和个人知识库管理。QAnything 是由网易有道推出的开源本地知识库问答系统,基于 RAG(检索增强生成)技术开发,支持多种文件格式(如 PDF、Word、PPT、图片、网页链接等)的离线问答。服务启动后,浏览器访问。即可上传文件并提问。
2025-03-31 09:40:26
531
原创 A卡和N卡介绍
A卡和N卡是两大主流显卡品牌,分别由AMD和NVIDIA公司生产,它们在架构、性能、技术、功耗、价格等方面存在诸多区别,以下是详细介绍:
2025-03-31 09:38:02
123
原创 能够在旧版win10上运行的obs studio 25.0.8绿色版下载地址
obs studio 25.0.8版本解决了很多随着win10。到win11后的系列问题,没办法,只能回退到老版本。
2025-03-29 12:48:47
160
原创 Doris 配置解释:(replication_allocation = “tag.location.default: 1“)
是一个与数据副本分配策略相关的参数,用于指定默认资源组(在 Apache Doris 或类似分布式数据库系统中,)中数据副本的数量。
2025-03-28 15:55:59
129
原创 Doris 参数查看及启用:enable_disk_balance_for_single_replica(同一个 BE 节点的不同磁盘间数据均衡)
在 Apache Doris 中,所有前端(FE)的配置参数均可通过 MySQL 客户端登录后执行命令查看。
2025-03-28 15:52:36
267
原创 Doris BE节点数据分布不均的解决方案
BE节点数据分布不均的解决需结合参数调优、分区分桶设计、异常处理及监控策略。重点关注分桶列的合理选择、自动分桶功能的应用,以及均衡任务的执行效率。若问题复杂,建议结合日志分析和社区工具(如Doris健康检查脚本)进一步诊断。
2025-03-28 15:16:22
329
原创 PyTorch 深度学习框架学习建议
它的设计目标是让研究人员和开发者能够快速实验、灵活调整模型,同时支持高效的计算(如 GPU 加速)。PyTorch 的代码风格接近 Python 原生语法,因此对新手友好,适合从学术研究到工业落地的多种场景。PyTorch 的 API 设计简洁,与 Python 的语法高度兼容。例如,你可以像操作 NumPy 数组一样处理 PyTorch 的“张量”(Tensor),但张量还支持 GPU 加速计算。模块能自动计算梯度(导数),省去了手动推导复杂数学公式的麻烦,让反向传播(优化模型参数的核心步骤)变得简单。
2025-03-28 14:15:26
781
原创 llama.cpp 和 Ollama 的对比
选择 llama.cpp:若需要极致性能、硬件深度优化或企业级定制开发。选择 Ollama:若追求易用性、快速部署或个人学习场景。两者并非互斥,可结合使用:例如用 llama.cpp 训练或量化模型,再通过 Ollama 部署为服务。
2025-03-28 14:08:03
297
原创 使用 llama.cpp 实现从 PyTorch 到 GGUF 的格式转换与量化
量化可显著缩小模型体积,但会损失一定精度。根据需求选择合适的量化类型(如。确保 PyTorch 模型以标准格式保存(如包含。的完整目录),通常通过。
2025-03-28 13:56:42
430
原创 vLLM 和 Xinference、Ollama 对 .safetensors 和 .gguf 格式的支持对比
格式的模型加载(尤其是 Transformer 架构的模型)。文件的目录,例如将 Lora 微调后的适配器与基础模型结合使用。例如,在 CPU 或 Apple M 芯片上运行时,Xinference 可通过内存映射(mmap)高效加载量化后的。例如,在 AMD GPU 上使用 ROCm 后端时,vLLM 能高效运行量化后的。Xinference 通过集成 Hugging Face 生态,默认支持。命令,并指定模型路径。显式指定格式,并搭配对应的量化参数(如。直接加载此类文件,例如在部署时使用。
2025-03-28 13:52:16
348
原创 LLM 大模型 .safetensors 与 .gguf 格式详解及 llama.cpp 将 PyTorch 模型转换为 GGUF
两者各有侧重:Safetensors 强调安全与轻量,GGUF 侧重性能与跨平台。开发者可根据部署环境和模型规模灵活选择。
2025-03-28 13:49:58
485
原创 python pip install ray[default] 和 pip install ray 的区别
仅包含最小依赖,可能缺少部分高级功能所需的库(如 Dashboard 的 Web 界面依赖、GPU 加速库等)。若后续需要扩展功能,需手动安装额外依赖。),包括基础的分布式任务调度、Actor 模型和对象存储等基本功能。适合只需要基础分布式计算能力的场景,例如简单的任务并行化或单机测试。安装完整功能包,包含 Ray 核心模块。仅安装 Ray 的核心模块(,除非明确需要最小化安装。
2025-03-28 13:34:10
407
原创 vLLM 多机多卡场景集成 Ray
优势:无需额外配置,vLLM 内部处理多卡并行 17106。2. 多机多卡场景:需独立部署 Ray 集群适用条件:模型需跨节点部署(如流水线并行或混合并行)。关键步骤:安装 Ray:启动 Ray 集群:头节点:工作节点:启动 vLLM 服务:注意事项:网络配置:需指定通信网卡(如 )以优化跨节点通信 163。资源分配:需通过 Ray 的 Placement Group 显式分配 GPU,避免资源冲突 244。版本兼容性:vLLM 与 Ray 版本需匹配,部
2025-03-28 10:54:02
305
原创 Ray 介绍:开源的大模型分布式计算框架
Ray 凭借其灵活的分布式抽象高效的资源调度和强大的生态兼容性,成为 AI 和大数据领域的关键基础设施。无论是单机开发还是千节点集群,Ray 均能通过统一 API 简化复杂性,是未来十年值得关注的核心计算框架之一。对于开发者而言,掌握 Ray 意味着能够更高效地应对从实验到生产的全链路挑战141150。
2025-03-28 10:49:57
824
原创 通过 vLLM 整合多台PC的显卡资源运行本地大模型(多机多卡)
是整合多台PC显卡资源的首选工具,其分布式架构、生产级优化和成熟生态(如 Ray 和 Docker)能有效解决跨节点部署的复杂性问题。若需快速验证,可参考。根据你的需求(整合多台PC的显卡资源运行本地大模型),
2025-03-28 10:46:20
573
原创 关于 vLLM 和 Xinference 对本地模型的分布式部署支持说明
(张量并行)实现多GPU分布式推理,适用于大模型(如 Qwen2-72B)的本地部署。,可通过 Kubernetes 或 Docker Swarm 扩展,适合大规模生产环境。Xinference 支持。
2025-03-28 10:08:13
535
原创 Dify/FastGPT/RagFlow 分别通过 vLLM 和 Xinference 接入本地模型
vLLM 是一个高性能的 LLM 推理引擎,支持本地模型的低延迟、高吞吐部署。Xinference 是一个支持分布式推理的框架,适合多模型管理和异构硬件环境。重启 FastGPT 服务生效。
2025-03-28 10:01:58
428
原创 NVIDIA 显卡命名规则解读及 RTX 4090 与 RTX 4090D 的区别
RTX 4090 和 RTX 4090D 是 NVIDIA 基于。NVIDIA 显卡型号由。
2025-03-28 09:57:53
660
Spring security+jwt服务鉴权完整代码.zip
2019-09-09
spring boot发送普通文本邮件/HTML邮件/附件邮件/图片邮件完整代码.zip
2019-09-03
spring mvc 4+mybatis 3+bootstrap+逆向工程+分页插件实现增删改查完整项目源码
2018-07-01
Premiere CS4教程——制作一个简单的相册
2013-03-17
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人