- 博客(1520)
- 资源 (10)
- 收藏
- 关注
原创 mac怎么卸载office Powerpoint
摘要:本文提供了Mac系统下两种卸载Microsoft PowerPoint的方法。普通卸载方案(方法一)通过活动监视器终止进程后直接删除应用本体,不影响其他Office组件。深度清理方案(方法二)额外删除缓存、偏好设置等残留文件,并标注了共享数据目录的风险提示。文章还包含终端快捷命令、模板备份建议等实用技巧,针对不同卸载需求给出明确指引,特别强调了保留其他Office组件时的注意事项。(149字)
2025-11-11 21:35:59
498
原创 can‘t read /etc/apt/sources.list: No such file or directory
Docker构建错误解决方案 问题描述:构建Docker镜像时报错sed: can't read /etc/apt/sources.list,因为新版Debian已改用/etc/apt/sources.list.d/debian.sources格式。 解决方案: 使用条件判断兼容两种源文件格式 先检查传统sources.list是否存在 若不存在则修改新的debian.sources文件 统一替换为阿里云镜像源后执行安装 关键代码: RUN if [ -f /etc/apt/sources.list ];
2025-11-03 13:06:49
309
原创 安装docker依赖LibreOffice 很慢的问题应该怎么解决?
摘要:针对Docker中安装LibreOffice慢的问题,提供4种优化方案:A)改用国内镜像源并精简安装包;B)创建包含LibreOffice的基础镜像;C)挂载宿主机已安装的LibreOffice;D)仅安装必要组件。建议优先采用换源+基础镜像方案,避免每次构建都重装。关键是通过国内源加速下载和减少安装量来提升构建速度。
2025-11-03 13:03:11
593
原创 apt-get update 国内更新docker镜像卡死的解决办法
摘要:构建Docker镜像时卡顿的主要原因是默认访问国外Debian源下载大索引文件导致网络延迟。解决方案包括:1)替换为国内镜像源(如清华/中科大);2)如非必要可移除apt安装步骤;3)使用宿主机网络加速;4)预先构建带缓存的基础镜像。这些方法能有效解决因网络延迟导致的构建缓慢问题。
2025-11-02 10:28:32
519
原创 ImportError: libGL.so.1: cannot open shared object file: No such file or directory
摘要: Docker容器部署过程中出现worker服务启动失败问题。日志显示worker在加载PDF分割表格检测模块时出错,提示Volcengine SDK未安装(已改用HTTP方式调用API)。问题可能出现在依赖安装或模块导入环节,需要检查PDF相关工具库的安装情况及模块间的依赖关系。同时服务配置显示当前为开发环境(CODE_ENV=dev),建议核查开发环境配置文件是否正确加载。
2025-11-02 10:24:35
396
原创 什么是vllm_ascend
vLLM-Ascend是vLLM推理框架在华为昇腾NPU上的移植版本,旨在让昇腾910/910B等设备也能使用vLLM的高性能特性(如分页KV Cache、连续批处理)。该版本通过将CUDA后端替换为华为ACL/CANN实现,适配昇腾生态,支持GLM、Kimi等国产模型的高效推理。其典型应用场景是需要国产化替代又希望保留vLLM优势的环境,安装需配备昇腾NPU和CANN工具链。该分支持续跟进国产大模型发展趋势,为昇腾用户提供类似原版vLLM的体验。
2025-11-02 10:21:25
681
原创 麒麟V10的操作系统,启动redis报错
Redis 8.2.2启动时加载了多个模块(RedisBloom/RediSearch/RedisTimeSeries/ReJSON),但出现严重错误:"Fatal: Can't initialize Background Jobs. Error message: Operation not permitted"。同时还报告了两个警告:1)内存过度分配未启用,可能导致备份或复制失败;2)TCP backlog设置511无法生效,因系统参数somaxconn值较低。错误提示初始化后台作业时
2025-10-31 18:12:12
979
原创 怎么做一个应用测试:老外说中文说得准不准
本文系统介绍了中文口语自动评测(CAPT)的技术实现方案。核心采用标准文本与发音比对思路,通过ASR识别、强制对齐和音素比对计算发音准确度。特别针对中文特点,重点处理声母韵母混淆、声调识别等问题,并评估流利度和可理解度。文章推荐直接调用微软、阿里云等现成API实现快速部署,也详细讲解了自建系统的技术路线,包括ASR选型、对齐处理、GOP打分等关键环节。最后针对外语学习者提出优化建议,如母语特定错误模板、标准度与听懂度分离评估等,并给出FastAPI集成方案。全文提供了从理论到实践的完整技术实现指南。
2025-10-30 22:04:32
326
原创 怎么识别语音是不是孩子的声音的方法
摘要:语音年龄段识别可通过三种方式实现:1)直接调用云厂商API(如阿里云、腾讯云),快速判断儿童/成人语音;2)自建模型服务,使用ECAPA-TDNN提取声纹特征并训练分类器;3)高安全场景可组合年龄段识别、反欺骗检测和声纹验证。需注意音频质量(5-10秒清晰语音)、儿童发音特殊性及设备一致性等问题,建议根据业务需求选择方案,新上线时可考虑三档分级策略优化用户体验。
2025-10-30 20:40:51
287
原创 什么是X402协议,主要用在什么场景
Coinbase的x402协议创新性地将加密支付融入HTTP协议,利用预留的402状态码实现链上即时支付。该协议通过标准HTTP交互完成支付流程,无需用户注册或第三方支付工具,支持一次性付费、订阅制和微支付等多种场景。开发者可使用官方SDK快速集成,由Coinbase提供验证节点支持。x402协议为互联网内容付费、API服务和AI应用提供了原生Web3支付解决方案,具有无账号体系、自动执行等特点。
2025-10-29 13:04:04
985
原创 OSS文件上传错误No buffer space available
摘要 日志显示系统在2025-10-28出现多个文件上传失败错误,主要原因是OSError(55)网络缓冲区耗尽。分析表明问题源于并发上传过多、资源未释放和缺乏速率控制。解决方案采用增强版OSS客户端,包含指数退避重试机制(最多3次)、连接池优化和资源管理功能。核心改进包括:retry_on_failure装饰器实现自动重试,连接超时设置30秒,以及带缓冲控制的文件上传方法。该方案能有效处理网络资源不足问题,确保文件上传可靠性。
2025-10-28 16:51:13
145
原创 模型置信度在实际中的应用
摘要:大语言模型(LLM)中的置信度本质上是基于token生成概率的评估指标,可通过logprobs字段获取。具体实现上,Qwen/DeepSeek/vLLM等框架提供了置信度计算功能,工程应用包括:1)答案可靠性判定(RAG/多Agent系统);2)多模型投票;3)拒答机制;4)提示词优化。置信度与温度参数共同控制生成质量,在实际系统中(如法律检索问答)可设置阈值来保证输出可靠性。该机制能有效降低幻觉风险,提升企业级系统的安全性。
2025-10-27 21:01:06
827
原创 什么是模型的置信度
模型置信度是指模型对输出结果正确性的自我评估量化指标,反映预测可靠性。其计算方式因任务而异:分类任务取softmax最高概率,检测任务结合目标存在概率,生成模型则基于token概率分布。置信度的核心用途包括结果过滤(设置阈值)、结果排序、不确定性评估(触发人工复核)、模型校准分析及主动学习样本选择。需注意置信度不等同真实准确率,可能受温度参数影响,且不同任务定义不同。典型示例中,情感分析模型对"餐厅差评"输出"消极"的置信度为0.9,超过阈值则判定结果可信。置信度本质
2025-10-27 20:55:52
603
原创 为什么麒麟信创系统需要开启overcommit_memory才能安装postgresql成功
摘要: 本文详解了通过调整Linux内核参数vm.overcommit_memory=1和vm.max_map_count=262144解决PostgreSQL初始化内存不足的问题。overcommit_memory=1强制允许内存分配,避免内核误判;max_map_count增加进程内存映射上限。提供永久配置方法(写入/etc/sysctl.conf并执行sysctl -p),并分析该问题的根源(国产系统默认配置保守)。最后给出包含共享内存和SWAP优化的完整配置方案,适用于内存充足的环境。(149字)
2025-10-23 21:00:08
321
原创 麒麟信创系统安装pgsql-15.4 报错 popen failure: Cannot allocate memory
PostgreSQL容器启动失败诊断摘要 PostgreSQL 15.4容器启动时出现内存分配错误和程序缺失问题。诊断脚本显示系统内存不足且内核参数可能配置不当。错误表现为"popen failure: Cannot allocate memory"和"program 'postgres' not found"。建议检查系统内存资源、调整overcommit_memory参数,并验证容器镜像完整性。问题可能源于内存限制过低或PostgreSQL二进制文件路径不正确。
2025-10-23 20:55:26
296
原创 使用原有docker镜像安装其他依赖并进行打包
本文提供了一个自动重打Docker镜像的脚本,用于在quay.io/ascend/vllm-ascend:v0.11.0rc0基础镜像上安装coreutils工具。脚本具有以下特点: 支持自定义基础镜像和新镜像标签 自动检查基础镜像是否支持apt-get 使用--no-install-recommends参数缩小镜像体积 自动清理APT缓存 包含验证步骤检查安装结果 使用方式简单,只需赋予执行权限后直接运行即可,也支持自定义镜像标签。该脚本适合需要在现有镜像基础上添加额外软件包的情况。
2025-10-21 11:25:46
162
原创 开发微信小程序的支付功能,需要提供给开发人员哪些信息
微信支付商户接入配置指南摘要:本文档详细列出了微信支付直连商户模式和服务商模式所需的配置信息,包括商户号、API密钥、证书等核心参数,以及小程序关联配置。重点说明了敏感信息的传递安全要求,并提供了可直接交付开发的环境变量模板。同时强调了开发注意事项:JSAPI支付流程、回调验签、HTTPS要求、证书轮换等关键实现点,帮助开发者避免常见问题。对于服务商模式,还补充了特约商户相关配置项。文档以标准化格式呈现,便于团队协作实施微信支付功能。
2025-10-20 13:33:36
499
原创 celery 在windows电脑上运行的错误
Celery在Windows系统下运行出现"ValueError: not enough values to unpack"错误,这是由于Windows不支持prefork模式的信号机制导致的内置兼容性问题。解决方案包括:1)本地开发使用线程池(-P threads)或单进程(-P solo);2)生产环境建议改用Linux/WSL2/Docker;3)I/O密集型任务可尝试gevent/eventlet池;4)Windows下需用硬超时(time_limit)替代软超时。这是平台相关而
2025-10-20 13:09:02
289
1
原创 监控运行大模型的显存占用率的方式
本文介绍了监控大模型显存占用率的三种递进方案:1)使用nvidia-smi命令实时查看GPU状态,提供基础采样和时序监控模式;2)推荐终端可视化工具nvtop/nvitop/gpustat,便于直观排查;3)建议生产环境采用Prometheus+Grafana+DCGM Exporter方案,实现全面指标采集、可视化看板和告警功能。文章还提供了满载告警脚本模板和性能分析工具建议,特别强调对vLLM等场景需结合请求队列指标进行综合分析,形成完整的监控闭环。
2025-10-17 21:57:45
364
原创 Python是解释语言还是编译语言?
Python通常被称为解释型语言,但实际执行过程分为两步:先将源码编译为字节码(.pyc),再由虚拟机解释执行。CPython采用这种混合模式,而PyPy通过JIT将热点代码编译为机器码提升性能。其他工具如Cython可将Python代码编译为本地机器码。通过dis模块可查看字节码,__pycache__目录存储编译后的字节码文件。虽然Python主要被认为是解释型语言,但底层实现包含编译环节,不同实现方式可使其更接近编译型语言特性。
2025-10-16 17:16:13
450
原创 python中浅拷贝 vs 深拷贝
Python拷贝机制详解 本文系统介绍了Python中赋值、浅拷贝与深拷贝的区别及使用场景。赋值(b=a)不创建新对象;浅拷贝(如a.copy())仅复制最外层容器,嵌套对象仍共享引用;深拷贝(copy.deepcopy())递归复制所有子对象,实现完全隔离。通过示例演示了修改嵌套对象时不同拷贝方式的表现差异,并指出元组内可变对象、自引用结构等特殊情况的处理方式。文章还提供了常见数据结构的拷贝方法速查表,以及自定义类控制拷贝行为的实现方案。最后建议根据数据结构复杂度与性能需求合理选择拷贝方式,简单结构用浅拷
2025-10-16 17:11:48
359
原创 python中装饰器是什么
本文系统介绍了Python装饰器的核心概念与实用技巧。主要内容包括:1)装饰器本质是接收并返回可调用对象的函数,通过@语法糖实现功能增强;2)基础装饰器写法需配合functools.wraps保留元数据;3)带参数装饰器的三层结构设计;4)异步协程装饰器实现要点;5)类装饰器和类实现装饰器的使用场景;6)property等内置方法装饰器;7)类型提示友好写法;8)常见实战应用场景如性能监控、重试机制等;9)8个关键实践注意事项。文章强调装饰器"不改源码、横切增强"的核心价值,并指出@wr
2025-10-16 16:59:16
367
原创 什么是Celery,能应用到什么场景
Celery是一个Python分布式任务队列框架,适用于异步处理耗时任务(如文件处理、API调用、定时任务等)。其核心架构包括生产者、消息队列(Redis/RabbitMQ)、Worker进程和结果存储。通过@task装饰器定义任务,支持自动重试、任务编排(串行/并行)和定时调度(Celery Beat)。与FastAPI集成可实现API立即返回、后台异步处理的模式。为保证可靠性,需配置任务幂等性、超时限制和内存管理。性能调优需区分CPU/IO密集型任务,采用不同并发模型(prefork/gevent)和队
2025-10-16 16:21:17
1014
1
原创 什么是python中的functools.partial
摘要:functools.partial是Python中用于固定函数部分参数的工具,返回一个新的可调用对象。它支持绑定位置参数和关键字参数,适用于回调适配、并行任务配置、排序键定义等场景,比lambda/闭包更简洁高效。与partialmethod配合可优化类方法定义,返回对象包含原始函数、绑定参数等可调试属性。需注意参数冲突、可变对象引用等细节,适合纯参数预置场景,复杂逻辑仍需闭包实现。典型应用包括简化重复调用、接口适配和函数工厂等。
2025-10-16 14:01:26
201
原创 什么是python中的工厂函数
工厂函数是一种封装对象或函数创建过程的Python实现方式,主要包括对象工厂、函数工厂、注册表、类工厂等类型。它通过统一入口屏蔽实现细节,支持配置化创建(如数据库连接、幂函数生成)、插件化架构(注册表模式)和动态类生成等场景。使用工厂函数能提高代码的可测试性、可维护性和可扩展性,但需注意错误提示清晰度、避免分支爆炸和闭包变量绑定等问题。核心价值在于将"怎么建"与"建什么"分离,让调用方只需关注需求而非构造细节。
2025-10-16 13:57:31
207
原创 什么是python中的高阶函数
摘要:高阶函数指接收函数作为参数或返回函数的函数,基于Python一等函数特性实现。常见应用包括:作为参数(如sorted的key参数、map/filter等)、返回函数(如闭包/装饰器)。使用场景包括行为参数化(如排序规则)、控制流复用(如重试/计时)和函数组合。实践中,列表推导通常比map/filter更直观,聚合操作优先用sum/any等。类型提示可增强安全性。高阶函数通过"注入行为"使代码更通用可复用,简单场景用推导式,复杂逻辑适合装饰器/闭包抽象。(149字)
2025-10-16 13:49:02
173
原创 什么是python中的一等函数和闭包
摘要:Python中函数是一等对象,可赋值、传参、返回。闭包指内层函数携带外层变量,即使外层已返回。使用nonlocal可修改外层变量,需注意循环中的晚绑定问题,可通过默认参数、工厂函数或partial解决。这些特性是装饰器、高阶函数等抽象的基础,为Python提供了强大的编程能力。(150字)
2025-10-16 13:40:24
457
原创 Python 里的“鸭子类型”(Duck Typing)
摘要: 鸭子类型强调通过对象的行为(方法/属性)而非类型来判断其可用性,使代码更灵活。例如,只要对象有.write()方法,就可视为可写对象。常配合EAFP(先尝试后处理异常)使用,避免类型检查与调用间的竞态问题。Python的typing.Protocol可静态检查行为匹配,兼顾灵活性与安全性。典型应用包括文件类对象、可迭代对象等。优点是低耦合、易测试,但需注意运行时错误风险,可通过文档、Protocol和EAFP缓解。核心思想是“按能力编程”,提升代码复用性和扩展性。
2025-10-16 13:22:42
151
原创 vllm部署视觉模型,显存不足报的错误
vLLM引擎在处理多模态请求时出现缓存缺失错误(AssertionError),表明系统无法找到指定哈希值的预处理特征数据。可能原因包括内存不足、缓存不同步或预处理失败。建议排查内存使用情况、检查vLLM配置(如降低GPU内存利用率、减少并发请求数),并考虑升级vLLM版本或添加客户端重试机制。临时解决方案可重启服务并清理共享内存,长期应建立内存监控和自动健康检查机制。该问题通常与资源限制或缓存管理有关,需平衡系统负载与性能需求。
2025-10-15 14:04:43
521
原创 什么是 Python 的“生成器”(generator)
Python生成器是一种特殊的迭代器,通过yield关键字实现按需产出值,具有惰性计算和状态保留的特性。主要创建方式包括生成器函数(含yield的函数)和生成器表达式。生成器支持迭代器协议,适用于大数据流处理,能通过send()/throw()进行双向通信,使用yield from实现子生成器委托。典型应用场景包括流式数据处理、内存优化和协程实现。注意生成器一次性使用的特点,建议配合上下文管理确保资源释放。其核心价值在于用简洁的语法实现高效的状态保持迭代。
2025-10-15 13:47:55
280
原创 什么是python的迭代器
本文介绍了Python中的迭代器及其相关概念。迭代器是实现了__iter__()和__next__()方法的对象,具有惰性计算、一次性使用的特点。可迭代对象则只需实现__iter__()方法或支持索引访问。文章对比了两者的区别,列举了常见应用场景,并提供了判断类型、自定义迭代器、生成器使用等示例。同时指出了使用中的常见问题,如迭代器耗尽、字典迭代特性等。核心思想是理解迭代器协议对掌握Python遍历和惰性计算的重要性。
2025-10-15 13:35:33
394
原创 pthon中xrange()和range()的区别
Python 2中range()返回完整列表,xrange()返回惰性序列;Python 3统一用range()实现惰性序列。现代代码应使用Python 3的range(),需要列表时再转换为list。两种range都支持索引、切片等序列操作,但内存占用不同:Python 2的range()会预先生成整个列表,而xrange()和Python 3的range()按需计算,适合大范围迭代。
2025-10-15 13:20:16
147
原创 TaskIQ 是什么,怎么做异步任务
TaskIQ是一个异步分布式任务队列系统,支持通过NATS、RabbitMQ等消息代理将任务发送到工作进程执行。本文展示了如何与FastAPI集成实现异步任务处理:使用RabbitMQ作为消息代理、Redis存储结果,并通过taskiq-fastapi复用FastAPI依赖。示例包含任务定义、API接口实现及worker启动方式,适用于需要可靠后台处理的场景,相比FastAPI原生BackgroundTasks提供了更强大的队列和持久化能力。
2025-10-15 13:07:27
353
原创 什么是Celery,Celery的工作原理
Celery是Python生态中最常用的分布式任务队列框架,用于将耗时任务从主应用中剥离到后台执行。其核心组件包括生产者、消息代理(RabbitMQ/Redis)、工作进程、结果存储和定时调度器。工作流程为:应用提交任务到消息队列,工作进程消费任务并执行,结果存入后端存储。Celery支持任务重试、定时调度、任务编排等功能,默认提供至少一次投递保障。开发时需注意任务幂等性、消息大小控制、超时设置和资源隔离等最佳实践。通过多进程/协程池实现并发,适合处理视频转码、报表生成等后台任务场景。
2025-10-15 12:01:02
817
1
原创 python 启动异步任务,直接返回响应,然后异步执行长时间执行
本文介绍了两种实现FastAPI后台长任务的方案。方案A基于asyncio.create_task,适合轻量级I/O密集型任务,使用内存字典存储状态,但worker重启会丢失任务。方案B采用Celery+Redis,支持任务持久化、重试和多worker扩展,适合生产环境。文章还特别指出CPU密集型任务应使用进程池以避免阻塞事件循环,并提供了两种方案的具体实现代码和启动方式。建议根据实际需求选择:简单场景用方案A快速实现,需要持久化和扩展时采用方案B。
2025-10-15 11:52:26
545
原创 启动监控页面监控vllm,大模型,显存的占用情况
摘要:本文介绍使用Prometheus+Grafana构建vLLM服务的全栈监控方案。通过DCGM Exporter采集GPU指标,cAdvisor收集容器/主机资源,配合vLLM原生指标,实现从模型请求、GPU显存到系统资源的统一监控。提供Docker Compose一键部署脚本,包含PromQL查询示例和告警规则配置,支持可视化运行状态、资源使用率和性能瓶颈分析。方案还支持通过OpenTelemetry实现分布式追踪,最终形成包含vLLM引擎健康度、GPU资源、容器指标和告警功能的单页监控看板。
2025-10-14 21:26:48
1043
原创 vllm 启动的参数解释,怎么才能将显存用到极致
vLLM引擎调优的核心参数分为并发/显存控制和模型装载两大类。关键参数包括:1)并发控制参数--max-num-seqs和--max-num-batched-tokens决定批量大小;2)显存分配参数--gpu-memory-utilization和--max-model-len影响KV Cache使用;3)并行参数--tensor-parallel-size用于多卡部署。优化建议:1)缩短有效上下文长度;2)合理设置批处理参数;3)将显存利用率调到稳定上限。实战中需根据业务场景选择吞吐优先或延迟优先的配置
2025-10-14 21:14:07
2129
原创 怎么计算vllm启动大模型的并发数
摘要:文章介绍了监控和优化vLLM推理服务并发请求数的关键方法。主要内容包括:1)通过日志和/metrics接口实时查看当前并发请求数、排队情况;2)配置参数如max-num-seqs、gpu-memory-utilization来限制并发;3)提出了估算最大并发请求数的经验公式,考虑显存、上下文长度等因素;4)建议在Nginx层添加限流防护。文章提供了完整的监控指标解读和参数配置示例,帮助开发者合理控制vLLM服务的并发负载。(150字)
2025-10-14 20:49:22
703
原创 什么是vLLM
vLLM是由加州大学伯克利团队开发的高性能大语言模型推理引擎,通过创新的PagedAttention机制实现了高效的显存管理。该技术借鉴操作系统分页内存思想,将注意力缓存分割为可动态分配的小块,显著提升显存利用率并支持更长的上下文。vLLM还采用智能请求调度和连续批处理技术,支持多GPU并行计算和流式响应,使模型推理吞吐量提升5-10倍。这种"虚拟内存+智能调度"的架构使vLLM成为当前大模型推理的主流方案之一,广泛应用于Qwen、LLaMA等模型的高并发服务场景。
2025-10-14 20:33:46
750
原创 批量检测指定目录下所有 .mp3 和 .wav 文件的 声道数(单/双声道) 和 采样率(Hz)
批量检测指定目录下所有 .mp3 和 .wav 文件的 声道数(单/双声道) 和 采样率(Hz)。🔧 脚本:check_audio_info.py。
2025-10-14 15:28:23
594
citycode.sql
2019-07-02
xhell和Xftp学校版本
2020-10-21
navicat for sqlite安装文件
2019-01-15
geexekscore.zip
2020-06-12
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅