自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(147)
  • 收藏
  • 关注

原创 小白教程:在Windows的WSL(Ubuntu)中手动部署one-api

【代码】小白教程:在Windows的WSL(Ubuntu)中手动部署one-api。

2025-12-24 15:59:27 184

原创 在任务管理器中筛选、查看进程

场景推荐工具核心命令示例快速模糊筛选(简单关键词)CMD复杂筛选(多关键词 / 正则 / 导出)PowerShell直接复制对应命令,替换「进程名」和「命令行关键词」即可使用,无需额外配置,适合 Windows 下快速定位进程!

2025-12-23 15:22:08 574

原创 Python 命令行详解

核心执行方式:无参数进 REPL、python 脚本.py执行文件、-m运行模块、-c执行代码字符串是最常用的 4 种场景;调试常用参数-i(执行后交互)、-v(详细日志)、-u(无缓冲输出)、-W(警告控制)可快速排查问题;参数分界规则:Python 核心参数在前,脚本 / 模块的自定义参数在后,切勿混淆。这些参数覆盖了日常开发、调试、生产环境的绝大部分场景,掌握后能大幅提升 Python 命令行使用效率。

2025-12-23 09:55:44 905

原创 详解 UCB 算法的置信区间与核心逻辑(通俗 + 公式 + 实例)

置信区间(Confidence Interval, CI)是对 “真实值” 的 “不确定性范围” 的量化描述—— 它不是一个固定值,而是一个区间,代表 “真实值有多大概率落在这个范围内”。首先,对每个臂(路线)i,计算其历史样本平均收益—— 这是对 “真实收益\(\mu_i\)” 的最直接估计(点估计):\(\hat{\mu}_i = \frac{1}{n_i} \sum_{k=1}^{n_i} r_{i,k}\)\(n_i\):臂i的历史选择次数;

2025-12-19 09:58:41 818

原创 多臂老虎机算法(Multi-Armed Bandit, MAB)详解

想象你面前有 N 台老虎机(“多臂”),每台机器的中奖概率(或收益)不同,且你不知道具体分布。臂(Arm):可选的决策选项(如运输路线规划中的 “路线 A”“路线 B”“路线 C”,货运方式中的 “公路”“铁路”“海运”)。收益(Reward):选择某臂后获得的反馈(如路线的 “运输时间”“成本”“准时率”,可转化为量化收益,例如:准时率 90% 对应收益 0.9,延迟对应负收益)。探索(Exploration)

2025-12-18 17:08:18 874

原创 异步、并发、多线程、多进程是现代编程中实现“同时处理多个任务”的四种核心概念。

并发是目标,手段有三种异步:单线程玩转高并发(I/O 场景王者);多线程:轻量并发,小心 GIL 和锁;多进程:重武器,专治 CPU 密集型。Python 选型口诀I/O 用异步,CPU 用多进程,简单并发可线程。

2025-12-18 15:20:41 445

原创 异步、多线程、并发

概念核心思想关键词异步(Async)任务发起后不等待完成,立即返回;完成后通过回调/事件通知单线程、事件循环、非阻塞并发多个任务“看起来”同时进行(可能交替执行)逻辑上的“同时”多线程多个线程真正并行或交替执行(由操作系统调度)多执行流、共享内存、GIL(Python)✅一句话总结并发是目标(让多个任务高效推进),异步和多线程是实现并发的两种不同手段。│ 并发 │ ←─ 目标:高效处理多任务│▼ ▼│ 异步 │ │ 多线程 ││ (单线程+事件循环) │ │ (多执行流+OS调度) │。

2025-12-18 15:11:16 694

原创 python -m venv(Python 内置虚拟环境工具)和 conda create(Anaconda/Miniconda 环境管理工具)

选型核心优势核心劣势轻量、内置、无需额外安装、纯 Python 友好无 Python 版本管理、仅隔离包、依赖解析弱跨语言、隔离彻底、Python 版本管理、依赖解析强需额外安装、体积大、纯 Python 项目略冗余纯 Python 轻量项目用 venv,数据科学 / 复杂依赖 / 多 Python 版本用 conda。

2025-12-15 16:36:34 857

原创 json.dumps() 的输出

的输出可能不符合我们的阅读习惯——这时候就需要用到参数来“美化”它。

2025-12-15 16:10:51 314

原创 argparse 模块处理命令行参数的经典写法

让你的 Python 程序能从命令行接收一个文件路径作为输入,并且强制用户必须提供这个参数。这是编写实用型脚本(比如自动化工具、数据处理程序)的基础技能。没有它,每次都要改代码才能换文件;有了它,只需改命令就行,非常灵活!

2025-12-15 15:10:00 297

原创 Ubuntu 调用显卡 vs CUDA 调用显卡:核心区别(零基础秒懂)

Ubuntu(驱动)给了 “显卡能用” 的基础权限,CUDA 在这个权限上,解锁了 “显卡能高效干活” 的核心能力 —— 前者是 “开门”,后者是 “用屋里的工具干活”。

2025-12-15 13:56:24 566

原创 CUDA、Ubuntu、显卡驱动:零基础讲清(附三者关联)

Ubuntu 是基于 Linux 内核的「开源操作系统」,和你熟悉的 Windows、macOS 是同一类东西 —— 负责管理电脑的硬件(显卡、CPU、内存)、软件(PyTorch、浏览器),以及处理用户的操作(点击图标、运行代码)。显卡驱动是「硬件驱动程序」,专门负责 “让操作系统理解显卡、控制显卡”—— 显卡是硬件(比如 NVIDIA RTX 3090),本身只会 “执行底层指令”,操作系统(Ubuntu/Windows)没法直接和显卡沟通,必须靠驱动做 “语言转换”。

2025-12-15 13:55:21 548

原创 Python 和 PyTorch 的核心区别(零基础秒懂)

对比维度PythonPyTorch本质通用编程语言基于 Python 的深度学习专用库 / 框架依赖关系独立运行,无依赖必须依赖 Python(不能脱离 Python 使用)功能范围全场景(办公、爬虫、分析、开发等)仅深度学习场景(组网、训练、GPU 加速等)代码特征基础语法(循环、判断、函数、类)调用 PyTorch 的 API(torch.xxx),嵌套在 Python 语法中学习优先级必须先学(基础中的基础)后学(学会 Python 才能学 PyTorch)

2025-12-15 13:30:26 972

原创 超详细 PyTorch 框架讲解(零基础友好版)

如果用自己的数据集(比如本地的猫狗图片),需要自定义 Dataset:python运行import os# 自定义Dataset类self.img_dir = img_dir # 图片文件夹路径self.labels = self._load_labels(label_file) # 加载标签self.transform = transform # 预处理# 加载标签(假设label_file是txt,每行:图片名 标签)# 返回数据总数# 返回单个样本(索引idx)

2025-12-15 13:20:02 737

原创 Windows + L(锁屏)

先去设置里把“睡眠”改成“从不”。然后您就可以放心地按锁屏了。导入任务会在后台一直跑,直到完成。

2025-12-11 16:54:33 328

原创 正向地理编码和反向地理编码互逆的操作

正向地理编码和反向地理编码本质上是互逆的操作,理论上可以相互转换。但实际应用中,两者都有独立存在的必要,并且合理的缓存策略可以显著提升系统性能。

2025-12-11 09:43:01 281

原创 urllib3.util.retry.Retry 是 Python HTTP 客户端库 urllib3 中的一个核心组件,用于实现智能的请求重试机制

通过封装复杂的重试逻辑(如退避等待、错误类型过滤、幂等性控制),显著简化了 HTTP 请求的容错处理。它是构建高可靠网络应用的核心工具,尤其在微服务、分布式系统中不可或缺。默认只重试幂等 HTTP 方法(GET/HEAD/PUT/DELETE)。若需重试 POST 等非幂等方法,需显式设置。它在网络请求失败时自动重试请求,提高应用程序的健壮性和容错能力。当请求因临时性问题(如网络波动、服务器过载、HTTP 5xx 错误等)失败时,对象会自动重新发送请求,避免手动处理重试逻辑。(确保接口支持幂等)。

2025-12-11 08:15:21 434

原创 自建 Nominatim 实例详细教程(聚焦日本 OSM 数据)

彻底解除公共服务器的频率限制,支持高并发查询;仅导入日本数据,查询速度提升 10 倍以上;可自定义配置(日语优先、缓存、数据更新频率);完全免费,无商业 API 费用。按照本教程部署后,结合之前的 Python 代码,可实现日本地区精准、高效的地理编码 / 反向编码,完美支撑项目需求。编辑分享如何配置Nginx反向代理?如何进行数据库优化?如何监控服务?

2025-12-09 20:55:06 929

原创 Browser-use与AI agent之间的关系

AI Agent 是具备自主感知、目标决策、环境交互、持续学习能力的智能系统,能模拟人类的认知和行为模式,在特定环境中独立完成复杂目标任务,而非简单的 “指令执行工具”。与传统 AI(如固定规则的脚本、单任务模型)的核心区别:传统 AI 是 “输入→预设规则→输出”,而 AI Agent 是 “输入目标→自主拆解任务→动态适配环境→执行→反馈优化→达成目标”,具备 “主动性” 和 “适应性”。

2025-12-03 20:26:56 598

原创 <iframe>

如果那个页面的内容超过了框的大小,它会在我们当前的网页中,,把那个查询页面的内容。

2025-12-03 15:24:02 780

原创 Web 开发基础uvicorn.run( “food_register_query:app“, host=“0.0.0.0“,port=8000, reload=False)

这段代码的完整功能是:通过uvicorn这个 Web 服务器,启动文件里定义的app应用,让它在电脑的所有网络接口上 “待命”,监听8000端口的请求,并且不会因为代码修改而自动重启(适合正式运行)。当你运行这段代码后,就可以通过http://你的电脑IP:8000来访问这个app提供的功能了(比如代码里的查询进出口食品信息的接口)。

2025-12-03 14:31:15 896

原创 Gephi 软件,想看一个节点的图关系,怎么可以只显示该节点的图关系而隐藏其它

在 Gephi 中,如果你只想查看某一个节点及其直接相连的关系(邻居),并隐藏其他不相关的节点,最标准的方法是使用中的功能。

2025-11-30 19:48:43 459

原创 gephi节点的中文是空的方格,并且有坐标表示。要求显示中文,不显示坐标表示

下方工具栏 -> 点字体按钮 -> 改为。

2025-11-30 19:37:07 258

原创 将生成的图谱导入Gephi生成的节点上没有文字,是个空的原点

这只是因为,或者它没有把您的节点 ID 自动映射为“标签(Label)”。

2025-11-30 19:35:07 418

原创 知识图谱 (Neo4j)、大语言模型与 RAG 技术全景解析

大语言模型是参数规模达数十亿至数万亿的深度学习模型,基于 Transformer 架构,通过海量文本预训练获得理解和生成自然语言的能力。关键里程碑2017 年:Transformer 架构问世,解决 RNN 无法并行计算和捕捉长距离依赖的问题2018 年:GPT-1 (1.17 亿参数) 验证 "预训练 + 微调" 范式2020 年:GPT-3 (1750 亿参数) 展现 "零样本学习" 能力2022 年:ChatGPT 引入 RLHF (人类反馈强化学习),大幅提升对话质量。

2025-11-30 09:01:12 772 1

原创 对话代理评估基准τ²-Bench: Evaluating Conversational Agents in a Dual-Control Environment论文概述

τ²-Bench通过引入双控制评估范式真正的智能不仅在于独立解决问题,更在于能有效引导和协作。这项研究揭示了即使最先进的大模型在需要协调的真实场景中也存在显著缺陷,为对话 AI 的下一步发展提供了重要的评估标准和研究方向。论文原文:arXiv:2506.07982 (2025 年 6 月)项目主页。

2025-11-28 16:52:54 470

原创 目前最佳大语言模型 API 全景分析(2025 年 11 月)

API 选择应根据具体应用场景、预算和数据安全要求综合考量。建议在正式集成前,对 2-3 个候选模型进行小规模 AB 测试,评估实际效果后再做最终决策。

2025-11-28 15:51:59 313

原创 数据分析全流程指南:从原始数据到智能决策

核心任务: 明确“我们为什么要分析数据?在动手处理数据前,必须将模糊的业务需求转化为具体的数据问题。将“我想提高用户留存”转化为“预测哪些用户在下个月流失的概率超过 50%”。随机森林是一种集成学习 (Ensemble Learning)方法,属于 Bagging(Bootstrap Aggregating)策略。“三个臭皮匠,顶个诸葛亮”。它通过构建成百上千棵决策树 (Decision Tree),让每棵树都对结果进行投票(分类问题)或取平均值(回归问题),从而得出最终结果。

2025-11-26 08:49:41 758

原创 ChemCrow 是如何调用 BO 工具的具体代码实现

ChemCrow没有重新发明贝叶斯优化。通过一个详细的**“工具说明书” (description)**,让 LLM 能够以自然语言的方式“填写表单”,生成对 BO 工具的结构化文本调用。_run方法负责解析LLM 的“表单”,将其翻译成dragonfly库能懂的 Python API 调用(tell和ask_run方法再将dragonfly的输出(下一个点)包装成自然语言字符串,返回给 LLM,LLM 再将其呈现给用户。

2025-11-18 09:44:27 377

原创 化学反应条件优化研究现状

在近三年,化学反应条件优化已经从传统的“一次一变量”的试错模式,迅速发展为**“AI驱动、自动化执行、多目标权衡”**的智能模式。当前的主要挑战仍然是高质量、标准化化学数据的获取(“数据之渴”),以及如何将化学家的先验知识和领域理解更好地整合到AI模型中。预计未来会看到更多混合系统的出现,结合AI与量子化学模型以提高预测精度,并将AI应用扩展到更复杂的领域,如有机金属、无机和酶促反应。AI将成为化学家的强大工具,专注于在给定框架下进行高效优化,而科学家则专注于提出颠覆性的新科学问题。

2025-11-18 08:22:24 361

原创 评价指标MAE 、MSE 、R2

MAE 计算的是预测值与真实值之间差值的绝对值的平均数。它直接衡量了预测值与真实值之间的平均差距大小。MSE 计算的是预测值与真实值之间差值的平方的平均数。(R-squared)也称作拟合优度,它衡量了模型对真实数据的解释能力。它表明了模型预测结果的方差占真实数据总方差的比例。指标优势劣势侧重评估点MAE单位与实际值相同,可解释性好,对异常值鲁棒性强。对大误差的惩罚相对较轻。预测的平均准确度,实际误差有多大。MSE对大误差有更大的惩罚,训练中能迫使模型关注大偏差样本。

2025-11-14 17:21:06 740

原创 在k折交叉验证下,Stacking模型中各部分的输入输出情况

https://blog.youkuaiyun.com/m0_73161433/article/details/154839249?fromshare=blogdetail&sharetype=blogdetail&sharerId=154839249&sharerefer=PC&sharesource=m0_73161433&sharefrom=from_linkhttps://blog.youkuaiyun.com/m0_73161433/article/details/154839249?fromshare=blogdeta

2025-11-14 16:48:44 574

原创 通俗理解Stacking 集成学习算法

元学习器就是那位“首席专家”或“军师”。善于总结和权衡。他是谁?通常是一个相对简单、稳健的模型,比如逻辑回归或线性模型。他的任务:他坐在办公室里,听取所有“专科医生”(基学习器)对病情的诊断意见。他会思考:“嗯,我发现当决策树医生和SVM医生意见一致时,准确率就很高;但当KNN医生持反对意见时,往往KNN是对的。” 或者 “在判断A类病时,要多听神经网络医生的;在判断B类病时,决策树医生更靠谱。他学会了如何加权组合这些专科医生的意见,从而做出比任何一个单独医生都更准确的最终诊断。

2025-11-14 15:51:29 685

原创 cpu、gpu、cuda、torch的cpu版本gpu版本、以及windows和linux,他们之间的关系和区别

想象你要开一家AI 餐厅Windows/Linux (房子):这是你的餐厅选址。Windows 是装修精致的商场店,Linux 是高效的工业中央厨房。CPU (经理):负责接单、安排流程、处理突发情况。GPU (大厨团队):由几千个小厨师组成,专门负责切菜炒菜(矩阵运算),速度极快。CUDA (厨房管理语言):经理(CPU)通过这套特定的“行话”指挥大厨团队(GPU)工作。没有这套语言,经理没法指挥大厨。PyTorch (烹饪工具箱)只有经理自己拿锅铲炒菜。慢,只能做简单的菜。

2025-11-13 21:48:04 345

原创 小白教程:在 Windows 中启用 WSL 并安装 Linux 发行版

WSL(Windows Subsystem for Linux)是 Windows 自带的功能,能让你在不安装虚拟机的情况下直接运行 Linux 系统,非常适合需要使用 Linux 工具(如 DeepSeek-OCR)的场景。

2025-11-13 20:49:48 427

原创 L层根据L+1层传回的“积累的”梯度损失信息进行更新。

答案是:L层根据L+1层传回的“积累的”梯度损失信息进行更新。这个信息(误差信号)已经包含了总损失对所有后续层的影响。因此,它既不是“仅根据层的梯度损失”,也不是“根据所有层的平均梯度损失”,而是。

2025-11-13 11:14:43 393

原创 梯度下降算法、反向传播、优化器与激活函数四者之间的关系。

为了实现梯度下降(战略),我们使用**反向传播(工具)来计算出由激活函数(地形)所定义的梯度,然后交给优化器(交通工具)**来真正执行这一步的更新。误差是逐层反向传播的。从 L 层传到 L-1 层:从 L-1 层传到 L-2 层:...这个过程会一直重复,直到网络的第一层。

2025-11-13 10:06:57 550

原创 梯度消失的主要原因为什么是激活函数而不是权重初始化?梯度爆炸的主要原因为什么是权重初始化而不是激活函数?

现象链式乘积项 W×σ′(z)激活函数的作用 σ′(z)权重的作用 W梯度消失(使用 Sigmoid)主因。提供了的“硬上限”,导致指数衰减。帮凶。无论如何设置(大或小),都无法解决这个结构性问题。梯度爆炸(使用 ReLU)中立(允许发生)。提供了的“直通”通道,不放大也不缩小梯度。主因。成为梯度幅度的唯一决定因素。若,则导致指数增长。这就是为什么深度学习的重大突破总是成对出现ReLU 的发明:解决了 Sigmoid 导致的“梯度消失”主因。

2025-11-12 17:09:29 764

原创 优化器:“朴素SGD”(Naive SGD)与Adam

特性朴素SGD (Naive SGD)核心思想沿着当前梯度方向迈出固定一步结合“惯性”和“自适应步长”的智能下山学习率全局唯一,固定不变每个参数都有一个自适应变化的有效学习率记忆无记忆。只看当前这一步的梯度有记忆。同时跟踪梯度的“动量”(m)和“方差”(v)处理峡谷效率极低。在“墙壁”间来回反弹高效。动量抵消反弹,累积正确方向处理稀疏数据效果差。稀疏参数(梯度小)更新慢效果好。自适应会增大稀疏参数的学习率收敛速度较慢,且对选择非常敏感非常快,通常是收敛最快的优化器之一超参调整需要精调。

2025-11-12 16:35:32 988

原创 反向传播-链式法则的详细推导(如何从L层反向传播到L-1层)

下一批数据的前项传播和反向传播的过程是怎么的,与上一批数据的前项传播和反向传播有什么关联。(例如,64000 张图片的数据集,Batch=32,这里会循环 2000 次)(这确保了每个 Epoch 中,Batch 的组成是不同的,增加了随机性),等于从 L 层传播回来的误差,再逐元素乘以 L-1 层激活函数的导数。我们只关注网络中的两层:L-1层 (隐藏层) 和 L层 (输出层)。:(取数据 -> 前向 -> 算损失 -> 反向 -> 更新参数)。:L-1层的输入 (即上一层(L-2)的激活值)

2025-11-12 15:57:33 1244

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除