机器学习
文章平均质量分 52
十子木
冰山一角
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
C++ 类似pytorch的库,工具包,或者机器学习的生态
尽管C++不像Python那样拥有一个如PyTorch或TensorFlow的庞大生态,但仍有一些功能强大且高效的工具包,可以在C++中进行机器学习和深度学习任务。对于那些需要极高性能和嵌入式应用的场景,C++框架(如LibTorchCaffe等)依然是非常有竞争力的选择。如果只是进行较简单的机器学习任务,像Dlib和Shark也是不错的选择。原创 2025-11-03 15:18:33 · 1037 阅读 · 0 评论 -
一个 Helmholtz 方程在 Jacobi 平滑器下失效的例子
平滑器,也可以叫做光滑因子。标准代数平滑器(Jacobi、Gauss–Seidel 等)在简单椭圆问题中表现良好,但在复杂问题(尤其是 Helmholtz 这类强非正定、振荡性问题)里无法有效“平滑”误差,甚至会导致数值不稳定。因此作者提出用 HINTS 替代标准平滑器,使多重网格方法在这类难问题上更稳健。原创 2025-09-10 15:36:47 · 990 阅读 · 0 评论 -
线性方程求解器的矩阵分裂
这段代码是在。原创 2025-09-07 01:59:52 · 513 阅读 · 0 评论 -
简说【高斯随机场 (GRF)】
均值函数(Mean Function),通常为了简化,会假设均值为零(μ(s) = 0),因为任何非零均值都可以通过减去均值来处理。协方差函数(Covariance Function)/核函数(Kernel Function)这是GRF的灵魂。协方差函数精确地描述了空间中任意两点s和s’之间的相关性强度。它决定了生成数据的平滑度、尺度和周期性等关键性质。特征描述重要性高斯性任何点集上的联合分布均为多元高斯分布。奠定了所有统计推断和解析处理的基础。空间自相关。原创 2025-09-06 22:51:37 · 1412 阅读 · 0 评论 -
DeepONet的基本运作模式
数据管道和数据管理系统。原创 2025-09-01 15:25:11 · 636 阅读 · 0 评论 -
unet.py代码解读【备忘录】
这是一个基于PyTorch实现的U-Net架构,用于图像分割任务。代码包含了标准的U-Net组件,并预留了多种注意力机制的接口(ECA、EMA、LSK、ELA、Biformer等)。原创 2025-08-29 16:21:29 · 376 阅读 · 0 评论 -
U-Net代码解读
【代码】U-Net代码解读。原创 2025-08-29 15:35:46 · 403 阅读 · 0 评论 -
什么是自动混合精度
FP32(单精度浮点数):常规的 32 位浮点数,计算准确但速度慢、显存占用大。FP16(半精度浮点数):16 位浮点数,速度快、显存省,但精度可能不够,会有数值不稳定。混合精度重要、容易溢出的部分(比如梯度累积)用 FP32,保证稳定性。其他部分(比如卷积、矩阵乘法)用 FP16,加快速度、减少显存消耗。这样就能在速度和精度之间取得平衡。原创 2025-08-29 11:25:43 · 358 阅读 · 0 评论 -
如何在mamba虚拟系统上安装CPU版本的pytorch
【代码】如何在mamba虚拟系统上安装CPU版本的pytorch。原创 2025-08-28 22:30:24 · 166 阅读 · 0 评论 -
使用numpy的快速傅里叶变换的一些问题
离散傅里叶变换(DFT)的频率特性主要由采样点数和物理步长决定。频率分量与网格分辨率直接相关,其中最高可分辨频率(Nyquist频率)为1/(2Δx)。波数(k=2π/λ)与频率存在确定关系,两者的误差相互关联。奈奎斯特定理指出,波长小于2h时会出现混叠现象。网格分辨率(采样点数与步长)完全决定了波数分布,因为DFT的频率特性是离散数学的固有属性。频率索引个数等于采样点数,对称分布在正负频率区间。原创 2025-07-03 23:56:28 · 876 阅读 · 0 评论 -
使用GPU进行机器学习训练时,如果GPU-Util计算核心满载工作但是显存占用较少,应该如何优化?
原创 2025-06-29 17:04:18 · 402 阅读 · 0 评论 -
机器学习中为什么要用混合精度训练
EEE 754标准:FP64遵循该国际标准,用 64位(8字节) 存储一个浮点数。显存(Video RAM,简称 VRAM)是显卡(GPU)专用的内存。FP32(单精度浮点):传统深度学习默认使用32位浮点数。双精度浮点(FP64)占。原创 2025-06-27 23:43:11 · 265 阅读 · 0 评论 -
DeepONet 与 UNet 的区别
G(u)(y) ≈ ∑ b_k(u) t_k(y),其中b_k是分支网络输出,t_k是主干网络输出。学习从像素到像素的映射:y = f(x),DeepONet 用于流体。原创 2025-06-27 15:46:39 · 259 阅读 · 0 评论 -
以一个算例讲解pytorch基础
【代码】pytorch基础。原创 2025-06-27 00:28:00 · 547 阅读 · 0 评论 -
一次性更改多个python文件中同一参数的脚本
【代码】一次性更改多个python文件中同一参数的脚本。原创 2025-06-24 10:50:42 · 381 阅读 · 0 评论 -
什么是池化
池化是深度学习中用于降低数据维度、提取核心特征的一种操作,主要应用于卷积神经网络(CNN)。其核心思想是通过对局部区域进行聚合统计(如取最大值、平均值),保留关键信息的同时减少计算量。池化的作用降维减参:缩小特征图尺寸,减少后续计算量。平移不变性:小幅度的图像平移不影响输出(如Max Pooling对局部位置不敏感)。防止过拟合:抑制噪声,突出主要特征。常见池化类型类型 操作方式 特点 示意图。原创 2025-06-19 23:50:52 · 877 阅读 · 0 评论 -
pde_cnn
【代码】pde_cnn。原创 2025-05-27 19:23:13 · 148 阅读 · 0 评论 -
无监督深度学习
【代码】无监督深度学习。原创 2025-05-27 10:14:56 · 385 阅读 · 0 评论 -
讨论交流随记
【持续更新】和别人交流讨论随记原创 2025-05-26 21:34:03 · 108 阅读 · 0 评论 -
pytorch基础
pytorch 基础原创 2025-05-25 19:04:48 · 222 阅读 · 0 评论 -
李宏毅机器学习 (ML) 课程学习笔记
【持续更新】李宏毅深度学习课程学习笔记。原创 2025-05-08 17:21:22 · 847 阅读 · 0 评论
分享