自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(210)
  • 收藏
  • 关注

原创 机器学习中回归训练的示例

本文展示了使用perming库进行回归分析的完整流程。首先安装perming和polars库,加载UCI燃气轮机数据集并进行数据预处理。将数据转换为numpy数组后,构建了一个17输入、1输出、30个隐藏节点的MLP模型,使用ReLU激活函数和Adam优化器。经过数据加载和训练验证过程,模型在测试集上取得了0.143的MSE损失值,展示了perming库在回归任务中的有效应用。

2025-12-20 11:03:34 254

原创 分布估计算法在二进制优化的应用

分布估计算法(EDA)是一种基于概率模型的进化优化方法。本文实现了一个二进制优化的EDA算法,使用PyTorch框架构建概率模型,通过采样、评估、选择和更新分布等步骤逐步优化解。算法核心包括:1)从概率分布采样种群;2)评估个体适应度;3)选择精英解;4)更新概率分布。代码提供了完整的EDA流程实现,支持GPU加速,包含适应度跟踪和收敛指标监控功能。该实现可配置维度、种群大小等参数,适用于各类二进制优化问题。

2025-12-20 10:47:52 405

原创 全局优化多模态组合函数

本文展示了使用porgo库进行多模态组合函数优化的示例。首先定义了一个包含Ackley、Rastrigin和Rosenbrock函数的多模态组合目标函数,并添加了高频扰动分量和非光滑正则项。通过porgo.glos优化器进行训练,在6轮迭代后收敛到最小值2.57818,对应的最优解为一组接近零的小数值向量。结果表明porgo库能有效处理复杂的多模态优化问题,通过种群进化策略快速收敛到全局最优解。

2025-12-03 18:35:27 216

原创 优化算法研究Schaffer F6函数

摘要:本文使用optimtool工具包对Schaffer F6测试函数进行优化分析。该函数在原点附近具有密集振荡的局部极值,全局最大值位于(0,0)。实验分别采用trust_region模块的steihaug_CG方法和L_BFGS方法,从不同初始点出发进行优化。结果显示,信赖域算法在逃离局部最优方面表现最佳,L_BFGS方法次之。通过调整初始参数可有效提升优化效果,两种方法最终都能收敛到全局最优解附近,其中steihaug_CG仅需4步迭代即达到1.72e-15的精度。

2025-12-03 10:03:56 324

原创 基于sortingx的典型排序示例

摘要:本文展示了Python排序库sortingx的5个典型应用示例:(1)按绝对值升序排序,同值负数在前;(2)学生列表按成绩降序、同分按姓名升序排序;(3)稳定排序实现先按部门分组再按薪资降序;(4)忽略大小写与标点的字符串排序;(5)字典按值降序排序并取前k项。示例涵盖元组键、lambda表达式、多条件排序和稳定排序等核心技巧,适合数据处理场景参考。

2025-11-01 11:14:29 137

原创 优化算法研究Six-hump Camel函数

本文展示了使用optimtool库进行函数优化的三种方法。针对六峰驼函数(f(x1,x2)),分别采用L-BFGS、Barzilar-Borwein和信任域算法,从初始点(0.1,0.8)开始优化。L-BFGS经过15次迭代收敛到最小值-1.031628,Barzilar-Borwein及其变体在12次迭代内收敛,而信任域算法仅需4次迭代。结果可视化显示各算法的收敛路径,验证了optimtool库在解决无约束优化问题中的有效性,特别是信任域算法展现出最快的收敛速度。

2025-10-14 16:02:38 219

原创 优化算法研究Rastrigin函数

本文使用optimtool库对Rastrigin函数进行优化测试,比较了不同优化方法的性能表现。通过设置初始点(0.5,-0.3)和(0.4,-0.3),分别测试了信赖域方法、L-BFGS、Barzilar-Borwein及其变体的收敛效果。结果显示,信赖域方法和L-BFGS能有效跳过局部最优值20,而Barzilar-Borwein及其ZhangHanger变体也展现了良好的收敛性能。各方法的优化过程通过函数值变化和可视化图表直观展示,验证了这些算法在解决多极值优化问题上的有效性。

2025-10-06 18:58:17 487

原创 LBFGS算法研究Ackley函数

本文使用optimtool库中的L_BFGS算法对Ackley函数进行优化测试。Ackley函数在原点附近存在多个局部极小点,是测试优化算法收敛性的理想函数。实验分别设置历史长度m=2和m=6进行对比,结果显示算法能有效收敛到极小值点。当m=2时,经过48次迭代后函数值降至7.92e-4;m=6时仅需21次迭代即可达到更优的3.77e-5。结果表明L_BFGS算法具有超线性收敛特性,且适当增加历史长度m可以提高收敛速度。该实验验证了optimtool库在非约束优化问题中的有效性。

2025-10-06 10:25:23 466

原创 应用lbfgs的sklearn神经网络

本文测试了scikit-learn中基于L-BFGS优化的神经网络模型(MLP)在不同任务上的表现。实验包括分类、回归、多标签分类和多输出回归任务,使用不同激活函数验证模型性能。结果显示,L-BFGS优化的MLP在二元/多分类任务上准确率超过95%,回归任务R²分数高于0.98。多标签分类准确率达97%以上,多输出回归R²超过0.9。测试还验证了多标签概率预测的正确性,表明概率输出不强制归一化为1。实验证实了L-BFGS优化器在各种神经网络任务中的有效性。

2025-10-06 09:43:51 801

原创 优化算法研究Goldstein-Price函数

本文研究了Goldstein-Price函数优化问题,该函数在[-2,2]范围内具有多个局部极小值。使用porgo全局搜索算法找到全局极小点[0,-1],函数值为3。随后采用optimtool的bfgs方法进行验证,从初始点(1.2,-0.5)出发,经过21次迭代成功收敛到全局最优解。结果表明bfgs方法能够有效逃离局部极小值区域,最终收敛到全局最小点。

2025-10-05 10:46:59 280

原创 基于Flax的变分自编码器VAE

本文介绍了基于Flax框架实现的变分自编码器(VAE)。VAE是一种结合深度学习和概率论的生成模型,通过编码器将输入映射到潜在空间,再通过解码器重构数据。文章详细展示了VAE的核心实现,包括重参数化技巧、编码器/解码器模块设计、损失函数计算(KL散度和二元交叉熵)以及训练流程。该实现充分利用Flax框架的优势,提供模块化API和JAX硬件加速支持,适用于图像生成等任务。

2025-10-05 09:50:43 752

原创 优化算法研究Beale函数

本文使用optimtool库的barzilar_borwein算法优化2维Beale函数。通过定义函数和设置初始点(1.0,1.0),算法在45次迭代后收敛到最优解(3.0,0.5)。对比ZhangHanger方法,后者在37次迭代后达到相同精度。实验结果显示,barzilar_borwein算法能有效优化Beale函数,收敛过程稳定。文中提供了完整的Python代码实现和迭代过程可视化,展示了不同优化方法的性能差异。

2025-10-04 10:53:08 325

原创 信赖域算法研究Himmelblau函数​

本文使用optimtool库的trust_region模块验证了Himmelblau函数在不同象限的收敛特性。通过设置不同初始点,成功求解了该函数的四个全局最优解:[3,2]、[3.58442834,-1.84812653]、[-2.80511896,3.1313126]和[-3.77931026,-3.283186]。实验结果表明,该优化方法在二维各象限内均表现出超线性平滑收敛特性,最终收敛误差均达到10^-15量级。每个案例都展示了详细的迭代过程和收敛曲线,验证了该算法求解多极值函数的有效性。

2025-10-04 09:49:22 439

原创 全局优化研究Himmelblau函数​

本文使用porgo库对Himmelblau函数进行全局优化,通过定义不同维度的搜索范围,成功找到四个最优解。实验结果表明,当设置正数域bounds=[(0,10),(0,10)]时得到解[3,2];负数域bounds=[(-10,0),(-10,0)]时得到解[-3.78,-3.28];混合域bounds=[(0,10),(-10,0)]和bounds=[(-10,0),(0,10)]时分别得到解[3.58,-1.85]和[-2.81,3.13]。所有解的函数值均达到理论最小值0,验证了porgo.glob

2025-10-03 17:16:43 245

原创 信赖域算法研究Rosenbrock函数

本文介绍了使用optimtool库的trust_region模块优化Rosenbrock函数的方法。信赖域算法通过动态调整步长范围保证优化稳定性,特别适合非凸问题。重点分析了Steihaug-CG方法的优势:高效处理大规模问题、自动满足约束、处理非正定矩阵、理论收敛保障和低存储需求。文章还展示了优化过程的数值结果和可视化效果,显示该方法能有效收敛到最优解。与其他方法相比,Steihaug-CG在精度和效率间取得了良好平衡。

2025-10-03 10:48:46 545

原创 靶点TP53的AI辅助药物发现

本文介绍了使用pandas和perming工具包进行TP53靶点药物活性预测的完整流程。首先通过ChEMBL数据库获取TP53靶点的药理数据,对IC50值和分子描述符进行数据清洗。随后计算PubChem指纹作为特征,使用perming构建神经网络模型,通过训练、验证和测试过程预测药物活性。最后输出预测值与标准值的对比结果,并展示了模型微调和结果可视化方法。该工作流程为药物发现中的靶点活性预测提供了完整的机器学习解决方案。

2025-10-03 09:27:37 582

原创 优化算法研究Rosenbrock函数

本文使用optimtool库比较了优化算法在4维Rosenbrock函数优化中的表现。实验从初始点(0,0,0,0)出发,L-BFGS算法在27次迭代后收敛到全局最优解[1,1,1,1],函数值降至1.44e-22;BFGS算法需要33次迭代收敛;DFP算法也展示了类似的优化过程。结果表明,L-BFGS在保持较高精度的同时,收敛速度优于传统BFGS算法,特别是在处理高维非线性优化问题时表现出色。可视化结果清晰展示了各算法的优化路径和收敛特性。

2025-10-02 10:45:41 484

原创 sklearn分类任务的超参数搜索

本文介绍了使用porgo库进行SVM超参数搜索的方法。首先通过make_classification生成分类数据集,然后定义目标函数以最小化1-ROC_AUC均值。使用porgo.glos在指定参数区间(C:10^[-3,2], gamma:10^[-4,-1])进行搜索,经过20次迭代训练后,找到最优参数组合:C=10^0.506,gamma=10^-2.212,对应模型准确率达95.60%。该方法可扩展至其他算法和参数空间,实现高效的超参数优化。

2025-10-02 10:01:00 489

原创 排序算法的并行加速实现

本文展示了基于sortingx仓库的并行排序算法实现。主要包括并行加速的sortingx方法、冒泡排序、插入排序和希尔排序。这些算法通过joblib库实现并行化处理,显著提升计算处理和排序效率。测试数据生成10000组随机数作为多关键字排序数据。冒泡排序和插入排序分别通过并行化外层循环和内部操作实现加速,而希尔排序则加速了每个gap间隔内的排序过程。这些实现保留了原始算法功能,同时利用多核处理器提升性能,适合应对大规模数据排序需求。

2025-10-01 10:03:18 477 2

原创 使用Polars和PyTorch完成药物发现

本文展示了一个使用perming库处理分子描述符数据集的完整流程。首先通过polars加载包含one-hot编码和标签的CSV文件,将字符串数据转换为数值型numpy数组。数据集包含1325个样本,特征维度为8862,标签维度为211。然后使用perming构建一个多层感知机模型,配置了3000个隐藏单元、ReLU激活函数和Adam优化器。训练过程中采用MSELoss损失函数,经过60轮训练后,验证损失从最初的158.5降至2.5左右,展示了模型的有效收敛。该流程完整演示了从数据预处理到模型训练的全过程。

2025-09-30 15:24:39 510

原创 复杂非线性方程组的微调解法

本文展示了使用optimtool库求解非线性最小二乘问题的两种方法。通过构造包含指数、三角和对数函数的复杂非线性方程组,分别采用高斯牛顿法和Levenberg-Marquardt算法进行求解。高斯牛顿法在5次迭代后收敛到解(0.50000017, 0.12516182, 0.70588935),残差降至1.11e-9;而Levenberg-Marquardt经过10次迭代收敛到(0.49978908, 0.12454357, 0.70554558),残差为1.71e-7。

2025-09-30 11:08:49 277

原创 非线性残差函数组的解法示例

摘要:本文介绍了使用optimtool库解决非线性最小二乘问题的方法。通过构造二维残差函数组示例(包含sin和cos等非线性项),演示了高斯-牛顿法和Levenberg-Marquardt算法的实现。两种方法均可处理高维非线性方程组,提供可视化结果和迭代过程输出。示例代码展示了如何调用这些优化器求解方程组,并附有收敛过程的图形展示。

2025-09-26 16:22:11 348

原创 全局优化搜索高次方程的解

高次方程的全局优化数值解法

2025-05-14 11:00:38 516

原创 优化非线性复杂系统的参数

非线性项影响的复杂系统解

2025-04-25 16:50:40 372

原创 基于函数下降趋势的FISTA算法

保持下降趋势的FISTA算法

2025-04-22 16:05:59 243

原创 并行加速优化多个目标函数

有限资源的并行加速目标优化

2025-04-18 10:11:42 195

原创 欧式空间的经验加速应用

博主从个体的可信资源内访问到某个社区使用欧式空间的概念和欧洲顶级的科学简化技术,编写了对标博主的优化和AI技术的软件,使用到科学家提出的数值和文本加速库,特别是密集程序的文本展示,确是长期交互信息的结果,其应用规模和Web关注度是互补的,即应用规模越大,科学家看到的Web关注度稍小。AI应用受泛函提出者的管制,所以在欧式空间这个实值变化的泛函中,经验科学的加速应用是目前受底层反射机制的支持和管线配置。

2024-10-24 09:30:48 479

原创 梯度和曲率的部署辨析

连续、梯度、割线、优化、曲率

2024-10-20 15:42:10 631

原创 集群嵌入的面向对齐的文本高性能研发

首先,逐步解释并保存数据的开发是能帮助部分擅用声控报点和视觉定位的人来完成大型工程,这仅限于编译器和解释器的双扩容设施能支持并预判内存行为等。先验设计就是人的记忆停留在静态纸物,需要动态的低维试验来完成视觉或声控断点的理解和记忆,例如长期的编译开发中,如果仅依赖编译过程,那么会导致变量和存储引用的检查被人体的理解给回退到简单的程序过程,这是编译模式的操作系统提倡的开发技术,但是目前算力在单进程和多线程的支持是需要先验的验证数据流,从而减少编译次数,来研发复杂的单次多用途的嵌入式高性能程序。

2024-10-05 15:27:35 578

原创 编程的进阶和并发之路

寻找研发博主的帮助,初期在做大数据和流式并发的博主,一般拥有全套的模拟、测试、发布体系,特别是流式并发和内存引用的监控体系,博主所以推崇Python,因为从经验上讲,Python从对象名称和架构体系,已经是宏观的映射内存优化到编程界面,即所谓的交互式编程,集群编程,都是Python的连接能力而赋予的分布式节点控制。这里建议有学科背景的人,可以使用pip下载optimtool,sortingx,perming,porgo等库来完成任务,这是博主使用形参编程的著作,前提是阅读本文的人具备实际认可的背景。

2024-07-31 18:38:13 374

原创 全局优化与目标优化的异同

从问题举例和应用来解析全局优化与目标优化的异同

2024-07-03 21:24:15 523

原创 使用porgo研究多峰函数

多峰函数是具备多个局部极小点,并且在局部极小处梯度信息为0的函数。

2024-04-06 17:02:25 322

原创 机器学习软件perming的使用文档

perming: Perceptron Models Are Training on Windows Platform with Default GPU Acceleration.

2024-04-06 16:49:42 960

原创 基于JAX的二阶优化方法的实践

存储在linjing-lab/jax的分支linjing-lab上的算法

2024-04-05 15:57:41 757

原创 研究目标函数的全局极小点

本文采用轻量的算法在初始化空间内下降随机生成点

2024-04-05 15:17:58 301

原创 barzilar_borwein算法微调函数的优化收敛

barzilar_borwein是一种基于默认参数微调的保持梯度下降的算法

2023-10-19 17:14:51 920 2

原创 基于复合优化加速算法研究实际问题

复合优化算法的加速框架在非凸函数的先验下也能收敛

2023-10-16 23:25:39 542

原创 基于有限内存BFGS方法的优化研究

有限内存BFGS方法按照前k-m到k次的历史数据更新下一次的梯度

2023-10-16 22:39:47 533

原创 无约束优化方法(optimtool.unconstrain)

无约束优化方法(optimtool.unconstrain)

2023-10-05 18:17:54 519

原创 优化方法的应用(optimtool.example)

优化方法的应用(optimtool.example)

2023-10-05 18:16:44 236

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除