ruby way之数值计算之三

本文介绍了一系列数学计算技巧,包括定积分的Riemannsum方法、处理三角函数的不同输入单位、求任意底数的对数、计算统计量如方差和标准差等。通过具体的Ruby代码示例展示了这些计算方法。
1定积分的计算

我么可以使用Riemann sum来计算积分:

[code]def integrate(x0, x1, dx=(x1-x0)/1000.0) #也就是求一个函数在x0到x1区间的积分
x = x0
sum = 0
loop do
y = yield(x)
sum += dx * y
x += dx
break if x > x1
end
sum
end

def f(x)
x**2
end

z = integrate(0.0,5.0) {|x| f(x) }

puts z, "\n" # 41.7291875[/code]

2三角计算

现有的sin之类的三角函数只能接受一个弧度为参数,我们可以这样处理能让它接受角度和梯度:

[code]module Math

RAD2DEG = 360.0/(2.0*PI) # Radians to degrees
RAD2GRAD = 400.0/(2.0*PI) # Radians to grads

end

def sin_d(theta)
Math.sin(theta/Math::RAD2DEG)
end

def sin_g(theta)
Math.sin(theta/Math::RAD2GRAD)
end

puts sin_d(30)[/code]

3 求对数

我们现在求对数经常是基于10为底的,或者是以e为底的,当我们现在要求以任何数为底的对数:

这个的求值,我们使用到了对数的一个变化,比如求以二为底的对数:
[code]def log2(x)
Math.log(x)/Math.log(2)
end[/code]

以此类推,我们能够求任意底的对数。

4 求均值,中值和众数
这节没什么意思,都是些概念性的东西

5计算方差和标准差

方差:是各个数据与平均数之差的平方的平均数,即 s^2=1/n[(x1-x_)^2+(x2-x_)^2+...+(xn-x_)^2],标准差就是方差的1/2次方.

程序如下;

[code]data = [2, 3, 2, 2, 3, 4, 5, 5, 4, 3, 4, 1, 2]

def variance(x)
m = mean(x) #这边也就是得到序列的平均值
sum = 0.0
x.each {|v| sum += (v-m)**2 }
sum/x.size
end

def sigma(x)
Math.sqrt(variance(x))
end

puts variance(data) # 1.461538462
puts sigma(data) # 1.20894105[/code]

6 得到一个相关系数

主要是相关系数的概念,大家可以自己找找资料
7 得到随机数

使用rand方法,和其他语言中的使用方法一样,得到的是一个伪随机数。

如果你想自己放入一个随机数种子,你可以使用srand方法

8使用memoize缓存函数

假设你正在做一个计算,一个函数会被调用很多次,并且其中的很多次传进去的参数,得到的结果都是一样的,这个时候我们可以使用缓存函数来提升性能:

memoize不是标准库,需要你去下载:

[code]def zeta(x,y,z)
lim = 0.0001
gen = 0
loop do
gen += 1
p,q = x + y/2.0, z + y/2.0
x1, y1, z1 = p*p*1.0, 2*p*q*1.0, q*q*0.9
sum = x1 + y1 + z1
x1 /= sum
y1 /= sum
z1 /= sum
delta = [[x1,x],[y1,y],[z1,z]]
break if delta.all? {|a,b| (a-b).abs < lim }
x,y,z = x1,y1,z1
end
gen
end

puts g1 = zeta(0.8,0.1,0.1)

memoize(:zeta) # 将这个函数缓存在内存里
puts g2 = zeta(0.8,0.1,0.1) #就直接从内存里面读取

memoize(:zeta,"z.cache") # 将这个函数缓存在硬盘上
puts g3 = zeta(0.8,0.1,0.1)[/code]

我们还可以指定存储为一个文件,不过这样的话速度更慢一下,放在内存中是最快的.
MATLAB代码实现了一个基于多种智能优化算法优化RBF神经网络的回归预测模型,其核心是通过智能优化算法自动寻找最优的RBF扩展参数(spread),以提升预测精度。 1.主要功能 多算法优化RBF网络:使用多种智能优化算法优化RBF神经网络的核心参数spread。 回归预测:对输入特征进行回归预测,适用于连续值输出问题。 性能对比:对比不同优化算法在训练集和测试集上的预测性能,绘制适应度曲线、预测对比图、误差指标柱状图等。 2.算法步骤 数据准备:导入数据,随机打乱,划分训练集和测试集(默认7:3)。 数据归一化:使用mapminmax将输入和输出归一化到[0,1]区间。 标准RBF建模:使用固定spread=100建立基准RBF模型。 智能优化循环: 调用优化算法(从指定文件夹中读取算法文件)优化spread参数。 使用优化后的spread重新训练RBF网络。 评估预测结果,保存性能指标。 结果可视化: 绘制适应度曲线、训练集/测试集预测对比图。 绘制误差指标(MAE、RMSE、MAPE、MBE)柱状图。 十种智能优化算法分别是: GWO:灰狼算法 HBA:蜜獾算法 IAO:改进天鹰优化算法,改进①:Tent混沌映射种群初始化,改进②:自适应权重 MFO:飞蛾扑火算法 MPA:海洋捕食者算法 NGO:北方苍鹰算法 OOA:鱼鹰优化算法 RTH:红尾鹰算法 WOA:鲸鱼算法 ZOA:斑马算法
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值