14、Erlang 第二天学习:形式变换与函数式编程进阶

Erlang 第二天学习:形式变换与函数式编程进阶

1. 学习回顾与准备

在第一天的学习中,我们主要聚焦于基础操作,在控制台和编译器中进行了实践。创建了基本表达式和简单函数,体会到了 Erlang 像 Prolog 一样,函数可以有多个入口点。我们还使用了基本的模式匹配、元组和列表,其中元组替代了 Ruby 中的哈希,成为数据结构的基础,并且学会了在列表和元组上进行模式匹配,这些知识将有助于我们在后续章节中为元组或进程间消息添加行为。

第二天,我们将拓展基本的函数式概念,学习如何构建适用于并发环境的代码,但暂不深入并发部分。在此之前,建议进行一些自我学习,巩固已学知识。以下是第一天的自我学习任务:

查找资料

  • 查找 Erlang 语言的官方网站。
  • 查找 Erlang 函数库的官方文档。
  • 查找 Erlang 的 OTP 库文档。

编写代码

  • 编写一个使用递归返回字符串中单词数量的函数。
  • 编写一个使用递归计数到十的函数。
  • 编写一个使用匹配功能的函数,根据输入 {error, Message} success 有选择地打印 “success” 或 “error: message”。

2. 函数式编程的优势

函数式语言比面向对象语言具有更高的抽象层次,虽然更难理解,但能用更少的代码表达更宏大的思想。就像《黑客帝国》中的特工史密斯,他能变身为矩阵中的任何人,在函数式语言里

MATLAB代码实现了一个基于多种智能优化算法优化RBF神经网络的回归预测模型,其核心是通过智能优化算法自动寻找最优的RBF扩展参数(spread),以提升预测精度。 1.主要功能 多算法优化RBF网络:使用多种智能优化算法优化RBF神经网络的核心参数spread。 回归预测:对输入特征进行回归预测,适用于连续值输出问题。 性能对比:对比不同优化算法在训练集和测试集上的预测性能,绘制适应度曲线、预测对比图、误差指标柱状图等。 2.算法步骤 数据准备:导入数据,随机打乱,划分训练集和测试集(默认7:3)。 数据归一化:使用mapminmax将输入和输出归一化到[0,1]区间。 标准RBF建模:使用固定spread=100建立基准RBF模型。 智能优化循环: 调用优化算法(从指定文件夹中读取算法文件)优化spread参数。 使用优化后的spread重新训练RBF网络。 评估预测结果,保存性能指标。 结果可视化: 绘制适应度曲线、训练集/测试集预测对比图。 绘制误差指标(MAE、RMSE、MAPE、MBE)柱状图。 十种智能优化算法分别是: GWO:灰狼算法 HBA:蜜獾算法 IAO:改进天鹰优化算法,改进①:Tent混沌映射种群初始化,改进②:自适应权重 MFO:飞蛾扑火算法 MPA:海洋捕食者算法 NGO:北方苍鹰算法 OOA:鱼鹰优化算法 RTH:红尾鹰算法 WOA:鲸鱼算法 ZOA:斑马算法
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值