20150116学习总结

本文详细介绍了线性表的概念、内存分配问题及优化,探讨了数据结构中的初始化、保持和终止条件,并通过实例展示了插入排序和分治排序的实现。同时,对单例模式的饿汉和懒汉实现进行了对比分析。

我看别人写的博客排版都好漂亮哦,我现在先赶紧看书进入一个好的学习状态,等过段时间我也要好好学习一下怎么制作好看的博客

总结一下昨天的学习成果吧,昨天其实也没有学习到太多的东西,刚开始嘛,要坚持哦


昨天先学习的线性表,当时因为钻牛角尖了,花了很多时间在内存分配上。

struct List

{

int data;

};


int main()

{

int getMalloc( List *L,int length);

List *L;

      getMalloc(L,5);

}


int getMalloc( List *L,int length)

{

L = (List *)malloc(sizeof(List)*length);

return 1;

}

//初始化赋值部分省略


好我们来看看这里有什么问题

首先最难发现的问题是,malloc分配出来的内存在main里面找不到了

也就是说当getMalloc函数调用完后,main函数里面的L并没有被分配到内存

那么问题来了

我!是!逗!比!吗!

第一个问题,main函数里面既然已经声明了一个List,L不是已经有一块内存了么逗比!还malloc个篮子啊!!

第二个问题,调用函数的时候,子函数(getMalloc)中参数L并没有被传递过来,而是在子函数模块定义了一个跟main里面的L相等的指针,也就是指针的传值调用

妈蛋,能画图我就能说明白了

通过子函数malloc得这样做

getMalloc(&L);

int getMalloc(List** L);

需要传递L的指针,才能对子函数中的L进行实际的操作


好,第一个问题我们解决了,我们来看第二个问题

你!是!逗!比!么!

当初数据结构怎么考的!!!!

谁教你线性表是这样定义的!!!

我说为什么我用L->data[i]编译不通过

我以为是我指针和数组的关系那一部分不扎实呢

人家线性表的定义是

struct List

{

int data[100];

int length;


}

我脑子是抽了吗!!


这里是数据结构部分


晚上还看了点算法导论,学习到了循环不变式


大概是有三个条件来判别一个算法是否正确

初始化:在循环的第一次迭代之前,已排序列A[1..j-1]的有序性是成立的

保持:在循环中的某一次迭代之前,序列A[1..j-1]的有序性仍然成立

终止:在循环结束的时候,序列A[1..j-1]的有序性仍然成立


学习了插入排序和分治排序

插入排序的基本思想是从序列的某一端开始,比如说左边吧,通过把下一个值插入到正确的地方来满足A[ ]的有序,每迭代一次A[ ]的长度+1


分治排序

应该是用递归的方法,先将原序列分成若干个子序列(比如两个数值一组),将子序列排序好后一层一层的递归上去,合并这些子序列,最终合并成一个有序的完整序列


看了点JAVA的多线程,这个就不算了吧

今天学习的是单例模式,单例有两种实现形式:饿汉实现和懒汉实现

public class Singleton{

private Singleton(){}

private static instance = new Singleton();

//这是饿汉的实现形式,使用静态属性获得唯一实例,在这个类被加载的时候对象就生成了,所以在加载类的时候会比较慢,但是在后面使用的时候效率会高

public static Singleton getInstance()

{

return instance;

}

}


我们再来看看懒汉模式


public class Singleton{

private Singleton(){}

private static Singleton instance;

public static Singleton getInstance(){

if(instance == NULL){

instance = new Singleton();

}

return instance;

}

//懒汉模式呢,在类加载的时候会快一点,但是在每次获取实例的时候会多一个判断步骤,我个人比较偏向饿汉模式,因为性价比高呀,尤其是WEB应用中,性能优化这么重要呢

}


妈蛋,今天也就学了这么点内容了,明天继续努力吧





MATLAB代码实现了一个基于多种智能优化算法优化RBF神经网络的回归预测模型,其核心是通过智能优化算法自动寻找最优的RBF扩展参数(spread),以提升预测精度。 1.主要功能 多算法优化RBF网络:使用多种智能优化算法优化RBF神经网络的核心参数spread。 回归预测:对输入特征进行回归预测,适用于连续值输出问题。 性能对比:对比不同优化算法在训练集和测试集上的预测性能,绘制适应度曲线、预测对比图、误差指标柱状图等。 2.算法步骤 数据准备:导入数据,随机打乱,划分训练集和测试集(默认7:3)。 数据归一化:使用mapminmax将输入和输出归一化到[0,1]区间。 标准RBF建模:使用固定spread=100建立基准RBF模型。 智能优化循环: 调用优化算法(从指定文件夹中读取算法文件)优化spread参数。 使用优化后的spread重新训练RBF网络。 评估预测结果,保存性能指标。 结果可视化: 绘制适应度曲线、训练集/测试集预测对比图。 绘制误差指标(MAE、RMSE、MAPE、MBE)柱状图。 十种智能优化算法分别是: GWO:灰狼算法 HBA:蜜獾算法 IAO:改进天鹰优化算法,改进①:Tent混沌映射种群初始化,改进②:自适应权重 MFO:飞蛾扑火算法 MPA:海洋捕食者算法 NGO:北方苍鹰算法 OOA:鱼鹰优化算法 RTH:红尾鹰算法 WOA:鲸鱼算法 ZOA:斑马算法
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值