人工神经网络 拟合函数By halcon

本文介绍在Halcon平台使用多层感知器(MLP)人工神经网络模型拟合正弦函数的过程。从创建网络模型、添加训练数据、训练网络、测试模型准确性到最后清除模型,详细解析每一步操作及注意事项。

     现在深度学习越来越流行,在很多地方都能看到它的声影,最常见的就是应用在图像分类上。

     今天给大家带来的是人工神经网络(多层感知器MLP)拟合正弦函数曲线的例子。我们选用的平台是 halcon, 大家理解了原理之后,可以应用到其它平台上,如 openCV ,tensorflow,and so on.

    话不多说,进入今天的正题:

第一步: 创建一个网络模型

//create_class_mlp( : : NumInput, NumHidden, NumOutput, OutputFunction, Preprocessing, NumComponents, RandSeed : MLPHandle) 

  NHidden = 10;
  create_class_mlp(1, NHidden, 1, "linear", "none", 1, 42, &MLPHandle);

这里有个需要注意的地方, 输入层和输出层的大小要与特征向量的维度相等。 由于我们是拟合函数,自然 ,特征 和标签(label)的维度都是 1,所以  输入层和输出层 都设置 为 1。而输出层需要注意,设置太小,可能特征学习不完全,设置过大,学习过程会过拟合。这两者都是我们不愿意看到的,这个隐藏层数只能去尝试,或者根据长期的经验,这里我设置的是  10. 拟合正弦函数的结果还不错,可以改成其他值试一试。

 

第二步,接下来,我们添加训练数据样本。

  //Generate the training data
  NData = 1000;
  for (i=0; i<=1000; i+=1)
  {
    Temp = i*0.01;
    D[i] = Temp;
    T[i] = Temp.Sin();
    add_sample_class_mlp(MLPHandle, HTuple(D[i]), HTuple(T[i]));
  }

需要注意点,特征数据和标签都是浮点数精度,换成整型会报错.  这一步也比较简单。

第三步,接下来,我们训练网络模型。

//train_class_mlp( : : MLPHandle, MaxIterations, WeightTolerance, ErrorTolerance : Error, ErrorLog) 

  //Train the MLP
  train_class_mlp(MLPHandle, 200000, 0.001, 0.001, &Error, &ErrorLog);

这一步只有一行代码,对其中几个重要的参数说明一下:如果需要其他参数说明,可以在halcon中查看说明。

MLPHandle: 网络模型的句柄,代表这个模型。

MaxIterations : 训练时候的迭代次数。 本例子设置的是200000.

Error : 最后一次迭代完成的 最小残差。

ErrorLog : 记录其中迭代次日志,从本文的例子来看,只保存有几次的残差日志数据。

第四步   测试估计训练好的模型准确度。


 evaluate_class_mlp (MLPHandle, 3.1415926/6, Y)

测试数据也比较简单, 选取 0, \pi/6, \pi/3, \pi/2, \pi, 进行测试,得到如下结果:

可以看到,预测估算的结果基本与正弦函数测试值一致,说明我们的模型训练还算是成功的。

 

第五步  清除模型。

clear_class_mlp (MLPHandle)

         好了,以上就是 关于人工神经网络模型训练的一个例子,通过这个例子,可以了解到神经网络训练的一般步骤,为后面学习更加复杂的深度学习模型打下一定的基础。

 

 

### 使用 Halcon 实现 BP 神经网络的数据拟合 #### 创建 MLP 模型 为了创建一个多层感知机 (MLP),首先需要定义神经网络的层数和每层节点的数量。这涉及到初始化一个空的多层感知机对象并设置其参数。 ```cpp // 初始化一个新的多层感知机 create_multilayer_perceptron_class_ni ([]), MlpHandle) // 设置输入层、隐藏层以及输出层的大小 set_mln_layer_sizes (MlpHandle, [input_size, hidden_size_1, output_size]) ``` #### 训练前准备 在正式训练之前,还需要准备好用于训练的数据集,并将其划分为特征向量与对应的标签。此外,还需指定一些重要的超参数如学习率、迭代次数等。 ```cpp // 准备训练数据 read_samples_image ('training_data.hal', ImageID, SampleImage) // 提取样本特征及其类别标记 get_sample_features_and_labels(SampleImage, FeaturesTrain, ClassesTrain) ``` #### 开始训练过程 一旦完成了上述准备工作,则可以调用 `train_mln` 来启动实际的训练流程。此函数会自动调整权重直至达到预设的最大循环次数或满足特定收敛条件为止。 ```cpp // 定义最大迭代次数和其他选项 MaxIterations := 1000; ConvergenceCriterion := 'relative_error'; Epsilon := 0.001; // 执行训练操作 train_mln(MlpHandle, MaxIterations, ConvergenceCriterion, Epsilon, [], []) ``` #### 测试模型性能 完成训练后应当评估所得到的模型效果如何。为此可以从独立于训练集合之外选取一部分验证样本来检验预测准确性。 ```cpp // 获取测试集上的特征及真实标签 get_sample_features_and_labels(TestSampleImage, FeaturesTest, ClassesTrue) // 利用已训练好的MLP来进行分类决策 classify_mln(MlpHandle, FeaturesTest, ClassPredicted) // 统计误差情况 evaluate_classifier_performance(ClassPredicted, ClassesTrue, ErrorRate) ``` 通过以上步骤,在 HALCON 中实现了基于反向传播算法(BP) 的多层感知机(MLP) 对给定数据进行了有效的拟合[^3]。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值