油管最火十分钟机器学习数学课-神经网络

脸部的特征、单词的联想、声音的语调等这些都是相关的变量,我们可以用一个函数来表示这个关系。对于不同的函数我们有不同的近似模型,对我们自身能力建模可以吗?用神经网络,受人类大脑的启发,是万能函数的逼近器,这意味着可以学习任何函数。1989年证实了,任意决策区域可以通过仅仅只有内部单隐层和任意连续S形非线性特征的连续前馈神经网络来良好的近似。

让我们来建立一个简单的人工神经网络:

from numpy import *

# input data

input_data = array([[0,0,1],[1,1,1],[1,0,1],[0,1,1]])   # 给一些输入数据x
output_labels = array([[0,1,1,0]]).T    # 一些相关的输出标签y

print(input_data)
print(output_labels)

存在一个函数表示x和y之间的映射,y=f(x),我们的目标是学习这个函数,这样就可以随机输入一些x值,预测对应的y值。函数可以通过神经网络即万能函数的逼近器来学习得到近似的结果。代码中x是由一个矩阵表示,每行是不同的数据点,每一列是不同的特征,随机取为0和1,y是由一个列向量表示,如下图:

       

如何学习这个函数,假设有个矩阵,使得input*matrix=output,该矩阵就是我们试图学习的函数的系数,称之为权值。

# weight matrix

synaptic_weghts = 2 * random.random((3,1))-1

print(synaptic_weghts)
print (activate(np.dot(input_data,synaptic_weghts)))   # 预测值,输出输入数据与矩阵点积,即结果传递给Sigmoid函数,归一化为0-1之间的概率值

先随机初始化一个矩阵,结果为 [[-0.42594462] [-0.79605263] [ 0.21454577]],最后,我们希望这个矩阵具有理想值。计算预测值与真正输出的y之间的差异。

训练过程:

# training
for iteration in range(1000):
    output = activate(np.dot(input_data,synaptic_weghts)) # 预测值
    error = output_labels - output # 差异
    print(error)
    synaptic_weghts += np.dot(input_data.T,error * activate(output,True))

# testing
print(activate(np.dot(array([1,0,0]),synaptic_weghts))) # 输出[0.99929763]

我们知道梯度下降可以现实线性回归计算误差对权重的偏导数,就得到了一个梯度值。梯度下降算法就是寻找一个误差最小值。因此,我们增加梯度值来调整矩阵中的值,多次迭代训练,随着迭代误差将减少,最终我们的网络能够预测正确的输出标签。

神经网络可以视为是个大复合函数,由其他函数嵌套而成,每层都是一个这样的函数,把前一级函数的输出作为输入。

假如我们有一个数据集,输入和输出不是一对一关系,这样我们简单的AF神经网络就无法学习了。这样我们就需要把输入数据组合成一种新的表示,让其与输出具有一对一的关系,为此我们需要添加中间层。

                                                          

如图,我们将第一层作为组合输入,第二层将使用第一层的输出作为输入,再将其映射到输出。所以我们用第一个权值矩阵乘以输入,然后用sigmoid函数作为激活函数将其激活,得到结果layer1并将其传递给下一层作为输入。

def activate(x,deriv=False):
    if(deriv==True):
        return x*(1-x)
    return 1/(1+np.exp(-x))

# 2 weight value

synaptic_weight_0 = 2 * np.random.random((3,4))-1
synaptic_weight_1 = 2 * np.random.random((4,1))-1

print(synaptic_weight_0)
print(synaptic_weight_1)


# training
for iteration in range(60000):
    # forward propagate through layers0,1,2
    layer0 = input_data
    layer1 = activate(np.dot(layer0,synaptic_weight_0))  # 所以我们用第一个权值矩阵乘以输入
    layer2 = activate(np.dot(layer1,synaptic_weight_1))

    #calculate erro for layer 2
    layer2_erro = output_labels - layer2

    if (iteration % 10000) == 0
        print(str(np.mean(np.abs(layer2_erro))))
        
    # use it to compute the gradient
    layer2_gradient = 12_erro*activate(layer2,deriv=True)
    
    # calculate erro for layer1
    layer1_erro = layer2_gradient.dot(synaptic_weight_1.T)
    
    # use it to compute its gradient
    layer1_gradient = layer1_erro*activate(layer1,deriv=True)
    
    # update the weights using the gradients
    synaptic_weight_1 += layer1.T.dot(layer2_gradient)
    synaptic_weight_0 += layer0.T.dot(layer1_gradient)

   当我们计算预测值时,由于多个权值要更新,我们将递归计算反向上每一层的梯度误差 ,然后可以单独更新每个权值。我们称之为反向传播,在前向传播我们输入数据之后,我们将误差梯度反向传播更新我们的权值,这就是前馈神经网络。

循环网络是时序模型,是通过时间的反向传播。

当存在未标记的数据时,神经网络仍能够学习到函数吗?能够完成这个过程的神经网络叫做自组织神经网络,它首先对网络的权值进行随机初始化,将其看作二维神经元数组,每个神经元有一个具体的拓扑位置,并且包含与输入向量具有相同维度的权重向量连接节点之间的线仅仅代表它们相邻,并不代表之前的神经网络提到的那种联系。

                                                           

接着从训练集中随机选择一个数据点,计算它与每个权值之间的欧氏距离,与之最近则是最相似,遍历其它节点来判断它们是否在它的半径范围内,并对它邻居节点的权值进行调整。反复执行该过程,是整个训练过程中一部分,对于每一个学习标签,这些节点通过自组织过程形成集群,临近的节点代表它们输入具有相似特征。我们甚至可以可视化,便于我们观察这些集群。

                                                

如果我们在上述基础上增加网络层数,输入数据量以及更多计算量时,这会被称作深度学习。                                                       总而言之,神经网络只是一连串的矩阵运算,归根结底就是一个大的复合函数。由于在这些运算中会使用到非线性函数,比如sigmoid函数,因此它们能逼近任何线性或是非线性函数。如果数据没有标签,我们可以用自组织神经网络来学习得到带标签的集群。

C语言-光伏MPPT算法:电导增量法扰动观察法+自动全局搜索Plecs大功率跟踪算法仿真内容概要:本文档主要介绍了一种基于C语言实现的光伏大功率点跟踪(MPPT)算法,结合电导增量法与扰动观察法,并引入自动全局搜索策略,利用Plecs仿真工具对算法进行建模与仿真验证。文档重点阐述了两种经典MPPT算法的原理、优缺点及其在不同光照和温度条件下的动态响应特性,同时提出一种改进的复合控制策略以提升系统在复杂环境下的跟踪精度与稳定性。通过仿真结果对比分析,验证了所提方法在快速性和准确性方面的优势,适用于光伏发电系统的高效能量转换控制。; 适合人群:具备一定C语言编程基础和电力电子知识背景,从事光伏系统开发、嵌入式控制或新能源技术研发的工程师及高校研究人员;工作年限1-3年的初级至中级研发人员尤为适合。; 使用场景及目标:①掌握电导增量法与扰动观察法在实际光伏系统中的实现机制与切换逻辑;②学习如何在Plecs中搭建MPPT控制系统仿真模型;③实现自动全局搜索以避免传统算法陷入局部峰值问题,提升复杂工况下的大功率追踪效率;④为光伏逆变器或太阳能充电控制器的算法开发提供技术参考与实现范例。; 阅读建议:建议读者结合文中提供的C语言算法逻辑与Plecs仿真模型同步学习,重点关注算法判断条件、步长调节策略及仿真参数设置。在理解基本原理的基础上,可通过修改光照强度、温度变化曲线等外部扰动因素,进一步测试算法鲁棒性,并尝试将其移植到实际嵌入式平台进行实验验证。
【无人机协同】动态环境下多无人机系统的协同路径规划与防撞研究(Matlab代码实现)​ 内容概要:本文围绕动态环境下多无人机系统的协同路径规划与防撞问题展开研究,提出基于Matlab的仿真代码实现方案。研究重点在于在复杂、动态环境中实现多无人机之间的高效协同飞行与避障,涵盖路径规划算法的设计与优化,确保无人机集群在执行任务过程中能够实时规避静态障碍物与动态冲突,保障飞行安全性与任务效率。文中结合智能优化算法,构建合理的成本目标函数(如路径长度、飞行高度、威胁规避、转弯角度等),并通过Matlab平台进行算法验证与仿真分析,展示多机协同的可行性与有效性。; 适合人群:具备一定Matlab编程基础,从事无人机控制、路径规划、智能优化算法研究的科研人员及研究生。; 使用场景及目标:①应用于灾害救援、军事侦察、区域巡检等多无人机协同任务场景;②目标是掌握多无人机系统在动态环境下的路径规划与防撞机制,提升协同作业能力与自主决策水平;③通过Matlab仿真深入理解协同算法的实现逻辑与参数调优方法。; 阅读建议:建议结合文中提供的Matlab代码进行实践操作,重点关注目标函数设计、避障策略实现与多机协同逻辑,配合仿真结果分析算法性能,进一步可尝试引入新型智能算法进行优化改进。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值