- 博客(8)
- 收藏
- 关注
原创 人工智能——作业5:卷积-池化-激活
1.For循环版本:手工实现 卷积-池化-激活代码如下: 代码来源 没有直接调用库函数来计算,而是运用for循环来完成卷积-池化-激活效果 代码如下: import numpy as np x = np.array([[-1, -1, -1, -1, -1, -1, -1, -1, -1], [-1, 1, -1, -1, -1, -1, -1, 1, -1], [-1, -1, 1, -1, -1, -1, 1, -1, -1],
2022-05-28 11:00:04
194
原创 人工智能作业四——卷积
一、卷积概念 1.卷积:其本质上是一种互相关函数计算或者是图像处理中的空间滤波器 数学中卷积,主要是为了诸如信号处理、求两个随机变量和的分布等而定义的运算,所以需要“翻转”是根据问题的需要而确定的 卷积神经网络中“卷积”,是为了提取图像的特征,其实只借鉴了“加权求和”的特点 另外数学中的“卷积核”都是已知的或者给定的,卷积神经网络中“卷积核”本来不是给定的,是根据数据训练学习的。 2.卷积核 其实就是一个矩阵,它的作用就是提取特征,不同卷积核提取的特征不同,网络训练的目的就是提高卷积核提取特征的能力。 3.
2022-05-28 10:51:18
1000
原创 人工智能作业三
1.用pytorch实现例题: import torch x1, x2 = torch.Tensor([0.5]), torch.Tensor([0.3]) y1, y2 = torch.Tensor([0.23]), torch.Tensor([-0.07]) print("=====输入值:x1, x2;真实输出值:y1, y2=====") print(x1, x2, y1, y2) w1, w2, w3, w4, w5, w6, w7, w8 = torch.Tensor([0.2]), tor
2022-05-09 10:36:05
138
原创 人工智能作业二
1.反向传播: 反向传播算法是目前用来训练人工神经网络(Artificial Neural Network)的最常用且最有效的算法。是一种与最优化方法(如梯度下降法)结合使用的,用来训练人工神经网络的常见方法。 该方法对网络中所有权重计算损失函数的梯度。 这个梯度会反馈给最优化方法,用来更新权值以最小化损失函数。(误差的反向传播) 说到神经网络,大家看到这个图应该不陌生: 这是典型的三层神经网络的基本构成,Layer L1是输入层,Layer L2是隐含层,Layer L3是隐含层,我们现在手里有一堆数据
2022-05-09 10:16:50
279
原创 树转换为二叉树
利用左孩子右兄弟的思想,将第一个孩子置为二叉树的左孩子,将节点的右兄弟置为右孩子。 #include<iostream> #include<string> #include<new> using namespace std; #define MAXSIZE 100 typedef struct TreeNode{//左孩子右兄弟类型的二叉树结构体 char data; struct TreeNode *child,*bro; }*CSTree,CSNode; v
2022-05-03 10:05:14
1467
1
原创 单链表的数据删除和正逆向输出
逆向输出采用了栈的思想,从而用递归实现。 #include<iostream> #include<string> #include<stdlib.h> using namespace std; typedef struct LNode{ char data; struct LNode *next; }LNode,*LinkList;//创建链表结构体 LinkList List_HeadInsert(LinkList &L,int n){ //头插法创建链表
2022-05-01 21:10:27
778
原创 人工智能 作业一:PYTorch实现反向传播
01 安装pycharm PyCharm 的下载地址:Download PyCharm: Python IDE for Professional Developers by JetBrains 点击下载社区版,然后安装。 安装完成后打开setting更改一下运行环境 PyCharm安装完成。 02 安装pytorch 2.1 下载并安装CUDA 英伟达官网下载CUDA,链接:CUDA Toolkit 11.6 Update 2 Downloads | NVIDIA Dev...
2022-05-01 19:43:08
173
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人