自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(8)
  • 收藏
  • 关注

原创 第六小问(选做)

np.random.seed(0) # 令随机数种子=0,确保每次取得相同的随机数。

2024-12-22 14:08:49 376

原创 课设第五小问

avg_min = np.mean(np.fmin(a[i, :], a[j, :])) # 计算i和j行的交的算术平均值。empty.append(min(a[i, k], b[k, j])) # 行列元素比小。print("\n采用最大值规格化法将数据规格化为\n", MaxNormalization(input))print("\n平方法合成传递闭包\n", TransitiveClosure(input))print("\n模糊聚类结果\n", Result(input))

2024-12-19 20:10:39 313

原创 第一小问补完

bottom_diff = self.prob - self.label_onehot#计算 Softmax 层输出的概率分布 self.prob 与真实标签 one-hot 编码 self.label_onehot 之间的差异。self.d_bias = np.sum(top_diff, axis=0, keepdims=True)#计算偏置的梯度 d_bias。self.d_weight = np.dot(self.input.T, top_diff)#计算权重的梯度 d_weight。

2024-12-19 19:35:02 306

原创 以人事招聘为例的误差反向传播算法 (第四小问)

利用隐藏层2的误差,求出三个偏导(即隐藏层1到隐藏层2的权值改变)# 利用隐藏层1的误差,求出三个偏导(即输入层到隐藏层1的权值改变)# 利用输出层的误差,求出三个偏导(即隐藏层2到输出层的权值改变)# 大于等于0.5的值归为1类,小于0.5的值归为0类。# 标签,也叫真值,1行1列,张三的真值:一定录用。# 定义一个2隐层的神经网络:2-2-2-1。# 隐藏层1到隐藏层2的权值初始化,2行2列。# 输入层到隐藏层1的权值初始化,2行2列。# 隐藏层2到输出层的权值初始化,2行1列。

2024-12-18 16:38:20 771

原创 以人事招聘为例的误差反向传播算法 (第三小问)

定义一个2隐层的神经网络:2-2-2-1。# 定义sigmoid函数及其导数。# 测试不同梯度下降方法。# 更新权值和偏置值。

2024-12-18 16:37:34 1297

原创 以人事招聘为例的误差反向传播算法 (第二小问)

输入层2个神经元,隐藏1层2个神经元,隐藏2层2个神经元,输出层1个神经元。# 利用隐藏层2的误差,求出三个偏导(即隐藏层1到隐藏层2的权值改变)# 利用隐藏层1的误差,求出三个偏导(即输入层到隐藏层1的权值改变)# 标签,也叫真值,2行1列,张三的真值:一定录用;# 利用输出层的误差,求出三个偏导(即隐藏层2到输出层的权值改变)[0]]) # 李四被招聘的可能性。# 隐藏层1到隐藏层2的权值初始化,2行2列。# 输入层到隐藏层1的权值初始化,2行2列。# 隐藏层2到输出层的权值初始化,2行1列。

2024-12-18 16:36:07 679

原创 以人事招聘为例的误差反向传播算法 (第一小问)

定义一个2-2的神经网络:4个输入神经元 -> 2个隐藏神经元 -> 2个隐藏神经元。# 利用隐藏层2的误差,求出三个偏导(即隐藏层1到隐藏层2的权值改变)# 利用隐藏层1的误差,求出三个偏导(即输入层到隐藏层1的权值改变)# 计算loss值(假设直接使用隐藏层2的输出作为最终输出)# 大于等于0.5的值归为1类,小于0.5的值归为0类。# 标签,也叫真值,1行1列,张三的真值:一定录用。# 隐藏层1到隐藏层2的权值初始化,2行2列。# 输入层到隐藏层1的权值初始化,4行2列。

2024-12-18 16:34:41 276

原创 建立学生管理系统eclipse连接mysql数据库成功,但是查询全部信息失败。

System.out.println("actionPerformed(). 查询所有记录");System.out.println("actionPerformed(). 删除所有记录");}else if(e.getActionCommand().equals("查询所有记录")) {

2023-11-15 11:23:59 285

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除