- 博客(8)
- 收藏
- 关注
原创 课设第五小问
avg_min = np.mean(np.fmin(a[i, :], a[j, :])) # 计算i和j行的交的算术平均值。empty.append(min(a[i, k], b[k, j])) # 行列元素比小。print("\n采用最大值规格化法将数据规格化为\n", MaxNormalization(input))print("\n平方法合成传递闭包\n", TransitiveClosure(input))print("\n模糊聚类结果\n", Result(input))
2024-12-19 20:10:39
313
原创 第一小问补完
bottom_diff = self.prob - self.label_onehot#计算 Softmax 层输出的概率分布 self.prob 与真实标签 one-hot 编码 self.label_onehot 之间的差异。self.d_bias = np.sum(top_diff, axis=0, keepdims=True)#计算偏置的梯度 d_bias。self.d_weight = np.dot(self.input.T, top_diff)#计算权重的梯度 d_weight。
2024-12-19 19:35:02
306
原创 以人事招聘为例的误差反向传播算法 (第四小问)
利用隐藏层2的误差,求出三个偏导(即隐藏层1到隐藏层2的权值改变)# 利用隐藏层1的误差,求出三个偏导(即输入层到隐藏层1的权值改变)# 利用输出层的误差,求出三个偏导(即隐藏层2到输出层的权值改变)# 大于等于0.5的值归为1类,小于0.5的值归为0类。# 标签,也叫真值,1行1列,张三的真值:一定录用。# 定义一个2隐层的神经网络:2-2-2-1。# 隐藏层1到隐藏层2的权值初始化,2行2列。# 输入层到隐藏层1的权值初始化,2行2列。# 隐藏层2到输出层的权值初始化,2行1列。
2024-12-18 16:38:20
771
原创 以人事招聘为例的误差反向传播算法 (第三小问)
定义一个2隐层的神经网络:2-2-2-1。# 定义sigmoid函数及其导数。# 测试不同梯度下降方法。# 更新权值和偏置值。
2024-12-18 16:37:34
1297
原创 以人事招聘为例的误差反向传播算法 (第二小问)
输入层2个神经元,隐藏1层2个神经元,隐藏2层2个神经元,输出层1个神经元。# 利用隐藏层2的误差,求出三个偏导(即隐藏层1到隐藏层2的权值改变)# 利用隐藏层1的误差,求出三个偏导(即输入层到隐藏层1的权值改变)# 标签,也叫真值,2行1列,张三的真值:一定录用;# 利用输出层的误差,求出三个偏导(即隐藏层2到输出层的权值改变)[0]]) # 李四被招聘的可能性。# 隐藏层1到隐藏层2的权值初始化,2行2列。# 输入层到隐藏层1的权值初始化,2行2列。# 隐藏层2到输出层的权值初始化,2行1列。
2024-12-18 16:36:07
679
原创 以人事招聘为例的误差反向传播算法 (第一小问)
定义一个2-2的神经网络:4个输入神经元 -> 2个隐藏神经元 -> 2个隐藏神经元。# 利用隐藏层2的误差,求出三个偏导(即隐藏层1到隐藏层2的权值改变)# 利用隐藏层1的误差,求出三个偏导(即输入层到隐藏层1的权值改变)# 计算loss值(假设直接使用隐藏层2的输出作为最终输出)# 大于等于0.5的值归为1类,小于0.5的值归为0类。# 标签,也叫真值,1行1列,张三的真值:一定录用。# 隐藏层1到隐藏层2的权值初始化,2行2列。# 输入层到隐藏层1的权值初始化,4行2列。
2024-12-18 16:34:41
276
原创 建立学生管理系统eclipse连接mysql数据库成功,但是查询全部信息失败。
System.out.println("actionPerformed(). 查询所有记录");System.out.println("actionPerformed(). 删除所有记录");}else if(e.getActionCommand().equals("查询所有记录")) {
2023-11-15 11:23:59
285
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人