
深度学习
文章平均质量分 75
Chaney不会代码
生活原本郁闷,但跑起来就会有风。
展开
-
推荐系统的整体流程架构解读
之后我们在会把这个时效性不是很强的相关的内容,机器学习审核之后,会去先小批量的分发,之后如果没有人进行相关的举报,再去全流量进行相关的分发,整个过程中是只会存在这抽查这个相关的过程的,而不是回想这个热点性极高的信息一样全面进行检查。对于这个时效性较强的内容之中,运营之后即审核进行相关的通过,在这个机器学习的相关的领域之中,我们也要去明白这个文本之间也是具有文本信息处理相关的快慢之分的。每一类的召回都是存在着自身的相关的缺陷的,行为类召回对新用户,新产品是表现的比较的差的,甚至是没有办法去做的。原创 2024-10-12 20:24:22 · 488 阅读 · 0 评论 -
从零搭建ShuffleNet
【代码】从零搭建ShuffleNet。原创 2024-10-02 09:13:38 · 230 阅读 · 0 评论 -
ShuffleNet系列
ShuffleNet V1 是一种创新的轻量级卷积神经网络架构,通过分组卷积和通道重排等技术,在移动设备和边缘计算环境中提供了高效的性能。其设计使其能够在保持高准确率的同时,显著降低计算复杂度,适合各种实际应用场景。ShuffleNet V2 是 ShuffleNet 系列的第二代网络架构,旨在提高移动设备和边缘计算中的深度学习模型的效率和性能。相较于 ShuffleNet V1,ShuffleNet V2 在设计上进行了多方面的优化,以便在计算资源有限的条件下,仍能实现高准确性和高效推理。原创 2024-10-02 09:10:22 · 662 阅读 · 0 评论 -
从零搭建 模型MobileNet
从给出的结果来看,mobilenetv1 和 mobilenetv2 的性能指标分别为 0.171382 和 0.245386。如果这些数值表示推理时间(通常以秒为单位),则 mobilenetv1 的推理时间为 0.171382 秒,而 mobilenetv2 的推理时间为 0.245386 秒。mobilenetv2 的准确率为 0.245386,而 mobilenetv1 的准确率为 0.171382。库版本: 确认使用的 PyTorch 版本是最新的,以便利用最新的优化技术。原创 2024-10-02 08:30:54 · 819 阅读 · 0 评论 -
MobileNet系列
MobileNet V1 的主要作用是为移动设备和嵌入式系统提供一种高效、灵活的深度学习解决方案。它通过优化计算资源的使用,支持多种应用场景,尤其是在需要实时响应和低功耗的环境中,发挥了重要的作用。缺点:尽管 MobileNet V1 在移动设备和嵌入式系统中具有许多优势,但它也存在一些缺点和局限性。MobileNet V1 虽然在轻量级和高效性方面表现优异,但也有其局限性,特别是在准确性、特征提取能力和适用性方面。原创 2024-10-02 07:51:19 · 1108 阅读 · 0 评论 -
ResNet DenseNet
ResNet 是一种通过残差学习有效解决深层网络退化问题的架构。其创新的跳跃连接使得网络能够更轻松地训练,成为深度学习研究和应用中一项具有里程碑意义的进展。ResNet 的成功推动了更深网络设计的发展,并对后续的网络架构产生了深远影响。ResNet的模型相对于链式结构会变的更加的复杂ResNet的层数也会变的更加的多,可以人为的进行控制。原创 2024-10-02 00:26:08 · 1424 阅读 · 0 评论 -
从零搭建ResNet
【代码】从零搭建ResNet。原创 2024-10-02 00:10:11 · 434 阅读 · 0 评论 -
AlexNet 和 VGGNet
Dropout 是一种有效的正则化技术,通过在训练期间随机丢弃神经元,提升模型的泛化能力和鲁棒性,减少过拟合。它的实现简单且效果显著,因此在深度学习的应用中被广泛使用。对于现在的激活函数不管是Relu还是sigmiod函数我们都可以去使用没有说明我们一定要去使用这个RELU函数这个函数的泛化能力确实比较不错但是我们也不能说其他的激活函数没有用武之地VGGNet。原创 2024-10-01 23:55:28 · 788 阅读 · 0 评论 -
从零搭建VGGNet
在 forward 方法中实现了前向传播过程,包括卷积、激活、池化和平铺操作,最后通过全连接层得到分类结果。使用 torch.onnx.export 将模型导出为 ONNX 格式的文件 vgg.onnx。导出 ONNX:将模型导出为 ONNX 格式,便于在其他平台或框架中使用。定义 VGG 网络:构建了一个包含多个卷积层、池化层和全连接层的网络。使用 torch.save 将整个模型保存为 vgg.pth 文件。前向传播:对输入数据进行前向传播,得到输出结果。保存模型:将模型保存为 .pth 文件。原创 2024-10-01 23:20:37 · 384 阅读 · 0 评论 -
从零搭建GoogLeNet
训练模式下的Dropout:尽管ONNX导出模式设置为评估模式(TrainingMode.EVAL),但在导出过程中检测到dropout操作被设置为训练模式(train=True)。建议检查模型中的dropout层是否正确地切换到了评估模式,并关注Slice操作的具体参数设置。常量折叠限制:对于ONNX的Slice操作符,在opset版本大于等于10的情况下,只有当steps=1时才能进行常量折叠。其他情况下,常量折叠不会被应用。后面的报错是在模型训练完之后进行相关的导出的。在这里奉上我的代码的测试结果。原创 2024-10-01 22:55:48 · 397 阅读 · 0 评论 -
1*1 and GoogLeNet卷积
首先,我们先去介绍1*1的卷积对于1*1的卷积的实现就是其卷积核的尺寸大小为一的特例这类的卷积核的尺寸是相对来说是比较小的在模型的训练过程中也更加的精细对于我们在之后的判断过程中也更加的具有准确性11的卷积在卷积神经网络(CNN)中是一种用于进行降维和控制网络复杂度的技术。在GoogLeNet等网络结构中,11的卷积主要用于以下目的:降维:通过使用1*1的卷积,可以减少输入通道的数量,有助于管理计算复杂度并控制网络过拟合。原创 2024-10-01 21:35:33 · 856 阅读 · 0 评论 -
神经网络的学习--深度学习
y[np.arange(batch_size), t] 会 生 成 NumPy 数 组 [y[0,2], y[1,7], y[2,0],predict(self, x) 和。t 中标签是以 [2, 7, 0, 9, 4] 的形式存储的,所以 y[np.arange(batch_size),时,np.arange(batch_size) 会生成一个 NumPy 数组 [0, 1, 2, 3, 4]。梯度是 (6, 8)、点 (0, 2) 处的梯度是 (0, 4)、点 (3, 0) 处的梯度是 (6, 0)。原创 2024-09-12 09:17:08 · 921 阅读 · 0 评论 -
神经网络--深度学习(2)
x[i:i+batch_n] 会取出从第 i 个到第 i+batch_n 个之间的数据。在 x 中的图像数据,用 predict() 函数进行分类。若像 range(start, end, step) 这样指定 3 个整数,则生成的列表中的。可以用 np.argmax(x) 函数取出数组中的最大值的索引,np.argmax(x) 将。在 range() 函数生成的列表的基础上,通过 x[i:i+batch_size] 从输入数。这指定了在 100 × 10 的数组中,沿着第 1 维方向(以。原创 2024-09-12 08:34:25 · 1327 阅读 · 0 评论 -
神经网络--深度学习(1)
函 数,把 y(x) = h(h(h(x))) 的 运 算 对 应 3 层 神 经 网 络 A。为 np.exp(-x) 会生成 NumPy 数组,所以 1 / (1 + np.exp(-x)) 的运算将会在。图 3-12 中,3 × 2 的矩阵 A 和 2 × 4 的矩阵 B 的乘积运算生成了 3 × 4 的。第 1 行第 1 列的元素,A 的第 2 行和 B 的第 1 列的结果是新数组的第 2 行第 1。的形状是 2 × 3,矩阵 B 的形状是 3 × 2,矩阵 A 的第 1 维的元素个数(3)和。原创 2024-09-11 23:24:39 · 921 阅读 · 0 评论 -
感知机--深度学习
(w1, w2, θ) = (0.5, 0.5, 0.7) 时,可 以 满 足 图 2-2 的 条 件。或门在 (x1, x2) = (0, 0) 时输出 0,在 (x1, x2) 为 (0, 1)、(1, 0)、(1, 1) 时输。(b, w1, w2 ) = (−0.5, 1.0, 1.0) 时,可满足图 2-4 的真值表条件。当我们去执行这个异或XOF的时候,这个感知机中的这个公式不管是进行怎么样子的变化,都是无法去执行这个相应的图像的。那么与非门的参数又可。图 2-6 中,○表示 0,△表示 1。原创 2024-09-11 21:20:23 · 1058 阅读 · 0 评论