- 博客(13)
- 收藏
- 关注
原创 关于C++:openmp多层循环的探讨
引导的 for 语句块确实是并行执行的,但它仍然保留了一些外部 for 语句块的性质。并行性:#pragma omp parallel for 将外部循环分配给多个线程,使它们可以同时处理不同的迭代。这样可以加速计算。内部变量的性质:如果你在内部循环之前声明变量,那么每个线程都会有自己的私有副本。这意味着每个线程都可以独立地修改和访问这些变量,而不会影响其他线程。就像普通的for语句块那样如果你在外部循环之前声明变量,那么这些变量将成为共享变量。在并行执行期间,多个线程可以同时访问这些共享变量。
2024-06-18 12:35:14
985
原创 了解Rust里的偏序关系
Rust在声明一个枚举的时候会把它和整数看成完全不同的东西.Rust的编译器多精啊,早就算到了我懒得自己写,然后就可以用这个标记(官方叫属性。当时我就傻了,尼玛我终于体会到计算机专业的离散数学有啥用了.最近在学Rust,Rust真好用啊!肯定有类似默认处理的方法,接着查!当时我查的结果是这样的,
2024-03-08 17:47:32
376
原创 深度学习入门笔记4#训练我们的模型
好,那么迄今为止,我们已经成功构建了一个两层的神经网络模型,那么现在呢,我们将使用我们的数据局对这个模型进行训练。废话不多说,直接上代码。接着我们构建一个我们神经网络模型的对象,输入大小为784,隐藏层的大小是50,输出层的大小是10。这里的输入层对应着我们数据集。这里进行训练,每次从数据集中取出数据,进行前向遍历与反向遍历。训练次数10000次,批大小为100,学习率为0.1。接下来我们定义一些变量用于训练过程中的记录。最终输出记录的数据为图表。首先通过我们的数据集模块。,进行数据集的加载。
2023-09-07 16:08:29
243
原创 深度学习入门笔记3#搭建一个模型
这一次我们使用这些计算函数和层构建起一个简单的有两层的神经网络模型,我们要编写一个`TwoLayerNet`类,我们将通过这个类来管理我们的计算层以及权重偏置等参数,以及实现训练的前向反向传播计算和loss函数
2023-09-07 15:45:05
175
原创 深度学习入门笔记2#深度学习所需要的计算函数与层
整个网络实质上是一个多维的矩阵,神经网络各个节点包括一些偏置和权重就是矩阵里的元素。通过学习我们知道:全连接神经网络的实现呢,是有数据集与神经网络组成的。神经网络又是由输入层、中间的全连接层以及最后的输出层组成的。这一篇我们来实现一下这些计算函数。
2023-08-14 17:44:07
139
原创 深度学习入门笔记1#MNIST数据集的下载以及使用
此系列为学习鱼书-《深度学习入门-基于python的理论与实现》的笔记最终目标:实现MNIST手写数据集的全连接神经网络与卷积神经网络的识别第一篇:实现MNIST数据集的下载导入等功能。
2023-08-07 10:24:01
10816
5
原创 关于C++:STL容器模板类的内部实现-array
关于C++:STL容器模板类的内部实现-array本小白最近在学习C++中STL的相关知识,特在此做个笔记今天看到了array类的内部实现,特此来整理一下所学
2022-04-16 13:36:06
946
原创 关于C++:各种常量
关于C++:各种常量本小白了解C++中const关键字的用法,特在此做个笔记今天在助教工作中遇到同学提出的一些问题,认为非常有意义且重要,特此来整理一下所学
2022-04-16 13:33:58
660
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人