- 博客(78)
- 资源 (1)
- 收藏
- 关注
原创 《C++并发编程实战》笔记(五)
C++标准原子操作、std::atomic_flag、C++并发编程内存次序、std::memory_order、C++栅栏、std::atomic_thread_fence
2024-09-28 10:59:52
1244
1
原创 《C++并发编程实战》笔记(四)
C++并发同步的方法,包括std::future、std::async、std::package_task、std::promise、std::shared_future、std::condition_variable、std::latch、std::barrier
2024-08-11 17:04:56
777
原创 《C++并发编程实战》笔记(四—前置篇)
std::chrono的相关使用方法,包括duration(时间段)、time_point(时间点)和clock(时钟)等
2024-08-11 16:37:43
781
原创 《C++并发编程实战》笔记(三)
介绍C++中使用互斥量保护数据的方法,包括std::mutex、std::lock_guard、std::lock、std::unique_lock、std::call_once、std::shared_mutex、std::shared_lock等
2024-07-20 10:59:24
1061
原创 QT5和QT6使用qmake时创建QML项目的区别
QT5和QT6创建使用qmake编译的QML项目时默认创建的项目并不相同,主要在于资源管理的方式不同,QT5默认使用.qrc文件管理资源,QT6默认使用resources变量管理资源。本文通过实际的项目进行对比,理清Qmake的两种资源管理方式。
2023-12-18 23:28:59
3308
原创 PyTorch 基础操作总结
torch 张量的一些基本操作,torch 张量乘法,pytorch 数据集类 Dataset,DataLoader,torchvision 中的 transforms、datasets,torch 中 SVD 分解,特征值分解,QR 分解,利用 torch 进行深度学习的基本框架
2021-07-27 23:05:13
2997
2
原创 利用 Lanczos 方法实现张量的 HOSVD 分解
1. 特征值分解(EVD)如果 AAA 是一个 m×mm\times mm×m 的 实对称矩阵(A=ATA=A^TA=AT) ,如果存在 mmm 维列向量 qqq 和实数 λ\lambdaλ 满足 Aq=λqAq=\lambda qAq=λq,则称 qqq 为 AAA 的 特征向量、λ\lambdaλ 为 AAA 的 特征值。如果我们求出 AAA 的 mmm 个特征值与特征向量,并将所有特征向量标准化,则可以得到标准正交矩阵 Q=[q1,q2,⋯ ,qm],Q∈Rm×mQ=[q_1, q_2, \c
2021-03-14 21:57:12
1540
3
原创 二、量子状态的表示和单量子比特门
1. 量子状态的表示1.1 使用 Qiskit 初始化量子态 我们知道,一个量子的状态可以表示为基态的线性叠加,如果我们使用∣0⟩=[10] ∣1⟩=[01].|0\rangle = \begin{bmatrix} 1 \\ 0 \end{bmatrix} \, \, \, \, |1\rangle =\begin{bmatrix} 0 \\ 1 \end{bmatrix}.∣0⟩=[10]∣1⟩=[01].
2020-11-29 20:52:25
6631
3
原创 一、Qiskit 基础和简单线路
1. 安装 Qiskit1.1 安装命令可以直接使用 pip 命令安装 qiskit 包:pip install qiskit若要使用其中的一些可视化功能,可以安装可视化包pip install qiskit[visualization]1.2 检查安装 Qiskit 包含一系列不同的元素,运行 qiskit.__version__ 返回 qiskit-terra 包的版本,因为 qiskit 是来自
2020-11-29 20:23:50
13666
11
原创 四、神经网络
1. 神经元模型 神经网络机器学习中最基本的成分是 “M-P 神经元模型”,如下所示,在这个模型中,神经元接收到来自 nnn 个其他神经元传递过来的输入信号,这些输入信号通过带权重的链接(connection)进行传递,神经元接收到的总输入将与神经元的阈值进行比较,然后通过 “激活函数” (activation function)处理以产生神经元的输出。 &nb
2020-11-29 16:55:01
463
原创 三、决策树
1. 基本流程 决策树(decision tree)是一种常见的机器学习算法,以二分类为例,我们希望从给定的数据集学得一个模型用于对新实例进行分类,我们把对样本的分类看成 “这个样本是否为正例?” 这个问题的决策过程,从而,我们可以的到一个基于树结构的判别过程,这和人类再面临决策问题时的处理机制非常相似。下图展示了对于西瓜判定问题的树结构: &nbs
2020-11-22 21:49:17
248
原创 二、线性模型
1. 基本形式 给定由 ddd 个属性描述的示例 x=(x1;x2;⋯ ;xd)\pmb{x}=(x_1;x_2;\cdots ;x_d)xxx=(x1;x2;⋯;xd) ,其中 xix_ixi 是 x\pmb{x}xxx 在第 iii 个属性上的取值,线性模型(linear model)试图学得一个 通过属性的线性组合来进行预测的函数,即f(x)=w1x1+w2x2+⋯+wdxd+bf(\pmb{x})=w_1
2020-11-15 21:47:58
369
1
原创 十三、张量网络机器学习(二)
十三、1. 等概率假设下的量子懒惰学习 通过之前的讨论我们可知,如果我们知道了用来描述联合概率的多体态 ∣ψ⟩|\psi\rangle∣ψ⟩ ,我们就可以通过联合概率密度计算每张图片出现的概率。概率型机器学习的核心也就是求得概率密度,联合概率密度是由 ∣ψ⟩|\psi\rangle∣ψ⟩ 构成的,所以我们的主要任务就是构造 ∣ψ⟩|\psi\rangle∣ψ⟩ ,一种最简单的方法定义 ∣ψ⟩|\psi\rangle∣ψ
2020-09-06 19:20:32
547
原创 十二、张量网络机器学习(一)
十二、张量网络机器学习1. 机器学习基本思想 简单来说,机器学习可以看成是一个接受输入信息后,输出想要得到的目标信息的一种模型。我们进行机器学习的目的就是找到这种模型,让这种模型能够进行这种信息的转换。 机器学习的几个常见的例子如下:图形识别中,输入图片信息,输出图像分类语言翻译中,输入源语言文字,输出翻译后语言文字自动驾驶
2020-08-30 19:40:16
1153
原创 十、张量网络收缩算法
十、张量网络收缩算法1. 张量网络的基本定义 通过前面的学习,我们对张量网络有了简单的了解,这里我们给出张量网络的一般定义:由多个张量按照一定的收缩规则构成的模型,被称为张量网络。 其中,收缩规则由张量网络形成的图确定,网络中的一个节点代表一个张量,与该节点连接的边代表该张量的指标,连接不同节点的边代表对应张量的共有指标,我们需要把这些
2020-08-23 19:18:07
2971
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人