学习笔记
文章平均质量分 69
小岚的学习笔记
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
张量网络的自动微分(文献翻译)
本文为文献 Differentiable Programming Tensor Networks 的原创译文,转载请注明出处。Author:小岚岚目录I.引言II.一般理论A.自动微分I.引言张量网络是研究经典统计物理和量子多体物理问题的重要方法[1-3]。近年来,它的应用迅速扩展到不同的领域,包括量子电路的仿真与设计[4-7]、量子误差校正[8,9]、机器学习[10-14]、语言建模[15,16]、量子场论[17-20]、nolographic二象性[21,22]。张量网络在一般情况下的优化是众原创 2021-01-06 14:47:12 · 809 阅读 · 0 评论 -
[MacOSX系统]python入门安装教程
[Mac系统]python入门安装教程1 python安装第一步 :官网下载python安装包第二步: 进行安装第三步: 验证是否安装成功2 Anaconda 安装第一步:下载安装包第二步:进行安装3 选择安装python编译器编写第一个python程序Python作为一个目前最火的编程语言之一,已经渗透到了各行各业,笔者所在的人工智能科研领域就以Python为主要编程语言,尤其是神经网络几乎...原创 2020-03-20 21:27:50 · 5395 阅读 · 0 评论 -
[Win]python入门安装教程
[完整版][三种系统]python入门安装教程1 python安装第一步 :官网下载python安装包第二步: 进行安装第三步: 验证是否安装成功· 如果你忘记勾选自动加入环境变量2 Anaconda 安装第一步:下载安装包第二步:进行安装3 选择安装python编译器编写第一个python程序Python作为一个目前最火的编程语言之一,已经渗透到了各行各业,笔者所在的人工智能科研领域就以Py...原创 2020-03-20 12:24:09 · 4643 阅读 · 0 评论 -
激活函数relu、leaky-relu、elu、selu、serlu比较
1.ReLU(Rectified Linear Unit)函数形式:ReLU(x)={xx ≥ 00otherwiseReLU(x)=\left\{ \begin{array}{ll}x & \textrm{x $\ge$ 0}\\0 & \textrm{otherwise}\\\end{array}\right.ReLU(x)=...原创 2019-08-05 21:32:47 · 11210 阅读 · 1 评论 -
零基础理解批量归一化(batch normalization)
研读:Batch Normalization: Acceleration Deep Network Training by Reducing Internal Covariate Shift1.批量正则化简要介绍1.1 相关背景知识:深度学习我们知道,神经网络是如图所示的结构,具有输入层、输出层以及中间的隐含层。...原创 2019-08-27 22:19:24 · 11212 阅读 · 4 评论
分享