自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(14)
  • 收藏
  • 关注

原创 50um 薄膜的非相干现象

50 um 薄膜的非相干现象

2024-04-06 13:14:38 179

原创 用于薄膜测量的网站

这一部分,是 filmmetrics 以及 refractiveindexinfo 都没有的功能,根据上传的测量目标光谱,拟合得到薄膜厚度以及折射率。filmmetrics需要购买几十万的仪器配套软件才有该功能,而filmmetrics网站只能计算薄膜反射率,不能优化。目前有70多种材料的折射率色散关系,有 Cauchy, Lorentz-Drude, forouhi-bloomer 等色散关系模型。以后会逐步添加更多的材料以及色散模型,慢慢收集吧。薄膜建模优化,测量网站。薄膜建模优化,测量网站。

2023-04-17 00:31:57 513 3

原创 画1维光栅能带的Python拓展

画1维光栅能带的Python拓展plotBand.hplotBand.cPyplotBand.csetup.pytest.py安装运行先把程序放在这里过几天在回来写这篇 blog.plotBand.h/*********************************************************************************************************************** File Name : p

2020-11-23 21:46:18 778 2

原创 Levenberg-Macquardt python 代码

Levenberg-Macquardt python 代码介绍代码理解介绍作为一个拟合常用的算法,对于我来说可以用来调参使得模拟程序生成的光谱尽可能的匹配上实验测得的光谱, L-M算法网上能找到的 python 代码有好多bug,没办法只能自己写一个啦。网上有bug的代码先放代码,再聊聊对 Levenberg-Macquardt 算法、The Steepest Descent Method 以及 Newton 算法的理解。代码把L-M算法写成了一个类,相当于一个工具箱以后想用的时候直接impor

2020-10-21 11:16:59 601 2

原创 论文 Convolutional Networks for Images, Speech, and Time-Series

论文 Convolution Networks for Images, Speech, and Time-Series1 IntroductionThe ability of multilayer back-propagation networks to learn complex, heigh-dimensional,non-linear mapping from large collection of examples make them obvious candidates for image r

2020-06-08 13:20:06 822

原创 GAN 源码学习

GAN 源码学习学习一下 github 上面用 Tensorflow 写的 GAN 代码。源代码链接:https://github.com/huzixuan1/TF_2.0/blob/master/GANdataset.pyimport multiprocessing # 允许程序员充分利用多个核心import tensorflow as tf # 导入 tensorflowdef make_anime_dataset(img_paths,batch_size,resize=64,drop_r

2020-06-04 21:17:30 1585

原创 对于神经网络学习 Maxwell 方程的思考——泛化能力

对于神经网络学习 Maxwell 方程的思考——泛化能力导言模型数据结果导言最近在光学上兴起了 用神经网络学习 Maxwell 方程。最近试了试 Marin 他们提出的方法,对于一个 8 层膜正入射透射光谱,用 5万个样本作为训练集,使用 50 层 残差全链接网络。但是发现在某些区域,神经网络的预测结果也和实际结果不同。这说明 5万个样本作为训练集训练可能不够,应该有一个方法来确定如何选取训练集中的样本,使得数据集样本数最少,每个点都发挥它的最大作用。下面我们对 2 层膜正入射光谱,用 1万个样本作为训

2020-05-13 22:12:24 696

原创 TensorFlow——decay设置

TensorFlow——decay设置记一个关于TensorFlow的小笔记:在神经网络训练中常常使用 Adam 优化器,opt=tf.optimizers.Adam(lr=0.001, beta_1=0.9, beta_2=0.999, epsilon=None, decay=0.0, amsgrad=False)其中 decay 参数是按照下面的数学表达式进行衰减学习率的:lr=lr×11+decay×epochlr=lr \times \frac{1}{1+decay \times epoc

2020-05-11 12:14:12 3265

原创 对于 CNN 卷积网络的理解——神经网络卷积运算

对于 CNN 卷积神经网络的理解——对于神经网络卷积运算的理解导言卷积神经网络(CNN)工作流程导言最近学习卷积神经网络,找了很多讲解卷积神经网络的资料,但是仍然不能对卷积神经网络有很好的理解。于是自己做了一个 gif 。如果以后有任何不清楚的地方,就回来看看自己这里写的博客吧。卷积神经网络(CNN)工作流程import tensorflow as tfinput = tf.Variab...

2020-05-04 21:47:52 422

原创 对于 CNN 卷积网络的理解——Padding 的两种方式

TensorFlow—Conv2D padding 问题导言1. Padding='VALID'2. Padding='SAME'2.1. 2x2 大小的卷积核2.2. 3x3 大小的卷积核2.3. 4x4 大小的卷积核3. 对齐方式不同导言最近在看卷积神经网络(CNN)的时候,遇到了 padding 这个属性(补全方式),查了很多资料,发现目前网上讨论的大都是padding之后输出张量大小如...

2020-05-03 23:07:05 3632

原创 对于 ResNet 残差网络的思考——残差网络可以解决梯度消失的原因

导言:从神经网络的历史上来看,深层网络由于梯度消失无法训练这个问题目前为止一共有两次很大的突破。第一次是神经网络开山鼻祖 Hinton 先生提出的 relurelurelu 激活函数取代了原来的 sigmoidsigmoidsigmoid 和 tanhtanhtanh 函数,使得对于激活函数的导数变为了 111 。第二次是 何凯明 大神在 2015 年的论文 Deep Residual Lear...

2020-04-21 22:31:07 6357 2

原创 构建数据集

一个深度学习 AI 项目是从收集和整理数据集开始的。正如我们开始写一本书或开始最准备做一件事情,总是从收集素材收集资料开始,完成一个 AI 项目也不例外。但一般的 TensorFlow 教程都是使用之前别人已经做好的数据集。使得即使读者完全重复了教程中的实例,在面对一个新的 AI 项目时仍然 不知道如何去下手。本章主要介绍如何去构建一个深度学习 AI 项目的数据集,TensorFlow2.0 构建...

2020-03-29 23:27:54 13387 1

原创 安装 Python 和 TensorFlow2.0

Python 作为一个简单易用的编程语言,相比于同样用于科学计算的 MATLAB 来说, Python 不仅完全开源免费,而且运行速度也快不少。其次大量可调用的第三方库使得 Python 的功能异常强大,相关 AI 研究人员可用最简洁的语句将自己的想法转化为可运行的计算机代码。正是由于上述的种种优点,在人工智能以及大数据时代,使得 Python 成为了最适合的人工智能开发的编程语言。Tensor...

2020-03-29 22:11:49 1957

原创 TensorFlow—OOM问题

TensorFlow OOM 问题记一个关于TensorFlow的小笔记:使用model在 TensorFlow 2.0 中每次使用完 keras 中的 modelimport tensorflow as tfmodel = tf.keras.models.load_model("model.h5")prediction=model.predict()一定要记着 清理释放内存,否者...

2020-03-27 11:43:59 1569

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除