- 博客(142)
- 资源 (1)
- 收藏
- 关注
原创 索引待整理笔记
什么叫做覆盖索引?_kaixin201505的博客-优快云博客SQL Server 索引 之 书签查找 <第十一篇>_anshan2269的博客-优快云博客https://www.cnblogs.com/feng-NET/p/4541744.htmlindex seek与index scan_三只蚂蚁2008的博客-优快云博客代码片段_SQL Server 索引查找Index Seek 索引扫描 Index Scan与索引存储原理详解Key Lookup开销过大导致聚集索引扫描 - 码农教程https
2023-10-24 13:45:53
252
原创 MARKETS AND MARKET LOGIC——The Market‘s Principles (6)_3
MARKETS AND MARKET LOGIC第六章,第三部分,COMPONENTS OF A MARKETPLACE REFLECTIONS ON THE BEHAVIORAL OBSERVATIONS_3
2022-12-30 22:54:42
982
1
原创 MARKETS AND MARKET LOGIC——The Market‘s Principles (6)_2
MARKETS AND MARKET LOGIC第六章,第二部分,COMPONENTS OF A MARKETPLACE REFLECTIONS ON THE BEHAVIORAL OBSERVATIONS_2
2022-12-30 22:26:24
1154
原创 MARKETS AND MARKET LOGIC——The Market‘s Principles (6)_1
MARKETS AND MARKET LOGIC第六章,第一部分,COMPONENTS OF A MARKETPLACE REFLECTIONS ON THE BEHAVIORAL OBSERVATIONS_1
2022-12-30 22:03:17
1000
原创 MARKETS AND MARKET LOGIC——The Market‘s Principles (5)
MARKETS AND MARKET LOGIC第五章,COMPONENTS OF A MARKETPLACERELECTIONS ON THE THIRD AND FOURTH BASIC OBSERVATIONS
2022-12-30 19:01:47
951
原创 MARKETS AND MARKET LOGIC——The Market‘s Principles (4)
MARKETS AND MARKET LOGIC第四章,COMPONENTS OF A MARKETPLACE REFLECTIONS ON THE FIRST TWO BA SIC OBSERVATIONS
2022-12-27 11:34:27
795
原创 MARKETS AND MARKET LOGIC——The Market‘s Principles (3)
MARKETS AND MARKET LOGIC第三章,SOME THOUGHTS ON THE RANDOM WALK AND EFFICIENT MARKET THEORIES
2022-12-27 10:12:28
889
原创 MARKETS AND MARKET LOGIC——The Market‘s Principles (2)
MARKETS AND MARKET LOGIC第二章,THE PRINCIPLES OF MARKET LOGIC, OPERATIONAL PROCEDURES AND CHARACTERISTICS
2022-12-25 19:00:43
964
原创 MARKETS AND MARKET LOGIC——The Market‘s Principles (1)
MARKETS AND MARKET LOGIC 第一章节,INTRODUCTION OF PURPOSE
2022-12-25 13:33:25
1290
原创 奇异值分解(SVD)和np.linalg.svd()函数用法
奇异值分解是一种十分重要但又难以理解的矩阵处理技术,在机器学习中是最重要的分解没有之一的存在。那么,奇异值分解到底是在干什么呢?
2022-12-01 20:33:36
12287
1
原创 CNN反向传播源码实现——CNN数学推导及源码实现系列(4)
解析CNN算法逻辑、前向和反向传播数学原理、推导过程、以及CNN模型的源码实现上。
2022-10-31 13:53:23
1882
2
原创 CNN前置知识:模型的数学符号定义——卷积网络从零实现系列(1)
CNN数学推导及源码实现系列前置课程,介绍CNN推导要用到的一些数学表示方法
2022-09-22 23:53:30
2314
2
原创 Keras中一些重要模型或函数的参数使用说明(持续更新)
在网络上汇总和整理Keras接口中各种重要函数的参数使用说明,方便使用的时候查阅,持续更新
2022-06-02 10:53:24
809
原创 Keras中如何设置学习率和优化器以及两者之间的关系
Keras对优化器和学习率做了很好的封装,以至于很多人搞不清楚怎么设置学习率,怎么使用优化器,两者到底有什么区别。
2022-06-01 08:00:00
10173
1
原创 机器学习11种优化器推导过程详解(SGD,BGD,MBGD,Momentum,NAG,Adagrad,Adadelta,RMSprop,Adam,Nadma,Adamx)
网络上优化器文章基本都是从李沐的《动手学深度学习》和邱锡鹏的《神经网络与深度学习》搬运下来的,没有细节,错误频出,这里从新进行完整的修正补充和总结
2022-05-28 01:55:11
4316
原创 Keras中用验证集进行模型验证的方法_(validation_data,validation_split,model.evaluate)
目标在训练完网络模型后,我们想要知道模型对数据的真实准确度,而训练数据存在则数据信息泄露的问题,所以我们现在需要一个独立的数据验证集来对模型泛化能力进行验证。Keras中常用于模型评估的方法参数包含:validation_split、validation_data、model.evaluate(...)一、自动切分验证集用于验证在Keras中,可以从数据集中切分出一部分作为验证集,并且在每次迭代(epoch)时在验证集中评估模型的性能.具体地,调用model.fit()训练模型时,可通过va
2022-03-10 14:05:38
22346
23
原创 Keras 中 LSTM 的return_sequences和return_states之间的区别
keras中return_sequences和return_state参数的使用
2022-02-23 14:47:49
2236
3
翻译 时间序列预测基础教程系列(6)_如何用Python进行时间序列预测的Baseline(基线)预测
导读:什么是基线预测,基线预测有什么用呢?1、首先将数据按照一定的方法转换为监督学习数据。2、其次构建一个数据间的对应函数关系,也叫做数据的持久化。这种映射关系的构建往往是基于我们的经验或者对数据的预处理。3、然后使用训练数据对模型进行训练,得到一个预测模型。再用这个模型对未来数据进行预测。4、最后将预测值和真实值进行残差比较,得出预测值和真实值之间的差异,或者损失,这就是一个...
2020-10-24 10:19:08
4894
10
原创 ASP.NET Core MVC 入门——新手搭建第一个网站框架
全网最好最全的ASP.NET Core MVC 入门教程,没有之一手把手教你做出一个网站:https://docs.microsoft.com/zh-cn/aspnet/core/tutorials/first-mvc-app/start-mvc?view=aspnetcore-2.2&tabs=visual-studio...
2019-10-17 18:16:35
1474
5
原创 Keras各种常用参数使用说明(笔记)
1.stateful用法https://www.imooc.com/article/44094https://www.jianshu.com/p/0c65b47cd6fb2.按照比例分割数据为测试集和训练集# validation_split=0.33是分割数据的比例,表示1/3作为测试数据model2.fit(X, y, validation_split=0.33, epo...
2019-10-14 10:19:26
848
原创 神经网络L1、L2正则优化方法及区别——神经网络的数学基础原理(6)
一、权重正则化权重正则化本质上是为了避免神经网络拟合的模型过于复杂或者出现过拟合现象。数学公式可以表示如下所示,其中R(w)表示模型的复杂度,J(θ)是原有的损失函数,J'(θ)是叠加网络复杂度后的新损失值。至于网络复杂度后面再解释。 这个公式的意义是,如果在优化网络模型时,损失...
2019-10-13 15:27:50
1329
原创 如何调整神经网络的学习率——神经网络的数学基础原理(5)
一、学习率概念学习率是个抽象又简单的概念,神经网络的学习率指的是神经网络对数据进行学习的速率。神经网络学习的过程就是权重更新的过程,权重更新公式如下,其中η表示学习率: 其原理我们已经在上一篇文章中讲过,传送链接:梯度下降优化算法——神经网络的数学基础原理(4)从...
2019-10-13 10:43:08
5067
原创 梯度下降优化算法原理——神经网络的数学基础原理(4)
一、神经网络的优化算法在BP神经网络的范畴中,一般说到优化算法,指的就是梯度下降。梯度下降的公式可以表示如下,其中J(θn)表示要优化的损失函数,η表示学习率: 至于梯度下降公式的原理,之前有文章介绍过,传送门:神经网络权重更新的原理和方法——softmax前世今生系列(7)因此假设损失函数如下...
2019-10-10 13:32:48
1602
[Hadoop] 传智播客新版Hadoop视频教程 段海涛老师Hadoop八天完全攻克Hadoop视频教程 Hadoop开发
2017-10-30
探讨一下时间序列预测中滞后性的问题
2022-12-02
TA创建的收藏夹 TA关注的收藏夹
TA关注的人