- 博客(39)
- 收藏
- 关注
原创 【动态规划】
设求出上楼N层的方式函数F(N),想上N层楼,可以先上1层,再上N-1层,或先上2层,再上N-2层,即F(N)=F(N-1)+F(N-2)。将每次计算得到的F(N)先存入数组再返回,函数调用之前先进行判断对应数组位置是否有值,有则直接返回,无则进行计算。上一种方式的缺点在于,递归过程需要进行问题分解,分解至最小问题时才能逐步计算回大问题。当我们使用递归的时候,会有大量重复计算的情况,可以采用空间换时间的方式进行改进。2、通常解法——斐波那契数列。3、进阶1——空间换时间。
2023-03-20 23:11:42
172
原创 【B站_刘二大人pytorch深度学习实践】笔记作业代码合集
手动训练:线性模型,梯度下降,BPPytorch框架训练:线性回归,LogisticRegression,多维特征输入,加载数据集,多分类,CNN,RNN
2023-03-12 21:32:57
3375
3
原创 【浙江大学】翁恺_C语言入门与进阶_编程练习第四章
【浙江大学】翁恺_C语言入门与进阶_编程练习第四章。给定条件输出整数,水仙花数,九九乘法表,统计素数求和
2023-01-17 17:27:04
383
原创 深度学习理论向应用的过渡课程【北京大学_TensorFlow2.0笔记】学习笔记(八)——自制数据集、数据增强、断点续训、参数提取、acc&loss可视化、应用程序实现手写识别
自制数据集、数据增强、断点续训、参数提取、acc&loss可视化、应用程序实现手写识别
2022-03-19 16:36:52
887
原创 深度学习理论向应用的过渡课程【北京大学_TensorFlow2.0笔记】学习笔记(十二)——Embedding,LSTM,GRU
Embedding,LSTM简介及如何实现股票预测,GRU简介及如何实现股票预测
2022-03-19 13:03:36
1272
原创 深度学习理论向应用的过渡课程【北京大学_TensorFlow2.0笔记】学习笔记(十一)——RNN介绍及字母预测
循环核,循环神经网络,如何用tf描述循环计算层,RNN实现输入一个字母预测下一个、输入四个连续字母预测下一个
2022-03-19 10:32:22
1144
原创 深度学习理论向应用的过渡课程【北京大学_TensorFlow2.0笔记】学习笔记(十)——经典卷积网络:LeNet、AlexNet、VGGNet、InceptionNet、ResNet
经典卷积网络:LeNet、AlexNet、VGGNet、InceptionNet、ResNet
2022-03-18 23:30:48
144
原创 深度学习理论向应用的过渡课程【北京大学_TensorFlow2.0笔记】学习笔记(九)——TensorFlow描述CNN:感受野、全零填充、卷积计算层、BN、池化、舍弃
TensorFlow描述卷积神经网络基本概念——感受野、全零填充、卷积计算层、BN、池化、舍弃
2022-03-18 22:08:39
393
1
原创 深度学习理论向应用的过渡课程【北京大学_TensorFlow2.0笔记】学习笔记(七)——使用MNIST和FASHION数据集实现神经网络
使用MNIST和FASHION数据集实现神经网络
2022-03-18 12:24:32
116
原创 深度学习理论向应用的过渡课程【北京大学_TensorFlow2.0笔记】学习笔记(六)——使用类class搭建带有跳连的非顺序神经网络
使用类class搭建带有跳连的非顺序神经网络
2022-03-18 12:00:31
377
原创 深度学习理论向应用的过渡课程【北京大学_TensorFlow2.0笔记】学习笔记(五)——搭建神经网络的结构和可选项·强推本节
神经网络搭建结构及可选参数
2022-03-18 11:44:10
414
原创 深度学习理论向应用的过渡课程【北京大学_TensorFlow2.0笔记】学习笔记(四)——损失函数,过拟合,优化器
2.4 损失函数 2.5 缓解过拟合 2.6优化器2.5 缓解过拟合分界线思想:将网格的每一个坐标送入神经网络,输出值为(0,1),对应不同的分类。将所有输出值0.5的点连成线。2.6 优化器优化器:引导神经网络更新参数的工具。不同优化器在定义一阶、二阶动量公式上不同。batch通常为2^n个数据1、SGD:随机梯度下降(无动量)w1.assign_sub( lr * grad[0] )b1.assign_sub( lr * grad[1] )...
2022-03-17 23:32:31
425
原创 深度学习理论向应用的过渡课程【北京大学_TensorFlow2.0笔记】学习笔记(三)——常见函数,学习率,激活函数
2.1常见函数 2.2学习率 2.3激活函数
2022-03-17 22:56:27
141
原创 深度学习理论向应用的过渡课程【北京大学_TensorFlow2.0笔记】学习笔记(二)——常用函数,加载鸢尾花数据集Iris
1.4、1.5节常用函数 1.6鸢尾花数据
2022-03-17 21:04:41
822
原创 深度学习理论向应用的过渡课程【北京大学_TensorFlow2.0笔记】学习笔记(一)——神经网络基本介绍,Tensor创建,鸢尾花数据集Iris
1.2 1.3节
2022-03-17 17:08:00
424
原创 【论文阅读笔记】轨迹表示学习技术研究进展-曹翰林
摘 要: 基于地理位置信息的应用和服务的迅速发展,对轨迹数据挖掘提出了新的需求和挑战.原始轨迹数据通 常是由坐标-时间戳元组构成的有序序列,而现有的大多数数据分析算法均要求输入数据位于向量空间中.因此,为了将轨迹数据从变长的坐标-时间戳序列转化成定长的向量表示且保持原有的特征,对轨迹数据进行有效的表示是十分重要且必要的一步.传统的轨迹表示方法大多是基于人工设计特征,通常仅将轨迹表示作为数据预处理的一部分.随着深度学习的兴起,这种从大规模数据中学习的能力使得基于深度学习的轨迹表示方法相比于传统方法取得了巨大.
2022-03-15 19:50:41
1050
原创 李宏毅深度学习——Recurrent Neural Network (RNN)
上图中当我们输入Taipei,一个表达的是目的地,另一个表达的是出发地,我们该如何让神经网络在输入相同时,按照情景不同输出不同,这就需要让神经网络具有记忆功能,能够根据Taipei之前面的单词决定相应输出。RNN是具有记忆功能的网络。隐藏层的输出值被储存在了memory中,memory可以继续作为另一个输入值。例如下图。设所有的权重都为1,没有偏置值。设在开始时memory为0,所以绿色部分的值计算过程为1*1+1*1+0+0=2。此时将2更新到memory中。橘色部分计算为2*1+...
2022-03-15 10:36:13
246
原创 李宏毅深度学习——卷积神经网络CNN
卷积层有两种解释方式如下版本一 神经元当我们人类在识别物体时,是分特征部位进行辨识。(比如,有尖尖的嘴,有羽毛,有翅膀,会飞,则可能为鸟类)可以将图片中的物体分成好几个部分(如鸟类的翅膀,喙),在对每个部分进行识别时,可以以接受域(receptive field)作为输入单位。每一个接受域由多个像素组成,可由一个或多个神经元识别。如上图所示,每个部分可以链接不同的神经元,不同部分之前可以重叠。每个接受域在作为神经元的输入时,需要展成一个一维向量。接受域内的卷积核可以按照...
2022-03-13 20:47:44
3203
原创 李宏毅深度学习——机器学习训练(三)批次batch和动量momentum
一.batch size当采用较小的梯度进行梯度下降时可能会出现:1.梯度在损失函数较为平缓段,下降速度十分缓慢2.梯度下降停在鞍点3.梯度下降停在局部最小值当使用批量优化处理梯度时然而,不同batch对于梯度处理有较大影响。虽然在使用gpu处理不同大小batch的时间并没有太大差距(下左图),但当一个epoch含有的batch越多,处理一个epoch所需输入的batch数越多,时间也越长(下右图)。然而,batch并非越大越好。当batch较小时,...
2022-03-13 12:32:13
1031
原创 李宏毅深度学习——机器学习训练(二)局部最小值和鞍点
使用梯度下降最小化损失函数时,可能会出现梯度为零但损失仍大的情况,此时到达鞍点或局部最小值现使用泰勒级数逼近,从数学角度判断该点类型。critical point:临界点eigen:特征...
2022-03-13 11:52:27
607
原创 李宏毅深度学习——机器学习训练(一) 如何调整模型,过拟合处理
如何调整模型?有关过拟合过拟合的一般描述过拟合的处理方式:1.更多的训练数据(限制模型的free程度)2.数据图片进行合理化处理3.对模型增加限制但不可限制过多,否则容易变成model bias...
2022-03-13 11:06:04
536
原创 毕设问题复盘总结
背景:完成的是一个类似百度知道的互动问答社区,本人负责个人空间页面(包括展示用户提问内容、回答内容、个人信息修改、密码修改),问题搜索结果展示页面,提问页面和回答页面。使用语言html+js+css+php+sql,使用前端框架layui具体问题解决(代码为简化版,与问题无关基本删除) iframe高度无法自适应:当展示内容较多时未出现滚动条,iframe高度与外div设置的最小高度等高。多方查找后解决方式如下。给iframe的加载设置了一个函数定义其高度。 html页面:<ifr
2021-05-31 16:26:47
203
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人