- 博客(74)
- 收藏
- 关注
原创 python迭代器
class diedaiqi(object): def __init__(self,len): self.first = 0 self.sec = 1 self._len = len def __next__(self): if self._len == 0: raise StopIterat...
2019-10-15 23:23:35
184
原创 tf.nn.separable_conv2d
tf.nn.separable_conv2d(input,depthwise_filter,pointwise_filter,strides,padding,rate=None,name=None,data_format=None)
2019-09-18 16:04:35
285
原创 memory_limit 应该设置越大越好?
memory_limit设置并不是越大越好,要根据应用程序的需要来设置,原则是memory_limit * 进程数不得超过机器总内存, 否则会导致启用磁盘 swap,资源耗尽,最后死机。...
2019-09-13 21:14:45
2872
原创 深度学习出现NAN的情况
1.首先检查的原因是训练集中出现脏数据,脏数据的出现导致我的logits计算出了0,0传给 log(x|x=0) 导致为∞, 即nan。之所以会这样,是因为我的实验是实际业务上的真实数据。所以需要一条一条检测数据是否为脏数据。2.其次才是使用如下解决方案(1)、数据归一化(减均值,除方差,或者加入normalization,例如BN、L2 norm等);(2)、更换参数初始化方法(对于CNN...
2019-09-12 13:04:21
1814
原创 tf.map_fn
tf.map_fn(fn=lambda x:tf.nn.conv2d(x,kernel,stride,padding='same'),elems=batch,dtype=tf.float32)对batch中每一个元素进行卷积操作
2019-09-10 20:30:16
229
原创 slim.arg_scope()
import tensorflow as tfslim =tf.contrib.slim@slim.add_arg_scopedef fun1(a=0,b=0):return (a+b)with slim.arg_scope([fun1],a=10):x=fun1(b=30)print(x)
2019-09-10 14:06:20
144
原创 c语言学习(%用法)
#include<stdio.h>int main(void){ int a =15; float b =123.1234567; double c =12345678.1234567; char d = 65; printf("a=%d,%5d,%o,%x\n",a,a,a,a); printf("b=%f,%lf,%5.4lf,%e\n",b,b,b,b);...
2019-09-01 15:42:21
515
原创 排序优化方法
1.冒泡法import numpy as npnp.random.seed(29)a = np.arange(50)np.random.shuffle(a)list_sort = a.tolist()print(list_sort)def bubbling_sort(list_): length = len(list_) while True: F...
2019-08-21 17:37:20
185
原创 Faster_rcnn
AnchorTargetCreator : 负责在训练RPN的时候,从上万个anchor中选择一些(比如256)进行训练,以使得正负样本比例大概是1:1. 同时给出训练的位置参数目标。 即返回gt_rpn_loc和gt_rpn_label。ProposalCreator: 在RPN中,从上万个anchor中,选择一定数目(2000或者300),调整大小和位置,生成RoIs,用以Fast R-CN...
2019-08-21 10:10:40
130
原创 膨胀卷积
1.膨胀卷积是对卷积核进行0填充。2.膨胀后的卷积核的大小:(1)设原始卷积核的大小是3*3(2)设膨胀率为2(3)则膨胀后的卷积核的大小为:dilation_rate*(kernel_size - 1)+1结果就是 2*(3-1)+1=5,膨胀后的卷积核大小是5*53.默认的dilation_rate=1....
2019-08-15 15:24:41
823
原创 KMeans的伪代码
-a. 简单实现:Input:训练数据X、簇数目K、训练数据样本数目m、最大的更新次数max_iterOutput: 最终的簇中心centers# 1. 随机产生K个样本作为簇中心点centers = X[:K]# 2. 循环更新num_iter = 0while num_iter < max_iter:num_iter += 1# 获取所有样本的簇的隶属关系center...
2019-08-12 14:03:32
2266
原创 深度学习学习率的研究
一.是通过人为经验进行设定,如到达多少轮后,设定具体的学习率为多少分段常数衰减分段常数衰减是在事先定义好的训练次数区间上,设置不同的学习率常数。刚开始学习率大一些,之后越来越小,区间的设置需要根据样本量调整,一般样本量越大区间间隔应该越小。tf.train.piecewise_constant(x,boundaries,values,name=None)x: 标量,指代训练次数...
2019-08-12 09:35:21
387
原创 统计xml不同种类样本个数
import xml.etree.ElementTree as ETimport osTRAIN_STATISTICS = { 'none': [0, 0], '1': [0, 0], '2': [0, 0]}all_filepath = []for dirpath, dirname, filepath in os.walk(r"C:\Users\ADMIN\...
2019-08-09 08:52:35
574
原创 tf.nn.softmax_cross_entropy_with_logits
import tensorflow as tflogits=tf.constant([[1.0,2.0,3.0],[1.0,2.0,3.0],[1.0,2.0,3.0]])y=tf.nn.softmax(logits)y_=tf.constant([[0.0,0.0,1.0],[0.0,0.0,1.0],[0.0,0.0,1.0]])cross_entropy = -tf.reduce_...
2019-08-08 16:58:51
130
原创 tensorflow和numpy
在tensorflow中sess.run后输出的是numpy a= np.array([1,2,3]) b = np.array([1,0,3]) c = np.equal(a,b) d= c.astype(np.int32) print(c) print(d) [ True False True] [1 0 1] 通过astype可以更改numpy格式...
2019-08-07 12:08:25
588
原创 from collections import namedtuple
from collections import namedtuplewebsites = [(‘Sohu’, ‘http://www.google.com/’, u’张朝阳’),(‘Sina’, ‘http://www.sina.com.cn/’, u’王志东’),(‘163’, ‘http://www.163.com/’, u’丁磊’)]Website = namedtuple(‘W...
2019-08-06 13:36:18
248
原创 Python 字符串前面加u,r,b的含义
1、字符串前加 u例:u"我是含有中文字符组成的字符串。"作用:后面字符串以 Unicode 格式 进行编码,一般用在中文字符串前面,防止因为源码储存格式问题,导致再次使用时出现乱码。2、字符串前加 r例:r"\n\n\n\n” # 表示一个普通生字符串 \n\n\n\n,而不表示换行了。作用:去掉反斜杠的转义机制。(特殊字符:即那些,反斜杠加上对应字母,表示对应的特殊含义的,比...
2019-08-06 12:06:39
117
原创 注解说明
# 闭包是一种特殊情况,如果外函数在结束的时候发现有自己的临时变量将来会在内部函数中用到,就把这个临时变量绑定给了内部函数,然后自己再结束# 1def outer(a): b=10 def inner(): print(a+b) return innerdemo = outer(5)demo()demo2 = outer(7)demo2()#...
2019-08-05 21:31:52
121
原创 voc_to_tfrecord
tf_convert_data_mainimport tensorflow as tffrom datasets import pascalvoc_to_tfrecordsFLAGS = tf.app.flags.FLAGStf.app.flags.DEFINE_string( 'dataset_name', 'pascalvoc', 'The name of the...
2019-08-05 09:03:02
378
2
原创 tf.app.flags.
import tensorflow as tftf.app.flags.DEFINE_float( 'select_threshold', 0.01, 'Selection threshold.') #key , value , introducetf.app.flags.DEFINE_integer( 'select_top_k', 400, 'Select top-k ...
2019-08-04 15:53:09
122
原创 NMS代码实现
def iou(the_first_score_location, the_rest_score_location): if the_first_score_location[0] > the_rest_score_location[0] and the_first_score_location[0] > \ the_rest_score_locatio...
2019-07-29 18:53:18
395
原创 标注工具xml转txt文件保存
import osimport xml.dom.minidomdef transfrom_xlm_to_txt(file_dirpath, savepath): xml_list = [] for dirpath, dirname, filepath in os.walk(file_dirpath): for one_filepath in filepath:...
2019-07-26 20:24:21
907
2
原创 sklearn.preprocessing里的Normalizer,StandardScaler,MinMaxScaler
Normalizer正则化StandardScaler(标准化)z = (x - u) / sMinMaxScaler(区间缩放)(X - X.min(axis=0)) / (X.max(axis=0) - X.min(axis=0))
2019-07-24 21:21:13
949
1
原创 目标检测用到的函数
tf.where()import tensorflow as tfimport numpy as npa = np.array([[1,1,1,1,0,0,0], [1,1,1,1,0,0,0]])aa = np.array([[1,1,1,1,1,0,0], [1,1,0,1,0,0,0]])d = tf.equal(a,aa...
2019-07-23 17:19:13
178
原创 RCNN
训练阶段1.使用 selective search方法提取大约2k个 region proposal(P框) ,再warp缩放到固定尺寸(227 x 227);2.(1).imgnet上预训练:特征提取:CNN 从每个region proposal 中提取一个4096维的特征(Alexnet,5层conv,2层fc),输出为2000 x 4096;类别分类:使用SVM对4096维的特征进行...
2019-07-20 12:13:07
129
原创 opencv
HSV(H色度 S饱和度 V明度)色彩空间HSV基本颜色分量范围HLS(H色度 L亮度 S饱和度)YUV(Y明亮度 U色度 V饱和度)cv2.bitwise_not()cv2.bitwise_and()cv2.bitwise_or()cv2.bitwise_xor()cv2.addWeighted(src1=图片1,alpha=图片1权重,src2=图片2,beta=图片2权重)...
2019-07-11 20:51:09
205
原创 np.pad
import numpy as nparray = np.array([[1,1,1], [2,2,2]])c = np.pad(array,((0,0),(1,1)),"constant",constant_values=5)print(c)tree = KDTree(X, leaf_size=2)dist, ind ...
2019-07-11 17:23:57
377
原创 将数据归一化到任意区间范围的方法
将数据归一化到[a,b]区间范围的方法:(1)首先找到样本数据Y的最小值Min及最大值Max(2)计算系数为:k=(b-a)/(Max-Min)(3)得到归一化到[a,b]区间的数据:norY=a+k(Y-Min)...
2019-07-10 09:49:19
2206
原创 机器学习整理
解决过拟合机器学习:1、线性回归换强学习能力的算法:SVM2、多项式扩展3、采用集成学习Boosting,做一个提升学习的操作深度学习:1、加深网络结构解决过拟合机械学习:1、加入正则化项、减枝2、采用集成学习Bagging3、增加数据集样本数目、样本增强深度学习:1、增加数据集样本数目、样本增强2、BN:批归一化3、Pooling:池化...
2019-07-05 14:47:37
191
原创 各种优化器整理
梯度下降批量梯度下降2.随机梯度下降3.小批量梯度下降牛顿法m是梯度值v是学习率Momentum(动量法)Nesterov Momentun(牛顿动量法)Adagrad(Adaptive Gradient)diag是累加RMSpropAdadeltaAdam...
2019-07-05 14:21:42
281
转载 为什么损失函数多用交叉熵entropy来计算
我们知道对于回归问题一般采用均方差来计算损失,这是因为回归输出的是一个实数,这样来计算一个batch中预测值与实际的均方差是自然而然的选择的,而且导数非常简单(神经网络参数的更新依据就是梯度也就是偏导),这里不再推导均方差的偏导。 但对于分类问题,输出的是一个n维的向量,向量的每个值是对应分类的概率,概率最大的就是预测的分类结果。样本的标签值也是一个概率分布,表情衡量两个概率分布之间的距离当然...
2019-07-04 18:15:00
221
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人