
分类算法
BigSnakeLin
这个作者很懒,什么都没留下…
展开
-
机器学习的小石子--knn最优算法总结
#机器学习之K近邻算法###欧氏距离##欧式距离(Euclidean Distance)计算公式:两个n维向量a(x11,x12,…,x1n)a(x11,x12,…,x1n)与b(x21,x22,…,x2n)b(x21,x22,…,x2n)间的欧氏距离:注:除欧氏距离外,还有其他距离,如夹角余弦,汉明距离,曼哈顿距离,闵可夫斯基距离等##Python代码实现### -*- codin...原创 2019-04-23 16:37:40 · 181 阅读 · 0 评论 -
手写数字识别--tensorflow
#练习手写数字识别 tensorflow框架#加载数据集from tensorflow.examples.tutorials.mnist import input_datamnist = input_data.read_data_sets('MNIST_data/',one_hot=True)W0814 14:23:30.529140 8456 deprecation.py:323] ...原创 2019-08-30 16:25:58 · 175 阅读 · 0 评论 -
多层感知机--tensorflow
#多层感知机from tensorflow.examples.tutorials.mnist import input_dataimport tensorflow as tfmnist = input_data.read_data_sets("MNIST_data",one_hot = True)sess = tf.InteractiveSession()WARNING: Loggi...原创 2019-08-30 16:26:59 · 818 阅读 · 0 评论 -
AlexNet网络实现--TensorFlow
AlexNetRelu激活函数应用 --解决sigmoid在网络较深时的梯度弥散问题dropout机制避免模型过拟合CNN使用重叠的最大池化,而AlexNet使用最大池化,避免平均池化的模糊效果提出使用LRN层,创建局部神经元竞争机制,增强模型泛化机制使用CUDA加速训练过程数据增强–PCA降维AlexNet:8个训练层(不包含pool和LRN层),前五层conv层,后三层full...原创 2019-08-30 16:28:47 · 147 阅读 · 0 评论 -
VGGNet-16(D级)实现--TensorFlow
VGGNet优势: 探索卷积神经网络的深度与其性能之间的关系—>反复堆叠3 * 3 kernel 和 2 * 2 最大池化层—>成功构建了16~19层深度卷积神经网络—>迁移和泛化能力强,网络结构简单[外链图片转存失败(img-JWb9qJR3-1567153752204)(attachment:image.png)]A —> E 六个级别网络结构[外链图片转存失...原创 2019-08-30 16:30:10 · 295 阅读 · 0 评论 -
ResNet_V2_152层---TensorFlow
ResNet#实现ResNet_V2_152import tensorflow as tfimport collectionsimport timefrom datetime import datetimeimport mathslim = tf.contrib.slimWARNING: Logging before flag parsing goes to stderr.W...原创 2019-08-30 16:31:33 · 1203 阅读 · 0 评论 -
Google--Inception Net V3 实现--TensorFlow
Google Inception NetInception V1控制了计算量和参数量:一.参数越多模型越庞大,学习的数据量就必须越大。二.参数越多,耗费资源越多。22层深,优势一在于去除了最后的全连接层,用全局平均池化层取代(全连接层几乎占据AlexNet和VGGNet中90%的参数量,还会引起过拟合),优势二在于设计的Inception Module 提高了参数的利用率------>...原创 2019-08-30 16:32:11 · 153 阅读 · 0 评论