
机器学习
zyddst1314
奔跑的脚步不要停
展开
-
tensorflow学习(二)自制数据集
作用可以用神经网络解决本领域的应用代码#第一步:import库import tensorflow as tffrom PIL import Image#引入了PIL库用来管理图片import numpy as np#引入numpy库管理数组import os#第二步:输入网络的训练集和测试集train_path = './mnist_image_label/mnist_train_jpg_60000/'#用来进行制作自制训练数据的路径train_txt = './mnist_image_原创 2020-08-08 11:12:36 · 836 阅读 · 0 评论 -
tensorflow学习(一):六步法搭建神经网络
前言本系列文章是根据北大教授曹健老师的tensorflow笔记改写而成,我个人的版本情况:anaconda: 4.3.21python:3.6.0tensorflow:1.7.0keras: 2.1.6pycharm:2017.2.3代码实现#第一步:import库import tensorflow as tf#第二步:输入网络的测试集和验证集mnist = tf.keras.datasets.mnist(x_train, y_train), (x_test, y_test) = m原创 2020-08-08 09:31:28 · 851 阅读 · 0 评论 -
卷积层和全连接层
转载:https://blog.youkuaiyun.com/m0_37407756/article/details/80904580理解1:卷积取的是局部特征,全连接就是把以前的局部特征重新通过权值矩阵组装成完整的图。因为用到了所有的局部特征,所以叫全连接。理解2:从卷积网络谈起,卷积网络在形式上有一点点像咱们正在召开的“人民代表大会制度”。卷积核的个数相当于候选人,图像中不同的特征会激活不同的“候选人”(卷积核)。池化层(仅指最大池化)起着类似于“合票”的作用,不同特征在对不同的“候选人”有着各自的喜好原创 2020-06-14 11:21:18 · 6215 阅读 · 0 评论 -
MLP理解
一直不理解MLP的作用,今天细看了下几篇博客,记录下自己心得:MLP实质MLP中文叫法是多层感知机,其实质就是神经网络。其提出主要是为了解决单层感知机无法解决的非线性问题。个人理解个人理解,MLP的forward结构可以简单看成:Output=Input×Weights+biases其中:Input:N×C1Weights:C1×C2biases:C2×1Output:N×C2Input一共N行,每行C1个Feature,MLP能够实现将C1维转换为C2维。这C2维中每一维都整合了原原创 2020-06-14 10:54:40 · 38437 阅读 · 11 评论 -
softmax理解
做过多分类任务的同学一定都知道softmax函数。softmax函数,又称归一化指数函数。它是二分类函数sigmoid在多分类上的推广,目的是将多分类的结果以概率的形式展现出来。下图展示了softmax的计算方法:softmax形式首先,我们知道概率有两个性质:1)预测的概率为非负数;2)各种预测结果概率之和等于1。softmax就是将在负无穷到正无穷上的预测结果按照这两步转换为概率的。1)将预测结果转化为非负数下图为y=exp(x)的图像,我们可以知道指数函数的值域取值范围是零到正无穷。sof原创 2020-06-14 09:58:29 · 1200 阅读 · 0 评论 -
K-Nearest Neighbor(KNN)
邻近算法(Nearest Neighbor)概念原理 邻近算法(Nearest Neighbor)的思想实际上十分简单,就是将测试图片和储存起来的训练集一一进行相似度计算,计算出最相近的图片,这张图片的标签便是赋给测试图片的分类标签。那么如何比较两组数据之间的相似长度呢?算法分析 最常用的两种方式: ①L1距离(Manhattan distance)②L2距离(Euclidean distance)Manhattan distance计算公式:在图片上的具体反映:原创 2020-06-12 09:05:52 · 319 阅读 · 0 评论 -
upsampling(上采样)& downsampled(降采样)
缩小图像缩小图像(或称为下采样(subsampled)或降采样(downsampled))的主要目的是两个:1.使得图像符合显示区域的大小;2.生成对应图像的缩略图;下采样的原理:对于一幅图像尺寸为MN,对其进行s倍的下采样,即得到(M/s)(N/s)尺寸的分辨率图像,当然,s应该是M和N的公约数才可以,如果考虑是矩阵形式的图像,就是把原始图像s*s窗口内的图像变成一个像素,这个像素点就是窗口内所有像素的均值 Pk = (∑ Xi)/ S^2放大图像放大图像(或称为上采样(upsampling原创 2020-06-10 14:51:54 · 2344 阅读 · 1 评论 -
消融实验(Ablation experiment)
有一点像控制变量的感觉。因为作者提出了一种方案,同时改变了多个条件/参数,他在接下去的消融实验中,会一一控制一个条件/参数不变,来看看结果,到底是哪个条件/参数对结果的影响更大。下面这段话摘自知乎,@人民艺术家:你朋友说你今天的样子很帅,你想知道发型、上衣和裤子分别起了多大的作用,于是你换了几个发型,你朋友说还是挺帅的,你又换了件上衣,你朋友说不帅了,看来这件衣服还挺重要的。————————————————原文链接:https://blog.youkuaiyun.com/Sandwichsauce/artic原创 2020-06-10 09:42:28 · 4531 阅读 · 1 评论 -
geodesic distance(测地距离)
geodesic distance ,这个单词的中文翻译是测地距离,其实测地距离的意思就是在三维空间中,两点之间的最短路径,归根究底就是最短路径,在三维中间从一个点到另外一个点的路径有无数种,但是最短路径只有一条,那么这个最短路径的长度就是测地距离 geodesic distance。————————————————原文链接:https://blog.youkuaiyun.com/HNU_wang_chao/article/details/78612479...原创 2020-06-09 16:07:34 · 5811 阅读 · 0 评论 -
机器学习基础--FPS(FarthestPointSampling)最远点采样法
简介在 PointNet++ 中用到了FPS(Farthest Point Sampling) 最远点采样法,该方法比随机采样的优势在于它可以尽可能的覆盖空间中的所有点。实现步骤假设一共有n个点,整个点集为N = {f1, f2,…,fn}, 目标是选取n1个起始点做为下一步的中心点:①随机选取一个点fi为起始点,并写入起始点集 B = {fi};②选取剩余n-1个点计算和fi点的距离,选择最远点fj写入起始点集B={fi,fj};③选取剩余n-2个点分别计算和点集B中每个点的距离,..原创 2020-06-08 15:52:50 · 4874 阅读 · 2 评论 -
机器学习基础1--排列的不变性
排列不变性(permutation invariance):指输入的顺序改变不会影响输出的值。例如,f()就有排列不变性 :原创 2020-06-08 09:46:23 · 2348 阅读 · 0 评论 -
windows10环境下tensorflow安装过程(CPU安装)
主要参考这里备注1.血的教训,在安装之前,一定要注意anaconda的版本,现在很多库不支持python3.7,又为python2比较老,许多功能不足,所以推荐安装python3.5或者python3.6,然后下载与python相对应的anaconda的版本。2.tensorflow的版本可以修改,版本看这里如果觉得文章有用,请给个赞...原创 2020-05-09 17:50:50 · 484 阅读 · 0 评论