
python
whut_ldz
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
(继)pytorch中的pretrain模型网络结构修改
继上篇文章提出的两种预训练模型的修改方法外,今天在这里推荐我新学习到的一种方法:这里还是以resnet模型为参考,在去掉预训练resnet模型的后两层(fc层和pooling层)后,新添加一个反卷积层、池化层和分类层。那么对于网络的修改怎样可以快速的去除model本身的网络层呢?一个继承nn.module的model它包含一个叫做children()的函数,这个函数可以用来提取出mod原创 2017-12-22 16:52:44 · 17992 阅读 · 6 评论 -
Python:机器学习的ROC曲线、AUC计算,以及相应的代码
ROC曲线的原理以及绘制方法参考点击打开链接,这里主要是对原理部分的代码实现。对于每一个给定的阈值threshold,我们都可以算出有关的TPR、FPR参数,这里我写了以下函数来实现该功能,函数的输入有result和thres两部分。前一部分是包含两个array,第一个array用来存储每一个样本是正样本概率,第二个array则是每个样本的label属性(0或1);后一部分则是选取的阈值,代码转载 2017-12-22 17:23:44 · 31806 阅读 · 4 评论 -
x = x.view(x.size(0), -1) 的理解
之前对于pytorch的网络编程学习都是大致理解每一层的概念,有些语法语句没有从原理上弄清楚,就比如标题的x = x.view(x.size(0), -1) 。这句话一般出现在model类的forward函数中,具体位置一般都是在调用分类器之前。分类器是一个简单的nn.Linear()结构,输入输出都是维度为一的值,x = x.view(x.size(0), -1) 这句话的出现就是为了将原创 2017-12-23 22:15:56 · 68731 阅读 · 9 评论 -
机器学习:如何找到最优学习率
原文见点击打开链接学习率的重要性目前深度学习使用的都是非常简单的一阶收敛算法,梯度下降法,不管有多少自适应的优化算法,本质上都是对梯度下降法的各种变形,所以初始学习率对深层网络的收敛起着决定性的作用,下面就是梯度下降法的公式[Math Processing Error]w:=w−α∂∂wloss(w)这里[Math Processing Error]α就是学习率转载 2017-12-23 23:22:12 · 21961 阅读 · 1 评论 -
pandas处理csv数据基本用法
# -*- coding: utf-8 -*-import pandas#读csv文件data = pandas.read_csv('test.csv')# print data#返回前n行first_rows = data.head(n=5)# print first_rows#返回全部列名cols = data.columns# print cols#返回维度d原创 2017-12-28 14:41:42 · 21183 阅读 · 0 评论 -
python的sorted函数对字典按value排序
原博客地址:点击打开链接我们都知道sorted函数一般用来对列表进行排序,但当我们需要对排序后的index进行读取的话就会很麻烦。所以,采取字典的排序方法,我们可以将index的信息存在key里面,对应的值存在value里,这样,再对字典排序就可以了。如下图所示,假如我们有一个如下的列表[-7.0, 4.0, -1.0, 9.0, 7.0, -4.0, -0.50096, 2.0449原创 2018-01-13 17:13:08 · 3962 阅读 · 0 评论 -
西瓜书学习之路
前段时间开始学习周志华老师的《西瓜书》,许多问题都是参考这篇大神的博客点击打开链接这份课后习题答案无论是数学推导还是matlab仿真都写的很到位,从中学习到了许多。目前学到了第11章的知识,附上自己用python编译的课后习题代码点击打开链接,都是本人编写,可以直接运行~原创 2018-01-13 17:26:03 · 5806 阅读 · 2 评论 -
西瓜书第十三章10题 13.10[python]
#!/usr/bin/python# -*- coding: utf-8 -*-import numpy as np import pandas as pd from math import sqrtimport matplotlib.pyplot as plt'''1.对每一个存在勿连约束的样本,检查他的所有勿连约束样本,如果已经分类,则正常进行勿连约束判断分类。如果未分类,则原创 2018-01-22 18:26:30 · 982 阅读 · 0 评论