
Kaggle入门
小马帅就是我没错了
凡事贵在坚持
展开
-
实用技巧 - trick1
多分类下准召f1优化 简单地说就是如果多类别不均衡的话,这时候直接使用神经网络优化交叉熵损失得到的结果,f1显然不是全局最优的,很多同学都会问,二分类下的阈值搜索我会,如果是多分类怎么做一个阈值搜索呢?传统的多分类我们预测结果使用argmax(logits)这时候,可以形式化的表达为求argmax(w*logits)使得f1均值最大。其中w就是要求得的再放缩权重。 我们可以使用非线性优化的方法,求解这个问题,scipy的库里有很多实现了。 有序关系的离散标签优化 我们经常遇到这样的问题,比如情感打分预测1-原创 2020-07-15 15:28:03 · 510 阅读 · 0 评论 -
Kaggle入门之基于CNN的数字识别
Digital Recognizer Gang Ma 9/10/2018 1. 介绍 2. 数据预处理 2.1 加载数据 2.2 检查是否有null和缺失值 2.3 标准化和归一化 2.4 修改数据到指定维度 2.5 编码标签----独热码 2.6 划分训练集和验证集 3. CNN 3.1 定义模型 3.2 定义优化器和自动调节学习率退火器 3.3 数据增强 4. 评估模型 4.1...原创 2018-10-09 20:02:27 · 1137 阅读 · 0 评论