MyML
文章平均质量分 76
Kadima08
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
神经网络不同样本输出值一样的处理(个人记录)
输出一样原创 2023-02-22 22:54:30 · 1588 阅读 · 0 评论 -
BatchNorm和LayerNorm的对比
BatchNorm适用于CV,而LayerNorm适用于NLP,这是由两个任务的本质差异决定的,视觉的特征是客观存在的特征,而语义特征更多是由上下文语义决定的一种统计特征,因此他们的标准化方法也会有所不同。转载 2023-02-22 22:49:20 · 359 阅读 · 0 评论 -
非平衡数据损失函数之Focal Loss for Dense Object Detection
最近在思考非平衡数据集的分类问题,总是觉得交叉熵(CE)即使带了权重也并不够orientied。原创 2022-03-14 16:34:01 · 3899 阅读 · 0 评论 -
吴恩达机器学习第二章 学习笔记
第二章 模型评估与选择 2.1经验误差与过拟合 经验误差 m样本数量,Y样本正确结果,预测结果Y’——>错误a个 error rate:E=a/m 误差:|Y-Y’| accuracy=1-E 训练集上的误差称为“训练误差”或“经验误差”,新样本上的误差称为“泛化误差” 过拟合 把训练样本自身的一些特点当作所有潜在样本都具有的性质,泛化能力下降 欠拟合容易克服,而过拟合较为麻烦且无法彻底避免 2.2评估方法 ...原创 2020-08-12 16:16:22 · 574 阅读 · 0 评论 -
20200809-Supervise
Supervised vs. Unsupervised Sup. Features are matched with lables in training dataset. Classification of Sup. Regression(successive) fit the curve y=f(x) Classification(discret&finite) usually input vectors and output lables Unsup. Relation原创 2020-08-09 23:22:27 · 160 阅读 · 0 评论
分享