- 博客(23)
- 收藏
- 关注
原创 2018 Dataset Distillation
提出了数据的蒸馏方法,使用真实数据在蒸馏模型上进行测试作为损失函数,反向传播更新蒸馏数据,缩小测试损失;证明了合成数据对于训练模型的有效性,但准确率还有较大提升空间,可以尝试推广到更高分辨率的数据集上。
2023-07-31 20:49:09
256
原创 吴恩达深度学习笔记整理(四)—— 超参数调试、正则化以及优化
吴恩达深度学习笔记整理(四)—— 超参数调试、正则化以及优化;本文根据吴恩达深度学习的课程内容,自行提取重点整理,主要为方便自己回顾学习。
2022-11-04 21:11:36
783
原创 UP-DETR: Unsupervised Pre-training for Object Detection with Transformers
CVPR2021:UP-DETR
2022-11-03 14:45:51
882
原创 李宏毅2022ML第二周课程笔记(二)-- Tips for Training
李宏毅机器学习2022年学习笔记(二)-- Tips for Training
2022-10-29 19:52:28
175
原创 2022李宏毅机器学习hw1
2022李宏毅机器学习hw1(全过strong baselin,public score与bossline差0.01)
2022-10-27 12:21:57
1005
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人