
CV
文章平均质量分 68
人生简洁之道
Glad to meet you
展开
-
黄金时代 —— 深度学习(基础/补充)
文章目录优化梯度下降AdamW 前置博客-深度学习基础 优化 梯度下降 AdamW Adam + weight decate Adamw 即 Adam + weight decate ,效果与 Adam + L2 正则化相同, 但是计算效率更高,之前的 L2 正则化需要在 loss 中加入正则项再算梯度,反向传播,AdamW 直接将正则项的梯度加入反向传播的公式中,减少在 loss 中加正则项这一步 Adamw 即 Adam + weight decate ,效果与 Adam + L2正则化相同原创 2023-05-23 15:33:35 · 120 阅读 · 0 评论 -
opencv边缘-边界处理
图像目标边缘边界处理原创 2022-10-15 19:32:55 · 1058 阅读 · 0 评论 -
Kaggle(入门)
How to Win a Data Science Competition: Learn from Top Kagglers 概念 Data Model Submission Evaluation Leaderboard Titanic kaggle - link Kaggle数据分析工作流程 1 问题定义:先阅读题目弄清题意 2 获取数据集(训练(包括交叉验证)+测试) 3 数据预处理(Wrangle, prepare, cleanse) 数据争用是数据格式转换,转换成方便后续处理的结构.原创 2022-05-02 08:14:55 · 1152 阅读 · 0 评论