
深度学习基础
文章平均质量分 55
积累深度学习的基础知识
江汉似年
写代码造汽车
展开
-
ROC曲线和AUC
在分类任务中,人们总是喜欢基于错误率来衡量分类器任务的成功程度。错误率指的是在所有测试样例中错分的样例比例。实际上,这样的度量错误掩盖了样例如何被分错的事实。在机器学习中,有一个普遍适用的称为混淆矩阵(confusion matrix)的工具,它可以帮助人们更好地了解分类中的错误。机器学习之分类性能度量指标 : ROC曲线、AUC值、正确率、召回率 | Zhiwei's Blog。ROC曲线能更稳定反映模型的性能,对测试集合中数据分布的变化不敏感。原创 2024-07-21 19:18:55 · 382 阅读 · 0 评论 -
PyTorch RuntimeError: DataLoader worker (pid(s) 15332) exited unexpectedly
python - PyTorch RuntimeError: DataLoader worker (pid(s) 15332) exited unexpectedly - Stack Overflowhttps://stackoverflow.com/questions/60101168/pytorch-runtimeerror-dataloader-worker-pids-15332-exited-unexpectedly训练遇到上述问题,且json数据出现频率远高于pickle数据,看stackover原创 2022-01-29 14:58:05 · 1889 阅读 · 0 评论 -
深度学习与神经网络--book--Michael Nielsen
Introduction · 神经网络与深度学习原创 2022-01-05 15:58:29 · 1694 阅读 · 0 评论 -
安装nvidia驱动流程
https://blog.youkuaiyun.com/xiangxianghehe/article/details/80909305原创 2021-06-01 20:35:32 · 283 阅读 · 0 评论 -
FPS采样原理
FPS(FarthestPointSampling)最远点采样法_QFJIZHI的博客-优快云博客_fps最远点采样原创 2021-09-28 11:44:52 · 573 阅读 · 0 评论 -
cuda和cudnn安装
1、介绍https://zhuanlan.zhihu.com/p/913343802、装cudahttps://developer.nvidia.com/cuda-10.1-download-archive-base?target_os=Linux&target_arch=x86_64&target_distro=Ubuntu&target_version=1604&target_type=runfilelocal3、环境变量https://blog.cs原创 2021-01-08 14:53:31 · 118 阅读 · 0 评论 -
对深度学习中多模态的理解
什么叫模态:每一种信息来源都可以认为是一种模态,视觉信息、听觉信息都是不同的模态。人的智能是一种典型的多模态智能,所以有人说多模态学习是人工智能的未来。详细可以参考一篇综述文章https://zhuanlan.zhihu.com/p/133990245举例waymo的预测论文:MultiPath的建模方式是一种典型的多模态学习方法,输入信息包括 语义图像 + anchor轨迹,这是两种不同模态的信息。...原创 2020-11-26 16:20:32 · 3000 阅读 · 0 评论 -
为什么使用one-hot编码来处理离散型特征?
原文链接:https://my.oschina.net/hjchhx/blog/1832603One-Hot在python中的使用————————————————————————————————————————fromsklearnimportpreprocessingenc=preprocessing.OneHotEncoder()enc.fit...原创 2019-11-12 19:57:54 · 1266 阅读 · 0 评论 -
交叉熵的理解
参考文章:https://blog.youkuaiyun.com/tsyccnh/article/details/791638341、信息量的定义:概率越小的时间信息量越大: I(x0)=−log(p(x0)) 2、熵的定义:熵用来表示所有信息量的期望3、相对熵(KL散度): 相对熵又称KL散度,如果我们对于同一个随机变量 x 有两个单独的概率分布 P(x) 和...转载 2020-03-27 10:44:21 · 219 阅读 · 0 评论 -
Transfer Learning
原文链接:http://cs231n.github.io/transfer-learning/(These notes are currently in draft form and under development)Table of Contents:Transfer Learning Additional ReferencesTransfer LearningIn p...转载 2019-03-27 14:00:39 · 236 阅读 · 0 评论 -
卷积神经网络学习笔记
一、卷积神经网络结构:卷积层conv作用:卷积层是一个n*n*m的权重矩阵,下图一目了然:channel:一个卷积层的核数,对rgb图像channel = 3kernel size:卷积核的维度步长(step size):卷积核每次移动的像素点个数边距(padding size):图像边缘补齐的像素点个数,目的是增加卷积核扫描到原始图像边缘的几率,理论上padd...原创 2019-04-20 19:04:44 · 607 阅读 · 0 评论 -
神经网络基础学习笔记
1、交叉熵函数:表达真实样本标签与预测概率之间的差值。链接:https://blog.youkuaiyun.com/red_stone1/article/details/807350682、softmax回归:假设目标分类结果有J种,softmax函数表达了当前样本在[1---J]这J中结果上的概率分布。...原创 2019-04-20 17:41:38 · 157 阅读 · 0 评论 -
从图网络到图卷积
https://www.cnblogs.com/SivilTaram/p/graph_neural_network_1.html转载 2020-05-26 16:14:40 · 193 阅读 · 0 评论 -
正则化的理解
https://blog.youkuaiyun.com/jinping_shi/article/details/52433975原创 2020-06-25 13:42:36 · 131 阅读 · 0 评论 -
空间变换网络 Spatial Transformer Networks
https://www.cnblogs.com/liaohuiqiang/p/9226335.html原创 2020-06-28 14:59:09 · 194 阅读 · 0 评论 -
Transformer网络理解
https://zhuanlan.zhihu.com/p/48508221http://jalammar.github.io/illustrated-transformer/https://blog.youkuaiyun.com/yujianmin1990/article/details/85221271原创 2020-07-06 21:07:39 · 1515 阅读 · 0 评论 -
RNN与attention在处理sequece to sequece任务时的对比
参考文章https://blog.youkuaiyun.com/Enjoy_endless/article/details/88679989RNN:分心模型,解码时每个位置输入的source信息是一样的,都是CAttention:解码时每个位置输入的source信息是不一样的,各有侧重 需要注意的是attention与self attention是有区别的,关键在于对Q、K、V三个向量的理解。其中Q是不一样的,K,V可以认为是一样的。在较老的soft attention中,Q是...原创 2021-01-15 17:41:00 · 246 阅读 · 0 评论 -
Batch Size的理解
神经网络中Batch Size的理解原创 2021-03-03 16:19:30 · 244 阅读 · 1 评论 -
理解softlabel的好处
从标签平滑和知识蒸馏理解 Soft Label - 极市社区从softmax的损失函数曲线上理解,hard label监督下,由于softmax的作用,one-hot的最大值位置无限往1进行优化,但是永远不可能等于1,从上图可知优化到达一定程度时,优化效率就会很低,到达饱和区。而soft label可以保证优化过程始终处于优化效率最高的中间区域,避免进入饱和区。...原创 2021-12-02 16:52:55 · 5264 阅读 · 0 评论 -
理解Cross-Entropy Loss, Binary Cross-Entropy Loss, Softmax Loss, Logistic Loss, Focal Loss
Understanding Categorical Cross-Entropy Loss, Binary Cross-Entropy Loss, Softmax Loss, Logistic Loss, Focal Loss and all those confusing names原创 2021-12-21 15:59:42 · 723 阅读 · 0 评论