sjx_alo
人工智能博士在读,目前在做脑机接口研究。已发表多项发明专利(4项),包括国际期刊SCI内十多篇论文,多个数学建模国家级证书。目前也是国内知名博主,截止2022年,AI领域粉丝超1万,文章阅读量超20万。
合作请私信!!!~~~
展开
-
深度学习快速入门--7天做项目
近段时间,之前的老板让我带下小师弟。然后按照给照小师弟的项目指导,正好出这篇文章来帮助那些想要深度学习入门或者刚接触深度学习的人。感谢!!!原创 2024-01-29 17:07:34 · 3059 阅读 · 2 评论 -
史上最全激活函数总结篇(持续更新ing......)
激活函数系列中提及到的激活函数包括:Sigmoid、Tanh、ReLU、Leaky ReLU、PReLU、Swish、ELU、SELU、GELU、Softmax、Softplus、Mish、Maxout、HardSigmoid、HardTanh、Hardswish、HardShrink、SoftShrink、TanhShrink、RReLU、CELU、ReLU6、Threshold、Sinc、GLU、SwiGLU、GTU、Bilinear、ReGLU、GEGLU、Softmin、Softmax2d、Logs原创 2023-09-27 08:43:19 · 8621 阅读 · 7 评论 -
DeepSmote:一种深度SMOTE方法
DeepSmote 一种全新的将深度学习与Smote相结合的过采样方法! 目前在许多领域已经被使用,值得大家关注学习!原创 2023-05-10 11:24:47 · 1126 阅读 · 7 评论 -
运动想象 (MI) 迁移学习系列 (14) : 特征关系对比网络 (FRCN)
由于外部因素和个体差异,脑电图 (EEG) 数据具有`跨会话和跨受试者的可变性`。因此,跨域脑电信号识别仍然具有挑战性。为了解决这个问题,我们在本文中提出了一种==特征关系对比网络 (FRCN)==。首先,我们使用`协方差矩阵`来`对齐`源域和目标域之间的数据分布,以减少差异。其次,我们通过`预训练的嵌入网络提取特征`表示,并使用非线性变换来对齐特征的相关性。然后,我们提出了一种`源域选择`方法,通过`利用来自不同域的静息态数据和选定的适当源域数`据进行微调,来`衡量域之间运动相关数据分布的相似性`。原创 2025-03-04 12:39:18 · 243 阅读 · 0 评论 -
运动想象 (MI) 分类学习系列 (17) : CCSM-FT
电极记录了`神经元的混合活动`。如果将不同的特征直接嵌入到同一个特征空间中,则不考虑不同神经元区域的`特异性`和`互性特征`,这会`降低特征本身的表达能力`。我们提出了一种`跨通道特定互特征迁移学习 (CCSM-FT) 网络模型`来解决这个问题。多分支网络提取大脑`多区域信号的特定`和`相互特征`。`有效的训练技巧`用于最大限度地区分这两种特征。原创 2025-02-28 23:17:09 · 155 阅读 · 0 评论 -
如何在本地配置Github的项目--Python
`Github`上存在大量的代码。当下载下来后可能会存在疑惑:如何在`本地配置`对应的项目呢?为了帮助新手解决这一问题,这篇文章从头开始对项目的配置进行解析。文章主要包括四个部分:1. 初步预览2. 配置环境3. 数据配置4. 依次调试5. 配置完成原创 2023-05-27 19:56:20 · 3241 阅读 · 0 评论 -
Capsule Network 胶囊网络介绍
胶囊网络可以作为一个论文提分的点,但是工程上不建议用。。。相比于CNN网络而言,胶囊网络可以用更小的训练数据进行良好的训练;具有更强的能力去识别复杂的层次结构和空间关系。原创 2024-01-11 15:50:58 · 1903 阅读 · 0 评论 -
不要对数据进行某些类型可视化 - 它们是什么以及为什么它们不好。
这篇文章介绍不要对数据进行某些类型可视化 - 它们是什么以及为什么它们不好。文章通过可视化以及具体的案例进行各个情况分析,并说明了坏的原因!!!翻译 2023-11-22 09:40:13 · 142 阅读 · 0 评论 -
EEG公开数据集介绍
EEG 公开数据集介绍(包含各种分类任务下的EEG数据集和对应的下载链接)原创 2023-11-03 08:38:10 · 3183 阅读 · 0 评论 -
损失函数总结(十六):NRMSELoss、RRMSELoss
本文对损失函数进行了部分总结,包括:NRMSELoss、RRMSELoss 等损失函数及其在当前损失函数众多的情况下使用的环境。原创 2023-11-28 15:08:07 · 633 阅读 · 0 评论 -
Bug小能手系列(python)_13: RuntimeError: CUDA error: device-side assert triggered CUDA kernel errors might
RuntimeError: CUDA error: device-side assert triggeredCUDA kernel errors might be asynchronously reported at some other API call,so the stacktrace below might be incorrect. For debugging consider passing CUDA_LAUNCH_BLOCKING=1. 报错解决方案原创 2023-10-30 15:16:41 · 9759 阅读 · 3 评论 -
损失函数总结(十五):MSLELoss、RMSLELoss
本文对损失函数进行了部分总结,包括:RMSELoss、LogCosh Loss 等损失函数及其在当前损失函数众多的情况下使用的环境。原创 2023-11-20 15:55:22 · 501 阅读 · 2 评论 -
损失函数总结(十四):RMSELoss、LogCosh Loss
本文对损失函数进行了部分总结,包括:RMSELoss、LogCosh Loss 等损失函数及其在当前损失函数众多的情况下使用的环境。原创 2023-11-02 08:40:28 · 726 阅读 · 0 评论 -
损失函数总结(十三):RSELoss、MAPELoss
本文对损失函数进行了部分总结,包括:RSELoss、MAPELoss 等损失函数及其在当前损失函数众多的情况下使用的环境。原创 2023-11-02 08:40:12 · 653 阅读 · 0 评论 -
损失函数总结(十二):MBELoss、RAELoss
本文对损失函数进行了部分总结,包括:MBELoss、RAELoss 等损失函数及其在当前损失函数众多的情况下使用的环境。原创 2023-11-01 08:58:15 · 262 阅读 · 0 评论 -
损失函数总结(十一):Huber Loss、SmoothL1Loss
本文对损失函数进行了部分总结,包括:Huber Loss、SmoothL1Loss 等损失函数及其在当前损失函数众多的情况下使用的环境。原创 2023-11-01 08:57:55 · 2184 阅读 · 0 评论 -
损失函数总结(十):TripletMarginLoss、TripletMarginWithDistanceLoss
本文对损失函数进行了部分总结,包括:TripletMarginLoss、TripletMarginWithDistanceLoss 等损失函数及其在当前损失函数众多的情况下使用的环境。原创 2023-10-30 15:17:24 · 784 阅读 · 0 评论 -
损失函数总结(九):SoftMarginLoss、MultiLabelSoftMarginLoss
本文对损失函数进行了部分总结,包括:SoftMarginLoss、MultiLabelSoftMarginLoss等损失函数及其在当前损失函数众多的情况下使用的环境。原创 2023-10-28 11:53:02 · 1277 阅读 · 2 评论 -
损失函数总结(八):MultiMarginLoss、MultiLabelMarginLoss
本文对损失函数进行了部分总结,包括:MultiMarginLoss、MultiLabelMarginLoss等损失函数及其在当前损失函数众多的情况下使用的环境。原创 2023-10-27 08:47:08 · 1166 阅读 · 0 评论 -
损失函数总结(七):MarginRankingLoss、HingeEmbeddingLoss
本文对损失函数进行了部分总结,包括:MarginRankingLoss、HingeEmbeddingLoss等损失函数及其在当前损失函数众多的情况下使用的环境。原创 2023-10-27 08:46:36 · 1326 阅读 · 0 评论 -
损失函数总结(六):KLDivLoss、BCEWithLogitsLoss
本文对损失函数进行了部分总结,包括:KLDivLoss、BCEWithLogitsLoss等损失函数及其在当前损失函数众多的情况下使用的环境。原创 2023-10-26 10:02:42 · 1258 阅读 · 0 评论 -
损失函数总结(五):PoissonNLLLoss、GaussianNLLLoss
本文对损失函数进行了部分总结,包括:PoissonNLLLoss、GaussianNLLLoss等损失函数及其在当前损失函数众多的情况下使用的环境。原创 2023-10-26 10:02:21 · 1141 阅读 · 0 评论 -
写代码不写注释 < 写代码不说环境 < 写代码不给数据 < 写论文不给代码
写代码不写注释分情况如何解决? 写代码不说环境分情况如何解决?讨厌程度排名:写代码不写注释 < 写代码不说环境 < 写代码不给数据 < 写论文不给代码原创 2023-10-17 11:19:50 · 412 阅读 · 0 评论 -
损失函数总结(四):NLLLoss、CTCLoss
本文对损失函数进行了部分总结,包括:NLLLoss、CTCLoss等损失函数及其在当前损失函数众多的情况下使用的环境。总的来说:NLLLoss 和 CrossEntropyLoss 是一致的,且具有相同作用;CTCLoss则广泛用于各种时间序列任务。。。原创 2023-10-25 16:08:55 · 1772 阅读 · 0 评论 -
损失函数总结(三):BCELoss、CrossEntropyLoss
本文对损失函数进行了部分总结,包括:BCELoss、CrossEntropyLoss 等损失函数及其在当前损失函数众多的情况下使用的环境。总的来说:对于分类任务,CrossEntropyLoss 是其进行多分类任务的标准方法,而BCELoss 广泛用于二分类任务中。。。这两种损失函数都是当前较为常用的损失函数,可以好好研究一下。原创 2023-10-25 10:05:06 · 3785 阅读 · 0 评论 -
损失函数总结(二):L1Loss、MSELoss
本文对损失函数进行了部分总结,包括:L1Loss、MSELoss等损失函数及其在当前损失函数众多的情况下使用的环境。总的来说:对于回归任务,最常使用的就是MSELoss,二L1Loss因其本身的特点很少使用。。。。原创 2023-10-18 09:34:34 · 1416 阅读 · 0 评论 -
损失函数总结(一):损失函数介绍
这篇文章为了帮助大家更好的理解损失函数,介绍了损失函数是什么以及为什么要使用损失函数。原创 2023-10-17 11:20:57 · 292 阅读 · 0 评论 -
激活函数总结(四十七):激活函数补充(Adaptive Spline Activation Function、Adversarial Soft Advantage Fitting)
本文为前面介绍的激活函数进行了一些激活函数补充,包括:Adaptive Spline Activation Function、Adversarial Soft Advantage Fitting等激活函数及其在当前激活函数众多的情况下使用的环境。总的来说:Adaptive Spline Activation Function提出的时间过于久远,现在已几乎不再使用;Adversarial Soft Advantage Fitting具有很好的效果,但是使用场景具有局限性,使用的时候需要注意。。。。原创 2023-09-28 08:30:34 · 479 阅读 · 1 评论 -
激活函数总结(四十六):激活函数补充(Nipuna、StarReLU)
本文为前面介绍的激活函数进行了一些激活函数补充,包括:Nipuna、StarReLU等激活函数及其在当前激活函数众多的情况下使用的环境。总的来说:Nipuna具有一定的效果,但是不会很常见。。。而StarReLU激活函数可以在深度学习领域广泛使用,具有很好的效果,有需要的小伙伴可以尝试使用,,,原创 2023-09-28 08:30:20 · 475 阅读 · 0 评论 -
激活函数总结(四十五):激活函数补充(Smooth Step、LinComb)
本文为前面介绍的激活函数进行了一些激活函数补充,包括:Smooth Step、LinComb等激活函数及其在当前激活函数众多的情况下使用的环境。总的来说:Smooth Step可能会在特殊领域进行简单应用,但是不会很常见。。。而LinComb激活函数其有效性有待进一步验证,这里仅做简单了解。。。原创 2023-09-27 08:42:13 · 432 阅读 · 0 评论 -
激活函数总结(四十四):激活函数补充(NLSIG、EvoNorms)
本文为前面介绍的激活函数进行了一些激活函数补充,包括:NLSIG、EvoNorms等激活函数及其在当前激活函数众多的情况下使用的环境。总的来说:NLSIG更偏向于现实生活的情况,在当前很少使用,也并不适合深度学习领域;EvoNorms的话可以一定程度上代替BN+ReLU 的结构,且具有较好的效果,但是会带来复杂度的上升,使用的时候需要进行一定的考虑。。。。原创 2023-09-26 10:18:14 · 291 阅读 · 0 评论 -
激活函数总结(四十三):激活函数补充(ScaledSoftSign、NormLinComb)
本文为前面介绍的激活函数进行了一些激活函数补充,包括:ScaledSoftSign、NormLinComb等激活函数及其在当前激活函数众多的情况下使用的环境。总的来说:ScaledSoftSign 和 NormLinComb 当前仅在预印本文章中提出,并没有得到有效验证。。。使用的时候要注意。。。原创 2023-09-26 08:29:29 · 223 阅读 · 0 评论 -
激活函数总结(四十二):激活函数补充(SSFG、Gumbel Cross Entropy)
本文为前面介绍的激活函数进行了一些激活函数补充,包括:SSFG、Gumbel Cross Entropy等激活函数及其在当前激活函数众多的情况下使用的环境。总的来说:虽然,SSFG和Gumbel Cross Entropy均具有很好的效果,但是尚未经过大量实验进行有效性验证!!! 因此,使用的时候需要稍加注意。。。原创 2023-09-25 08:36:39 · 323 阅读 · 0 评论 -
激活函数总结(四十一):激活函数补充(ShiLU、ReLUN)
本文为前面介绍的激活函数进行了一些激活函数补充,包括:ShiLU、ReLUN等激活函数及其在当前激活函数众多的情况下使用的环境。总的来说:ShiLU 和 ReLUN均尚未经过有效性验证,且从函数本身来说并不一定有很好的效果!!! 因此,使用的时候需要稍加注意。。。原创 2023-09-22 08:51:58 · 503 阅读 · 0 评论 -
激活函数总结(四十):激活函数补充(AHAF、SERLU)
本文为前面介绍的激活函数进行了一些激活函数补充,包括:AHAF、SERLU等激活函数及其在当前激活函数众多的情况下使用的环境。总的来说:AHAF 和 SERLU都具有一定的优势,但是均尚未经过有效性验证!!! 因此,使用的时候需要稍加注意。。。原创 2023-09-21 08:57:40 · 331 阅读 · 0 评论 -
激活函数总结(三十九):激活函数补充(NFN、Hermite)
本文为前面介绍的激活函数进行了一些激活函数补充,包括:NFN、Hermite等激活函数及其在当前激活函数众多的情况下使用的环境。总的来说:NFN 现在几乎不再使用。。而 Hermite 激活函数尚未经过有效性验证!!! 因此,使用的时候需要稍加注意。。。原创 2023-09-20 08:39:04 · 347 阅读 · 0 评论 -
激活函数总结(三十八):激活函数补充(PDELU、CosLU)
本文为前面介绍的激活函数进行了一些激活函数补充,包括:PDELU、CosLU等激活函数及其在当前激活函数众多的情况下使用的环境。总的来说:PDELU和 CosLU均都未经过有效性验证!!! 因此,使用的时候需要稍加注意。。。原创 2023-09-19 08:36:23 · 382 阅读 · 0 评论 -
激活函数总结(三十七):激活函数补充(PAU、DELU)
本文为前面介绍的激活函数进行了一些激活函数补充,包括:PAU、DELU等激活函数及其在当前激活函数众多的情况下使用的环境。总的来说:PAU 和 DELU 均有一定的优点,但是也都未经过有效性验证!!! 因此,使用的时候需要稍加注意。。。原创 2023-09-18 08:32:55 · 461 阅读 · 0 评论 -
激活函数总结(三十六):激活函数补充(ARiA、m-arcsinh)
本文为前面介绍的激活函数进行了一些激活函数补充,包括:ARiA、m-arcsinh等激活函数及其在当前激活函数众多的情况下使用的环境。总的来说:ARiA 和 m-arcsinh 在现在较少使用,这里仅做了解即可。。。原创 2023-09-17 09:00:00 · 297 阅读 · 0 评论 -
激活函数总结(三十五):激活函数补充(KAF、Siren)
本文为前面介绍的激活函数进行了一些激活函数补充,包括:KAF、Siren等激活函数及其在当前激活函数众多的情况下使用的环境。总的来说:KAF现在较少使用,而Siren在图像方面应用较多,有需要的可以关注一下。。。原创 2023-09-16 09:11:35 · 530 阅读 · 0 评论