@创建于:2022.05.27 @更新于:2022.05.27, 2022.07.25 文章目录 1、优秀资源2、机器学习3、时序资料4、深度学习 for NLP4.1 词向量4.2 BERT预训练模型4.3 语义相似度4.4 条件随机场4.5 深度学习相关问题 5、样本不均衡6、数据增强 1、优秀资源 标点符 博客 Roadmap 图解机器学习算法 | 从入门到精通系:一个专栏 小象:深度学习相关内容集锦【未看完】 2、机器学习 梯度提升(GBDT)算法 图解机器学习 | GBDT模型详解 机器学习 | XGBoost详解 图解机器学习 | XGBoost模型详解 图解机器学习 | LightGBM模型详解 【机器学习】决策树(上)——ID3、C4.5、CART(非常详细) 【机器学习】决策树(中)——Random Forest、Adaboost、GBDT (非常详细) 【机器学习】决策树(下)——XGBoost、LightGBM(非常详细) GBDT和XGBoost面试总结 GBDT几问 图解机器学习算法 | 从入门到精通系:一个专栏 机器学习中的判别式模型和生成式模型 一文深度解读模型评估方法 深入理解L1、L2正则化 3、时序资料 时间序列预测 — 指数平滑、因素分解、机器学习、深度学习、特别方法、统计经济学 LSTM原理、参数介绍、Keras实现 TFT时序框架理解 【时间序列】时间序列聚类相关知识的总结与梳理 python分别使用dtw、fastdtw、tslearn、dtaidistance四个库计算dtw距离,哪个计算速度最快? 漫谈时间序列预测 4、深度学习 for NLP 4.1 词向量 NLP的游戏规则从此改写?从word2vec, ELMo到BERT 从Word Embedding到Bert模型—自然语言处理中的预训练技术发展史 一文详解 Word2vec 之 Skip-Gram 模型(结构篇) 一文详解 Word2vec 之 Skip-Gram 模型(训练篇) 一文详解 Word2vec 之 Skip-Gram 模型(实现篇) Word2Vec自然语言情感分析实战 4.2 BERT预训练模型 NLP系列之预训练模型(一):BERT、RoBERTa、ALBERT、ELECTRA、ERNIE NLP系列之预训练模型(二):Transformer-XL及其进化XLNet NLP系列之预训练模型(三):最强中文预训练模型MacBERT NLP系列之预训练模型(四):GPT2/GPT3,强大的语言模型解决小样本问题 NLP系列之预训练模型(五):谷歌T5,Text-To-Text范式统一NLP任务 NLP系列之预训练模型(六):SpanBERT/MPNet/MASS/BART 4.3 语义相似度 【对比学习&双塔模型】在语义表征中的应用(一):2021年 NAACL/ACL/EMNLP 对比学习in语义表现 【对比学习&双塔模型】在语义表征中的应用(二):盘点语义表征任务中的loss function 【对比学习&双塔模型】在语义表征中的应用(三):SOTA比拼?SBERT/SimCSE/ConSERT/ESimCSE复现 4.4 条件随机场 (四)通俗易懂理解——条件随机场CRF Introduction to Conditional Random Fields 4.5 深度学习相关问题 深度学习入门七----误差反向传播 keras中compile方法的 loss 和 metrics 区别 Dropout作用原理 5、样本不均衡 样本不均衡 & Weighted cross entropy and Focal loss 一文解决样本不均衡(全) Focal Loss Weighted cross entropy and Focal loss 非常好的资料:imbalanced-learn官网 非常好的资料:imbalanced-learn github 6、数据增强 一篇就够!数据增强方法综述