- 博客(6)
- 资源 (2)
- 收藏
- 关注
原创 以学校为背景的疫情仿真,含各种决策分析以及博弈行为(附代码)
我们想要通过这篇文章,能够尽量的仿真疫情在学校(或其他较封闭体系)的传播形式,结合戴口罩,打疫苗,核酸频率,校外输入,基本传染数等多因素考虑找到整体疫情防控与开销的最优解,并针对新冠病毒一直变异的现状,基于病毒进化导致感染强度的改变引入人与病毒的博弈行为。
2022-05-05 18:04:09
1933
2
原创 从爬虫到检索的求职搜索引擎本地简单实现,含界面和特色功能(附数据分析代码)
从职位的详细要求爬取到数据分析,再到情感分类特色功能与界面实现,并综合搭建文档架构实现检索功能
2022-04-29 01:06:17
1178
1
原创 Bert讲解+基于Bert的情感多分类任务(超高精度)
基于Bert实现的情感分类任务,包含对于Bert原文的讲解和介绍,其实任务2分类99+精度一直到5分类仍有97+精度
2021-12-21 12:02:35
20277
54
原创 Google顶级网络CoAtNet(CNN+TFM 89.77% ImageNet top1精度)+代码+基于CIFAR10的实验流程
最顶尖的CNN+TFM这里用的CoAtNet(有介绍),他在ImageNet数据集上达到了89.77%的精度,超越所有ResNet变种,成为当时的SOTA,这里的内容是基于CIFAR10的分类任务。
2021-12-20 14:09:06
3209
5
原创 【Transformer论文模型细致讲解】
Transformer是谷歌在2017年6月提出,发表在NIPS2017上。论文地址 Attention Is All You Need。Transformer主体框架是一个encoder-decoder结构,去掉了RNN序列结构,完全基于attention和全连接。在WMT2014英语翻译德语任务上,bleu值达到了28.4,达到当时的SOTA。其总体结构如下所示1.首先是Encoder我们将Encoder分为两个部分,一个是输入层embedding,另一个是编码层,也就是左边放方框框里面的东西
2021-11-29 15:57:47
5852
2
基于Bert的情感多分类任务(超高精度)
2022-04-19
谷歌顶级网络CoAtNet CIFAR10分类任务
2021-12-21
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人