2020.11.23-11.30 人工智能行业每周技术精华文章汇总

周末时,看到公司群里,一个同事发的一篇文章

分析AI公司发展的现状:《2021,AI公司将难上加难

内容中朴实无华的分析了投融资领域,目前对于AI行业的看法:积极性在不断下降

一方面是受到疫情影响,资金吃紧,投资更加谨慎

另一方面,也是最重要的,AI行业,很难将技术标准化、规模化

无法通过解决方案的方式,批量销售给多个客户。

特别是以TO B业务为主的公司,每个客户,即使是同一个领域,也可能会有千差万别的需求。

所以虽然AI听起来很高大上,但落到实际业务中,却是苦活累活

看的大白内心深以为然,不知道在看的各位感觉如何?

比如AI行业最重要的资产,就是数据

但是每个项目,每个场景,每个需求,都可能不同。

从需求、数据、算法、落地、优化,本身就是很长的一个周期。

花费大量的时间、物力、财力,然而项目的投入产出比,和互联网、电商等行业相比,就显得弱小很多。

从投资人对AI公司的判断标准变化,也能看出一些端倪。

在早期,投资人问的是,公司有哪些技术大牛?

随后,大家开始比拼机器识别准确率。

但很快,投资人开始关心AI公司们的落地案例、合作伙伴和客户;

到今天,市场判定标准变得理性且单一:收入有多少

当然,2020年本身各个行业,都挺难过的。

不过换个角度来看待问题,各种问题表明,AI行业仍然处于一个探索阶段

国家的十四五规划中,明确提出:瞄准人工智能、量子信息等前言领域。

教育部在上半年发布的信息,《179所高校,也新增人工智能本科专业!

可以看出,在未来的5年,甚至10年,这个行业仍然是非常火爆。

那我们深处其中,是否可以换个赛道。

如何为这个行业的用户,创造长期的、基础的价值呢?

因为老婆在高校任职,明显察觉大学对目前这块的重视程度

也有很多学生通过微信添加大白,有些大一就开始参加各种目标检测的竞赛,00后的力量已经加入。

此外,还有很多C++、Java方面的程序员,也在学习这方面的知识,积攒能量。

这个行业的从业者,或者关注的人,至少会有数千万,是一个非常庞大的用户人群。

在上周,另一个大V账号发布的,《2020北京人工智能发展报告》。

内容中描绘了AI细分领域,北京地区所拥有的17个中国第一。

很多赛道,比如芯片、框架、数据等,都已经跑出很多不错的公司和服务

但是还有细分的,更底层的领域,也有很多的机会。

比如如何为海量的入门用户,提供长期的、差异化的、有效的价值,也值得好好的挖掘。

这方面,如果感兴趣的话,也可以和大白一起探讨

不过在此之前,大家还是先了解一下本周的AI周报。

之前的周报,大白会将每周的精华内容汇总起来,整理到《大白AI周报精华汇总》中,点击即可查看

后期需要哪方面的项目知识,可以直接去对应阅读

大白也在不断收集更新各个项目算法作者及从业经验的视频分享,希望能让大家提高一些探索的效率点击查看

整理汇总:江大白
内容周期:2020.11.23-2020.11.30
同步公众号:江大白


1 整理涉及公众号名单

(1)我爱计算机视觉
(2)Cver
(3)Datawhale
(4)量子位
(5)极市平台
(6)新智元
(7)机器之心
(8)AI算法与图像处理
(9)Opencv学堂
(10)PaperWeekly
(11)机器学习算法工程师
(12)AI研习社
(13)GiantPandaCV
(14)AI深度学习视线
(15)七月在线实验室
(16)人工智能前沿讲习
(17)AI科技评论
(18)机器学习算法与Python精研
(19)AIZOO
(20)微软研究员AI头条
(21)VALSE
(22)AI算法修炼营
(23)有三AI
(24)AlWalker
(25)AI公园
(26)AI人工智能初学者
(27)计算机视觉之路
(28)小白学视觉

2 行业精华文章汇总

2.1 基础知识方面

2.1.1 深度学习相关

① 网络结构

(1)谈谈RNN的梯度消失/爆炸问题
链接:https://mp.weixin.qq.com/s/rINKmVMs5idCGIrRRrOA2A

② 模型压缩

(1)重磅!一文深入深度学习模型压缩和加速
链接:https://mp.weixin.qq.com/s/t8HennNDxd-H2o_oGgv40g

2.2 研究方向方面

2.2.1 目标检测

(1)TinaFace:人脸检测新纪录!
链接:https://mp.weixin.qq.com/s/fEnkg1p7zXtDc80qd4tg4g
(2)目标检测无痛涨点之 Generalized Focal Loss V2
链接:https://mp.weixin.qq.com/s/H3LuCuqKCUNFldzqiPWQXg
(3)用实力给自己正名,YOLOv5:道路损伤检测我最强!GRDDC’2020大赛报告
链接:https://mp.weixin.qq.com/s/8V0ay7PTZbN1yKgoIOCizw
(4)1.8M超轻量目标检测模型NanoDet,比YOLO跑得快,上线两天Star量超200
链接:https://mp.weixin.qq.com/s/t4O_iXpSYGjPSnA6BwfmjA

2.2.2 图像分类

(1)图像分类:13个Kaggle项目的经验总结
链接:https://mp.weixin.qq.com/s/8y56ka-f8BbBYZw3GbEtKA

2.2.3 图像超分辨

(1)哈工大等提出轻量级盲超分辨模型LESRCNN,代码已开源
链接:https://mp.weixin.qq.com/s/njlAEQXxjXKqFcxM7KYiqA

2.3 项目应用方面

2.3.1 口罩识别

(1)准确率超99.5%!滴滴开源防疫口罩识别技术,及视觉比赛进展
链接:https://mp.weixin.qq.com/s/COt_q-1gpR102WDe4kZQmw

2.3.2 车辆变道检测

(1)基于OpenCV的车辆变道检测
链接:https://mp.weixin.qq.com/s/eq0IrDL7DlsdMB0aG45tFQ

3 行业&拓展阅读动态汇总

3.1 行业动态

(1)「AI 完美复刻」的人物肖像画生成
链接:https://mp.weixin.qq.com/s/EPfRM9mPNLXT4G1IQC9xxw
(2)90后已三十而立!一张照片用GAN生成70岁的你
链接:https://mp.weixin.qq.com/s/HNSw5cU4utx_cmGRN79REA
(3)《2020北京人工智能发展报告》发布,剖析北京AI发展的17个中国「第一」
链接:https://mp.weixin.qq.com/s/tThW6NRyNYmSB2_4NFvong

3.2 拓展阅读

(1)特斯拉SemiTruck满载40吨开启路测!1000公里续航让戴姆勒卡车负责人直呼:违背物理定律
链接:https://mp.weixin.qq.com/s/UmHu3rmltVoCVMYTeUwdwA
(2)微信第一行代码曝光!从「扫地僧」到「地成佛」,张小龙10年磨一剑
链接:https://mp.weixin.qq.com/s/kg5g508DA9lFw1PIEXQxuw
(3)「无落地,不科技」,联想创投成员企业探讨To B科技赛道的商业化落地
链接:https://mp.weixin.qq.com/s/vk3ACtHBg9pZVMjOhwZqdQ
(4)特斯拉被曝低级漏洞:用树莓派DIY车钥匙,开锁仅需90秒
链接:https://mp.weixin.qq.com/s/4lanOFiCYlkcvGOAbp5qGg

4 Python&环境配置基础教程

4.1 Pytorch方面

(1)如何用PyTorch进行语义分割?一个教程教会你
链接:https://mp.weixin.qq.com/s/RwwtLXnZrrbvzUZBBKOSKA

4.2 系统环境配置方面

(1)PyQt5安装与Pycharm集成配置开发环境
链接:https://mp.weixin.qq.com/s/bGOMnzCINXkJdwWo3uZirg

在这里插入图片描述

. do "C:\Users\sunset\AppData\Local\Temp\STD1d40_000000.tmp" . bysort id: egen ever_treated = max(treated) . bysort id: egen treat_year = min(cond(treated==1, year, .)) (50,870 missing values generated) . . gen treated_2017_2022 = (ever_treated==1 & inrange(treat_year, 2017, 2022)) . gen never_treated = (ever_treated==0) . . duplicates drop id, force Duplicates in terms of id (57,870 observations deleted) . . save temp_allfirm_treatinfo.dta, replace file temp_allfirm_treatinfo.dta saved . end of do-file . preserve . do "C:\Users\sunset\AppData\Local\Temp\STD1d40_000000.tmp" . gen ln_reg_capt = ln(regst_capt) . gen ln_insured_staff = ln(insured_staff+1) . end of do-file . do "C:\Users\sunset\AppData\Local\Temp\STD1d40_000000.tmp" . collapse (mean) ln_staff ln_reg_capt ln_insured_staff age hightech, by(id) . end of do-file . do "C:\Users\sunset\AppData\Local\Temp\STD1d40_000000.tmp" . rename ln_staff mean_ln_staff . rename ln_reg_capt mean_ln_reg_capt . rename ln_insured_staff mean_ln_insured_staff . rename age mean_age . rename hightech mean_hightech . end of do-file . do "C:\Users\sunset\AppData\Local\Temp\STD1d40_000000.tmp" . save firm_baseline_2010_2016.dta, replace file firm_baseline_2010_2016.dta saved . end of do-file . restore . do "C:\Users\sunset\AppData\Local\Temp\STD1d40_000000.tmp" . use temp_allfirm_treatinfo.dta, clear . merge 1:1 id using firm_baseline_2010_2016.dta Result Number of obs ----------------------------------------- Not matched 0 Matched 8,143 (_merge==3) ----------------------------------------- . end of do-file . do "C:\Users\sunset\AppData\Local\Temp\STD1d40_000000.tmp" . drop if _merge!=3 (0 observations deleted) . drop _merge . end of do-file . do "C:\Users\sunset\AppData\Local\Temp\STD1d40_000000.tmp" . keep if treated_2017_2022==1 | never_treated==1 (1,164 observations deleted) . end of do-file . do "C:\Users\sunset\AppData\Local\Temp\STD1d40_000000.tmp" . drop if missing(mean_ln_staff, mean_ln_reg_capt, mean_ln_insured_staff, mean_age) (0 observations deleted) . end of do-file . do "C:\Users\sunset\AppData\Local\Temp\STD1d40_000000.tmp" . gen psm_treated = treated_2017_2022 . end of do-file . global xlist " mean_ln_insured_staff mean_ln_reg_capt mean_age" . do "C:\Users\sunset\AppData\Local\Temp\STD1d40_000000.tmp" . pstest $xlist, both graph Error: provide treatment indicator variable r(198); end of do-file r(198); . do "C:\Users\sunset\AppData\Local\Temp\STD1d40_000000.tmp" . psmatch2 psm_treated $xlist, neighbor(4) logit common Logistic regression Number of obs = 6,979 LR chi2(3) = 255.75 Prob > chi2 = 0.0000 Log likelihood = -1378.8044 Pseudo R2 = 0.0849 --------------------------------------------------------------------------------------- psm_treated | Coefficient Std. err. z P>|z| [95% conf. interval] ----------------------+---------------------------------------------------------------- mean_ln_insured_staff | -.0779749 .0336861 -2.31 0.021 -.1439984 -.0119514 mean_ln_reg_capt | -.0875742 .0395838 -2.21 0.027 -.165157 -.0099914 mean_age | -.110275 .0097592 -11.30 0.000 -.1294027 -.0911472 _cons | -.2016194 .3021635 -0.67 0.505 -.793849 .3906102 --------------------------------------------------------------------------------------- . end of do-file . do "C:\Users\sunset\AppData\Local\Temp\STD1d40_000000.tmp" . pstest $xlist, both graph ---------------------------------------------------------------------------------------- Unmatched | Mean %reduct | t-test | V(T)/ Variable Matched | Treated Control %bias |bias| | t p>|t| | V(C) --------------------------+----------------------------------+---------------+---------- mean_ln_insured_staff U | 3.2558 4.2706 -52.0 | -9.82 0.000 | 0.92 M | 3.2558 2.9967 13.3 74.5 | 1.89 0.059 | 0.99 | | | mean_ln_reg_capt U | 8.1248 8.7411 -38.9 | -7.16 0.000 | 0.81* M | 8.1248 7.9134 13.3 65.7 | 1.95 0.052 | 0.95 | | | mean_age U | 11.872 17.789 -78.5 | -13.80 0.000 | 0.64* M | 11.872 12.226 -4.7 94.0 | -0.75 0.452 | 1.05 | | | ---------------------------------------------------------------------------------------- * if variance ratio outside [0.82; 1.22] for U and [0.82; 1.22] for M ----------------------------------------------------------------------------------- Sample | Ps R2 LR chi2 p>chi2 MeanBias MedBias B R %Var -----------+----------------------------------------------------------------------- Unmatched | 0.081 245.56 0.000 56.5 52.0 82.8* 0.66 67 Matched | 0.007 7.63 0.054 10.4 13.3 19.8 1.14 0 ----------------------------------------------------------------------------------- * if B>25%, R outside [0.5; 2] . end of do-file . do "C:\Users\sunset\AppData\Local\Temp\STD1d40_000000.tmp" . gen matched_firm = (_weight!=.) . end of do-file . tab matched_firm matched_fir | m | Freq. Percent Cum. ------------+----------------------------------- 0 | 5,340 76.52 76.52 1 | 1,639 23.48 100.00 ------------+----------------------------------- Total | 6,979 100.00 . do "C:\Users\sunset\AppData\Local\Temp\STD1d40_000000.tmp" . keep id psm_treated matched_firm _pscore _weight . save matched_firms_2017_2022_vs_never.dta, replace file matched_firms_2017_2022_vs_never.dta saved . end of do-file . do "C:\Users\sunset\AppData\Local\Temp\STD1d40_000000.tmp" . use "C:\Users\sunset\Desktop\参考文献\stata18\New Folder\all_firm_data_origin.dta", clear . end of do-file . do "C:\Users\sunset\AppData\Local\Temp\STD1d40_000000.tmp" . merge m:1 id using matched_firms_2017_2022_vs_never.dta Result Number of obs ----------------------------------------- Not matched 13,553 from master 13,553 (_merge==1) from using 0 (_merge==2) Matched 52,460 (_merge==3) ----------------------------------------- . end of do-file . do "C:\Users\sunset\AppData\Local\Temp\STD1d40_000000.tmp" . keep if _merge==3 (13,553 observations deleted) . end of do-file . do "C:\Users\sunset\AppData\Local\Temp\STD1d40_000000.tmp" . drop _merge . end of do-file . tab matched_firm matched_fir | m | Freq. Percent Cum. ------------+----------------------------------- 0 | 43,524 82.97 82.97 1 | 8,936 17.03 100.00 ------------+----------------------------------- Total | 52,460 100.00 上述结果按照你所给的代码所得出的结果,首先,如果只保留mtched firm ,样本只剩下8936个,我希望你再次明白我的意思,现在我的样本是已经将2009年之前的样本设置为对比组的样本,我的研究是分为两阶段,第一阶段是2003-2016,这一阶段的研究是2009年之前的样本为对比组,第二阶段是2017-2022年,原本也是以2009年之前的样本作为对比组,现在我想要保持第一阶段不变,但是将第二阶段的对比组改为全部样本,但按照你的代码我最终可用于第二阶段分析的样本只有八千多个,请认真观察上述代码和结果,重新修改操作代码
最新发布
10-06
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值