点击左上方蓝字关注我们
01
是的!百度要造车了!
2021年1月11日,百度作为全球领先的人工智能平台型公司,宣布正式组建一家智能汽车公司,以整车制造商的身份进军汽车行业。吉利控股集团将成为新公司的战略合作伙伴。
新组建的百度汽车公司将面向乘用车市场,让用户购买到更极致的智能电动汽车。百度汽车公司将着眼于智能汽车的设计研发、生产制造、销售服务全产业链,传承百度强大的人工智能、互联网科技基因,利用Apollo领先的自动驾驶能力,发挥在汽车智能化领域长达8年的经验优势,重塑智能汽车产品形态,成为智能出行时代的变革者。
百度汽车公司独立于母公司体系,保持自主运营;同时百度将人工智能、Apollo自动驾驶、小度车载、百度地图等核心技术全面赋能汽车公司,支持其快速成长。
百度汽车公司选择中国领先的汽车公司吉利作为合作方,吉利控股集团出资成为新公司的战略合作伙伴。下一步双方将基于吉利最新研发的全球领先纯电动架构--浩瀚SEA智能进化体验架构,在智能汽车制造相关领域展开紧密合作,共同打造下一代智能汽车。
百度重装组建汽车公司,既是人工智能技术的最佳实践,也是在智能出行领域的重要战略布局。百度公司在人工智能技术产业领域也将继续秉承开放合作的精神,与生态合作伙伴携手向前,在新一轮的全球智能出行变革中,勇济沧海!
信息来源:百度
02
Sci-Hub重生了,这回用上了分布式网络
虽然屡屡受挫,但 Sci-Hub 依旧以各种方式顽强地存活了下来。
在网站域名屡次被撤销之后, Sci-Hub 创始人 Alexandra Elbakyan 在分布式域名网络 Handshake 上注册了新的网站。
现在,每个用户都可以直接通过服务门户和 NextDNS 直接访问 Sci-Hub。
这些年来,一直是 Alexandra Elbakyan 在维护 Sci-Hub,目前所有用户只能通过俄罗斯的 Yandex 和比特币赞助网站的运营。此前,Sci-Hub 被多次撤销域名,推特账户又被封禁且无法申诉,传统域名系统显然不那么满足这个「盗版学术论文数据库」的需求,能够对抗审查的 DNS 成为 Sci-Hub 保持可访问状态的方法之一。
信息来源:机器之心
03
百度开源两款句法分析应用工具,提升文本处理任务效果
继2020年8月份中文依存句法分析工具DDParser发布后,百度于近日发布两款句法分析结果应用工具——基于句法分析的隐式向量表示工具和显式结构表示工具。
句法分析利用句子中词与词之间的关系来表示词语的句法结构信息,如“主谓”、“动宾”、“定中”等。本次发布的两款应用工具分别从隐式和显式两方面利用句法结果,帮助开发者们更快速便捷地引入句法特征来提升任务效果。
DDParser(全称为Baidu Dependency Parser)是百度基于大规模标注数据和产业级开源深度学习平台——飞桨研发的中文依存句法分析工具。为了便于开发者快速学习及使用,DDParser采用简单易理解的标注体系,且支持一键安装部署及调用。
了解DDParser详情:
DDParser项目地址:
https://github.com/baidu/DDParser
信息来源:飞桨PaddlePaddle
04
美国会大厦遭袭,警察用这款人脸识别AI找嫌犯
美国国会发生骚乱以来,面部识别技术Clearview AI的首席执行官表示,执法部门对该公司的面部识别技术的使用激增了26%。
1月6日,袭击事件通过有线电视新闻进行了现场直播,并捕获了数百张图像和实时流,这些图像和流媒体显示了骚乱分子入侵国会大厦的面孔,联邦调查局和其他机构已要求公众帮助确定参与者。
去年《泰晤士报》的一项调查显示,与当局使用的其他面部识别技术不同的是,这些面部识别技术使用诸如驾照照片和大头照照片之类的图像,而Clearview的大约30亿张图像的数据库是从社交媒体和其他网站上抓取的。
除了引起人们对隐私的严重关注外,从社交媒体获取图像的做法还违反了平台的规定。在调查之后,科技公司向Clearview发送了许多停止和终止命令。Clearview AI在5月表示,它将停止向私人公司出售其技术,而仅将其提供给执法部门使用。
据该公司称,全美国约有2,400个执法机构使用Clearview的软件。
信息来源:新智元
05
1.6万亿参数的语言模型:谷歌大脑提出Switch Transformer,预训练速度可达T5的7倍
在深度学习领域,模型通常会对所有输入重用相同的参数。但 Mixture of Experts (MoE,混合专家) 模型是个例外,它们会为每个输入的例子选择不同的参数,结果得到一个稀疏激活模型——虽然参数量惊人,但计算成本恒定。
目前,MoE 模型已在机器翻译领域取得了令人瞩目的成就,但由于模型复杂度高、通信成本高、训练不够稳定,其广泛应用受到了一定的阻碍。
为了解决这些问题,Google Brain 的研究者提出了 Switch Transformer。在 Switch Transformer 的设计中,它们简化了 MoE 的路由算法(routing algorithm),设计了直观的改进模型,新模型的通信成本和计算成本都大大降低。此外,他们提出的训练技术还提高了训练的稳定性,首次表明大型稀疏模型也可以用低精度(bfloat16)进行训练。
论文链接:
https://arxiv.org/pdf/2101.03961.pdf
研究者还将新模型与 T5-Base 和 T5-Large 进行了对比,结果表明,在相同的计算资源下,新模型实现了最高 7 倍的预训练速度提升。这一改进还可以扩展至多语言设置中,在所有的 101 种语言中都测到了新模型相对于 mT5-Base 版本的性能提升。
最后,研究者在 Colossal Clean Crawled Corpus 上进行预训练,将语言模型的参数量提升至上万亿,且相比 T5-XXL 模型实现了 4 倍加速。
研究者还表示,虽然这项工作着眼于规模,但它也表明,Switch Transformer 架构不仅在具备超级计算机的环境下具有优势,在只有几个计算核心的计算机上也是有效的。此外,研究者设计的大型稀疏模型可以被蒸馏为一个小而稠密的版本,同时还能保留稀疏模型质量提升的 30%。
信息来源:机器之心
飞桨(PaddlePaddle)以百度多年的深度学习技术研究和业务应用为基础,是中国首个开源开放、技术领先、功能完备的产业级深度学习平台,包括飞桨开源平台和飞桨企业版。飞桨开源平台包含核心框架、基础模型库、端到端开发套件与工具组件,持续开源核心能力,为产业、学术、科研创新提供基础底座。飞桨企业版基于飞桨开源平台,针对企业级需求增强了相应特性,包含零门槛AI开发平台EasyDL和全功能AI开发平台BML。EasyDL主要面向中小企业,提供零门槛、预置丰富网络和模型、便捷高效的开发平台;BML是为大型企业提供的功能全面、可灵活定制和被深度集成的开发平台。
END