某中心年度机器学习会议:学术领袖分享前沿研究
某中心年度内部科学会议于本月以虚拟方式举行,旨在展示机器学习在公司各业务应用中的进展,并促进科学社区内的协作。第九届年会邀请了五位学术领袖进行主题演讲,同时包含口头报告、海报展示、教程和研讨会。
主题演讲摘要
Yoshua Bengio:生成式主动学习的GFlowNets
摘要:探讨了机器学习系统与昂贵 oracle(“真实世界”)交互的框架,通过迭代提出候选实验批次并获得评分。介绍了GFlowNets这一新深度学习框架,可替代MCMC方法将能量函数转换为样本,为概率建模开辟新可能性,包括快速估计边缘化概率和高效表示集合与图的分布。
Rama Chellappa:机器学习的开放问题
摘要:概述了团队使用深度学习构建人脸识别和行为识别操作系统的近期工作,指出仍需解决的开放问题,包括偏差检测与缓解、领域适应与泛化、无标签数据学习、对抗攻击处理以及小批量学习中的训练数据子集选择。
Thomas Dietterich:OOD与新类别检测的异常检测
摘要:讨论了异常检测在深度学习对象分类能力模型中的应用,针对分布外查询和新类别查询两大威胁。回顾了异常检测的四种主要策略,并调研了深度学习异常检测的最新方法,重点探讨了如何学习为异常分配独特表示的挑战及异常检测阈值设置。
Mirella Lapata:通过转折点实现自动电影分析与摘要
摘要:引入了转折点识别作为电影内容分析的方法。根据编剧理论,转折点是电影中的关键叙事时刻,定义了情节结构并分割主题单元。提出了基于图神经网络的模型,利用语言和视听信息识别含转折点的场景,生成电影缩短版本,并讨论了将剧本表示为稀疏图的可解释性及不同电影类型的形态学。
Christopher Manning:从大型预训练语言模型发现语言结构到基础模型
摘要:概述了大型预训练Transformer语言模型(如BERT)带来的NLP变革,强调这些模型不仅学习词汇关联,还作为语言结构发现设备,捕获句法和指代关系。介绍了ELECTRA模型,通过判别学习方法以较少计算构建高效神经词表示,最后探讨了基础模型扩展的 promise 与风险。
会议强调了机器学习在某中心各业务中的应用及其对客户价值的持续提升,展示了学术与工业界在AI领域的深度合作与创新探索。
更多精彩内容 请关注我的个人公众号 公众号(办公AI智能小助手)或者 我的个人博客 https://blog.qife122.com/
公众号二维码

8万+

被折叠的 条评论
为什么被折叠?



