某中心与加州大学洛杉矶分校公布2023年度科学中心奖项
资助项目和研究奖项涵盖从改进3D服装建模到减少代码分析误报等多个主题领域。
2024年2月16日
加州大学洛杉矶分校人类与人工智能科学中心宣布了三项捐赠基金奖项和一项赞助项目,表彰研究人工智能(AI)社会影响的科研人员。该科学中心于2021年10月启动,支持探索AI如何帮助解决人类最紧迫挑战的项目,同时解决偏见、公平性、问责制和负责任AI等关键问题。该中心致力于促进某中心科学家与跨学科学术研究人员之间的合作,包括计算机科学、电气与计算机工程、机械与航空航天工程等领域。
由某中心资助并设在加州大学洛杉矶分校Samueli工程学院的科学中心,支持一系列研究项目和博士奖学金。2022年5月,某中心与加州大学洛杉矶分校公布了该中心首批奖项的获得者,这些奖项聚焦于从计算神经科学、儿童自动语音识别到人机协作和隐私保护机器学习等多个主题。
项目负责人及其 respective 受支持项目如下:
张凯威(Kai-Wei Chang),副教授兼某中心学者,与彭南云(Violet Peng),计算机科学系助理教授、某中心访问学者:
- “情境化文档理解:通过相关信息学习理解文档”
“收据、税表和简历等文档对企业和个人之间的沟通至关重要,”张和彭写道。“然而,处理这些文档对文员来说既繁琐、耗时又容易出错。因此,使用AI系统自动从扫描文档中提取信息是一种有价值的解决方案。然而,文档布局的多样性给AI理解文档带来了挑战。
“在本项目中,我们探索利用情境信息提高AI处理、解释和从文档中提取信息的能力,”他们继续写道。“我们提出了一种基于去噪序列到序列预训练的新型多模态基础模型,并研究如何利用文档类型、用途和填写说明等情境信息来理解文档。”
谢卓居(Cho-Jui Hsieh),计算机科学系副教授:
- “使大语言模型变小且高效”
“大语言模型(LLM)在多种任务中展现出卓越能力。然而,这些模型伴随着高昂的计算和内存成本,”谢写道。“开源的T5模型包含7.7亿参数,而最先进的模型如GPT和PALM通常有数千亿参数。巨大的模型大小在推理过程中也会导致相当大的计算开销,使得在实时应用中部署语言模型具有挑战性,更不用说能力有限的边缘设备了。本提案旨在开发一系列压缩算法,使大语言模型变小且高效。
“我们将引入一系列新的数据感知压缩算法,同时考虑语言的结构和语义,”他继续写道。“例如,文本中单词的重要性可能差异很大,这为过滤掉模型中不重要标记提供了机会。此外,文本通常具有强烈的低秩或聚类结构,为增强现有压缩方法提供了机会。基于这一新概念,我们将通过利用语言结构改进现有压缩方法,并开发一种加速推理的新方案。”
蒋陈凡夫(Chenfanfu Jiang),数学系副教授:
- “用于实景到仿真及可制造3D服装重建的可微分物理增强神经辐射场”
“核心挑战是以数字方式重建服装,不仅要准确模拟其3D形状,还要预测其运动方式和可制造性,”蒋写道。“传统方法捕捉形状但忽略了织物的材料属性和缝纫图案,而这些对于真实仿真和生产至关重要。解决这一差距具有广泛影响——从时尚行业中更快、减少浪费的设计过程到增强元宇宙等虚拟世界的真实感。
“我们将物理感知的机器学习模型与现有3D几何技术相结合,”他继续写道。“目标是从服装的图像或视频中同时恢复2D缝纫图案和材料参数。这允许进行准确的虚拟仿真和现实世界制造。”
詹斯·帕尔斯伯格(Jens Palsberg),计算机科学系教授:
- “学习从静态程序分析中修剪误报”
“静态程序分析可以检测安全漏洞并支持程序验证,”帕尔斯伯格写道。“如果我们能修剪这些工具有时产生的误报,它们将对开发人员更加有用。
“我们的社会为更多任务生产了比以往更多的代码,但这些代码质量参差不齐。幸运的是,我们有工具可以发现许多问题,如果我们能使这些工具更有用,我们将走上解决更多问题的道路,”他继续写道。“我们的想法是使用机器学习来修剪误报。我们的目标是使误报率不超过15-20%。”
更多精彩内容 请关注我的个人公众号 公众号(办公AI智能小助手)或者 我的个人博客 https://blog.qife122.com/
公众号二维码

5899

被折叠的 条评论
为什么被折叠?



