人工智能 (AI) 的最新进展有可能改变听力。机器已经在自动语音识别 (ASR) 等与听力相关的重要任务中实现了类似人类的性能和自然语言处理.人工智能也开始对医学产生影响;例如,基于深度神经网络 (DNN) 的眼科筛查技术已经在世界范围内使用。但与听力本身相关的应用很少,人工智能在听力保健中仍然缺席。在这个视角中,我们描述了使用现有技术创造具有广泛影响的临床应用的机会,以及忠实地模拟听觉系统的新技术的潜力,以实现听力研究的根本性进展。

人工智能和听觉之间的脱节有着深厚的根源。与现代机器视觉相反,现代机器视觉始于模仿视觉皮层的明确目标并继续从视觉系统中汲取灵感,在现代机器听觉中,工作从未优先考虑生物联系。事实上,ASR的最早尝试是以人类语音处理为蓝本的,但这种方法在很大程度上是不成功的。第一个可行的ASR系统是在该领域有意识地远离生物学之后才出现的(IBM的弗雷德里克·耶利内克(Frederick Jelinek)巧妙地总结了其基本原理:“飞机不会拍打翅膀”)专注于通过隐马尔可夫模型对语音和语言中时间序列的统计结构进行建模。

最近将DNN整合到机器听觉系统中,进一步提高了它们在特定任务中的性能,但它并没有使机器听觉在机械意义上更接近听觉系统。生物复制不一定是必需的:听力中的许多重要临床挑战都可以使用与听觉系统无关的模型来解决(例如,用于图像分类的 DNN)或仅模仿其功能某些方面的模型(例如用于声源分离的 DNN)。但是,要实现人工智能在听觉中的全部潜力,需要与听觉系统的功能及其结

最低0.47元/天 解锁文章
769

被折叠的 条评论
为什么被折叠?



