《Sound Rendering》这篇论文发表在1992年SIGGRAPH上,感觉是图形学中声音渲染的奠基性工作。
文章提出了一种用于动画同步音轨合成的通用方法。总结几点如下:
- 提出了sound rendering 的概念:The process of forming the composite soundtrack from component sound objects.
- 分析了sound 和light 的区别。主要由于propagation speed 和 wavelength 不同而导致的延迟的明显度不同,声波会有明显的回声,混响等现象。
- 给出了声音合成框架,下图所示

- 后续二十几年的文章几乎都可以套进这个框架中。其中prototype sound我认为可以翻译为初态声音,文章中也提到可以合成,也可以采用用户提供的录音样本。后续的基于物理声学模型,基于模态合成或者数据驱动的声音合成方法,感觉本质上都是在改变初态声音的合成方式。
- sound event script 是用来产生与动画运动同步的声音这篇文章把这个过程称为sound instantiation,或许可以翻译为声音实例化,即把初态声音调整为和动画中的某个物体对应关系。
- 后半部分sound rendering 更像是目前的声音传播工作,更多是侧重声线与整个动画环境的交互(反射,衍射等现象)。
- 在这篇文章中,作者将动画中的运动其实分为了三类:keyframing,behavioral 和 physically-based。不过后续的研究,包括作者在总结中也写到,要侧重于研究更严格的基于物理声音建模。
读完感觉挺奇妙的,原来在图形学领域,最开始的研究思路也是提出一个统一的框架来合成不同类别的声音,只不过从2001年开始研究者就开始侧重于某一类特定的声音类别,大多是一篇文章主攻一种声音。
或许,分久必合。
1992年SIGGRAPH上发表的《SoundRendering》奠定了图形学中声音渲染的基础。文章提出soundrendering概念,分析声光差异,给出声音合成框架,强调基于物理声音建模。研究分三阶段:初态声音合成、声音实例化及声音传播。
626

被折叠的 条评论
为什么被折叠?



