Unreal Engine 音频概览

前言

一直有想法逐渐转方向做音频开发,无奈自己还是太懒了,随着这些年 AI 浪潮的兴起,音频传统算法逐渐与 AI 融合,对音频开发人员的技术要求更加严格。不过最近这段时间刚好不太忙,调研一下渲染引擎中空间音频的实现,借此也可以了解大型音频引擎的设计思想及 DSP 音频算法,算是给自己入个门。目前市面上的开源引擎,Godot 提供的音频模块比较基础,是一个简装版的音频管线,相比之下 Unreal Engine 的音频模块是比较完善的,提供了相当精准的采样级别的参数控制,有非常丰富的 DSP 效果,可以支持一些对音频延迟和控制要求极高的音乐类游戏,并且支持三方音频引擎和算法接入音频管线,可以作为一些音频算法实施的基座,所以 Unreal Engine 是个不错的选择。但 Unreal Engine 代码量庞大,阅读难度很高,让我觉得无从下手,所以需要将需求拆解,按官方文档 Audio Engine Overview 中的功能概述将学习路线拆解为以下的几个点。由点到线,通过对每个功能点的深入研究形成对某一音频模块线的理解,由线到面,每一个音频模块的交织构成整个音频系统的面,最后由面到体,深入理解音频引擎如何与渲染引擎其他模块配合,实现用户友好的开发和交互体验。万事开头难,先从跑起一个简单的音频播放场景开始吧。

笔记索引

  • 一、Unreal Engine 音频初体验
  • 二、音频资产管理
  • 三、音源
  • 四、音效
  • 五、音频空间化
  • 六、混音
  • 七、并发管理
  • 八、音频分析

框架整理

后记