12月26日消息,华为常务董事、产品投资评审委员会主任、终端BG董事长余承东25日发布视频,详细介绍了耳机空间音频的技术原理,并透露 只需要在两只耳机中模拟不同的波形变化,就可以让声音出现在任何位置 。
据余承东介绍, 人的耳廓就是声音重要的方向定位器之一 ,不同方向的声音撞击到耳廓后会产生波形的变化,人耳捕捉到这个变化就能定位声音的位置。华为声学实验室采集了上千组人耳相关数据,还研发出了空间声场还原算法。
华为耳机的“空间音频”并不是简单地把多声道信号下混,而是一套从“算法-内容-传输-传感器”全链路自研的沉浸声系统,核心思路是:用耳机里的两颗扬声器,去“骗过”人耳定位系统,让大脑以为声音固定在体外三维空间。
整套技术可以拆成5个关键环节:
生理建模
华为声学实验室采集了上千组不同人种的耳廓、头围、肩宽等HRTF(头部相关传输函数)数据,建立“中国人群主特征库”,训练出可在线微调的个性化滤波器,解决“别人的耳朵”与“我的耳朵”定位差异 。
波形重放引擎
在耳机端实时计算两路完全不同的脉冲响应:
对垂直与前后,靠耳廓反射峰/谷的精细波形变化实现“任意角度”声像。
余承东把这套算法概括为“在左右耳机里分别模拟一条会‘拐弯’的波形,就能让声音出现在想要的位置”。
头部跟踪与低延迟校正
六轴IMU(陀螺仪+加速度计)以1 kHz 采样率捕捉头部转动,算法预测10 ms后的头位,提前渲染下一帧声场;配合HarmonyOS NEXT的音频架构重构,FreeBuds Pro 4的头动时延降到50 ms,声音平滑度提升85%,实现“声随身动”。
高清传输协议
自研L2HC 4.0编解码(最高2.3 Mbps,蓝牙8 Mbps 物理带宽)承载多声道Audio Vivid三维声码流,相比传统AAC提升6倍信息量,保证空间细节不被压缩掉。
场景化渲染与内容生态
引擎预制“有声剧场/电影院/音乐厅”三种房间脉冲响应,对应不同的混响与直达声比例;
华为音乐App利用AI空间解析+重混技术,把存量百万首双声道歌曲实时拆轨(人声/鼓/贝斯/其他),再按影院级多声道重新摆位,实现“全曲库空间音频”。
两种体验模式
① 高清空间音频——需要HarmonyOS 4.0以上终端,支持头部跟踪与原生Audio Vivid多声道;
② 独立空间音频——耳机本地算力完成渲染,不限手机系统,对任何双声道音源(音乐、视频、游戏)都可叠加空间感,但无头部跟踪。
一句话总结:华为把“千人千耳”的HRTF数据库、低延迟六轴跟踪、高带宽私有协议和场景级渲染引擎全部打包进一颗麒麟A2芯片,让两颗小扬声器就能在脑袋里“放电影”。