苹果公司最新研究表明,专为语音识别设计的模型可通过处理心音图来测定心率,这项技术有望应用于AirPods耳机。
继发布人形机器人政策研究一周后,该公司于周四公布了这项探索健康应用的新研究成果,重点聚焦心率监测领域。这项题为《基于听诊数据的心率估计基础模型隐式表征研究》的论文指出,研究人员发现基础模型虽为其他目的设计,却能有效解析录音数据中的心率信息。
研究团队测试了包括语音转文字工具Whisper在内的六种主流基础模型,以及自主研发的CLAP(对比式语言-音频预训练)模型,以验证其跨领域应用潜力。实验采用约20小时的心音图录音作为测试素材,数据源自公开的CirCor DigiScope心音图数据库,单段录音时长介于5.1至64.5秒之间。
经人工标注员标记心杂音特征后,这些音频被分割为每秒滑动的5秒片段,最终生成23,381段心音样本用于心率换算。研究表明,苹果自主研发的CLAP模型表现优于现有模型:“我们发现CLAP模型音频编码器的表征在不同数据分割中均取得最低平均绝对误差(MAE),优于采用标准声学特征的基线模型。”
与Whisper、wav2vec2和wavLM等纯语音训练模型不同,CLAP模型的训练数据涵盖更广泛的音频类型。论文指出:“多样化训练数据可能增强其捕捉心音相关非语音特征的能力,从而提升模型效能。”
研究人员表示,语音处理基础模型“可有效适配于听诊和生命体征估算,为某些传统方法提供更稳健高效的替代方案”。值得注意的是,更大规模的模型在心率测定中未必表现更优。
研究显示,对基础模型进行额外微调可提升心率估算精度。团队认为该技术“在‘心肺音病理分析领域具有应用潜力’,或有助于更精准检测心律失常、心杂音等异常状况”。
考虑到苹果对健康功能的持续投入,这项技术很可能融入未来AirPods产品线。现款AirPods Pro 2已配备听力健康功能组,并通过内置麦克风实现主动降噪(ANC)。2024年12月曾有传闻称,苹果计划为耳机集成心率和温度传感器。结合现有麦克风系统与新型传感器,或将实现更精确的心率监测功能。