心率是衡量人体心血管健康状况和情绪压力的重要生理参数.然而,基于视频的非接触式心率检测技术在真实场景中,会由于人脸运动和光照变化等导致检测准确性的降低.为了解决上述问题,考虑到心率检测算法中感兴趣区域(region of interest,ROI)的选取与检测准确度高度相关.故提出一种自适应超像素分割多区域综合分析的心率检测新方法.首先利用人脸检测和追踪算法,裁切获得人脸图像;之后采用自适应超像素分割算法将ROI划分成互不重叠的子块;再通过色度特征提取构建各子块原始血液容积脉搏矩阵;最后对脉搏矩阵使用多指标综合分析并挑选出最佳区域进行心率估计.实验结果表明,通过自适应超像素分割和多区域分析优选可以有效提升心率检测准确性.在静止状态下和运动干扰条件下准确性分别达到99.1%和95.6%,光照干扰条件下准确性相对传统方法最高提升8.2%.增强了真实场景下心率检测的鲁棒性.
目的三维人体姿态估计是计算机视觉的研究热点之一,当前大多数方法直接从视频或二维坐标点回归人体三维关节坐标,忽略了关节旋转角的估计。但是,人体关节旋转角对于一些虚拟现实、计算机动画应用至关重要。为此,本文提出一种能同时估计三维人体坐标及旋转角的注意力融合网络。方法首先应用骨骼长度网络和骨骼方向网络分别从2D人体姿态序列中估计出人体骨骼长度和骨骼方向,并据此计算出初步的三维人体坐标,然后将初步的三维坐标输入关节旋转角估计网络得到关节旋转角,并应用前向运动学(forward kinematics,FK)层计算与关节旋转角对应的三维人体坐标。但由于网络模块的误差累积,与关节旋转角对应的三维人体坐标比初步的三维坐标精度有所降低,但是FK层输出的三维坐标具有更稳定的骨架结构。因此,为了综合这两种三维坐标序列的优势,最后通过注意力融合模块将初步的三维坐标及与关节旋转角对应的三维人体坐标融合为最终的三维关节坐标。这种分步估计的人体姿态估计算法,能够对估计的中间状态加以约束,并且使用注意力融合机制综合了高精度和骨骼稳定性的特点,使得最终结果的精度得到提升。另外,设计了一种专门的根关节处理模块,能够输出更高精度的根关节坐标,从而进一步提升三维人体坐标的精度和平滑性。结果实验在Human3.6M数据集上与对比方法比较平均关节位置误差(mean per joint position error,MPJPE),结果表明,与能够同时计算关节点坐标和旋转角的工作相比,本文方法取得了最好的精度。结论本文提出的方法能够同时从视频中估计人体关节坐标和关节旋转角度,并且得到的人体关节坐标比现有方法具有更高的精度。