基于hand-graph-cnn的手部姿态估计-3D试衣镜
当前方案是rgb-based算法,模型共有三个网络。第一个网络检测21个骨骼点的uv坐标并提取深度特征信息。第二个网络利用特征信息估计出三维手部模型的所有顶点深度,然后经过第三个网络回归出21个骨骼点的深度。然后结合第一个网络的uv坐标及相机内参,将像素坐标转换到相机坐标系中。最后将预测出来的骨骼点坐标与初始姿态对齐后,再逐一计算局部旋转量,并以四元数的形式返回。运行耗时30ms(标准卷积,未压缩),经过训练后,可支持不同深度不同拍摄角度(能区分正对及背对姿势)的手部骨骼点检测。
人工智能