概述
摘要
从单个深度图中用于3D手和人体姿势估计的大多数现有的基于深度学习的方法基于采用2D深度图并且直接回归关键点,例如手或人体关节,的3D坐标的共同框架,通过2D卷积神经网络(CNN)。这种方法的第一个弱点是2D深度图中存在透视畸变。虽然深度图本质上是3D数据,但是许多先前的方法将深度图视为2D图像,其可以通过从3D到2D空间的投影来扭曲实际对象的形状。这迫使网络执行透视失真不变估计。传统方法的第二个缺点是直接从2D图像回归3D坐标是一种高度非线性的映射,这导致学习过程中的困难。为了克服这些缺点,我们首先将3D手和人体姿势估计问题从单个深度图转换为体素到体素预测,该预测使用3D体素网格并估计每个体素是每个关键点的可能性。我们将模型设计为3D CNN,在实时运行时提供准确的估算。我们的系统在几乎所有公开的3D手和人体姿势估计数据集中都优于以前的方法,并且在HANDS 2017基于帧的3D手姿势估计挑战中获得第一。代码可在链接中获得(https://github.com/mks0601/V2V-PoseNet_RELEASE)。
1 介绍
准确的3D手和人体姿态估计是多种应用的活动识别的重要要求,例如人机交互或增强现实[34]。它已经在计算机视觉领域进行了数十年的研究,并且由于引入了低成本的深度相机而再次引起了相当大的研究兴趣。
最近,基于卷积神经网络(CNN)的强有力的判别方法在各种计算机视觉任务中优于现有方法,包括来自单个深度图的3D手和人体姿势估计[3,11,14,16,29]。尽管这些方法在3D手部和人体姿势估计方面取得了显着进步,但由于严重的自我遮挡,目标物体的高铰链式的形状和低质量的深度图像,它们仍然存在不准确的估计。分析以前基于深度学习从单个深度图像估计3D手和人体姿态的方法,这些方法中的大多数[1,3,7,14-16,24,29-31,47]基于采用2D深度图像并直接回归关键点,例如手或人体关节的3D坐标的共同的框架。但是,我们认为这种方法有两个严重的缺点。第一个是2D深度图像中的透视失真。由于2D深度图的像素值表示物点与深度相机的物理距离,因此深度图本质上是3D数据。然而,大多数先前的方法仅将深度图作为2D图像形式,其可以通过将其投影到2D图像空间来扭曲3D空间中的实际对象的形状。因此,网络看到一个扭曲的对象,并负担执行失真不变的估计。我们可视化图1中2D深度图像的透视畸变。第二个缺点是深度图和3D坐标之间的高度非线性映射。这种高度非线性的映射妨碍了学习过程,并阻止网络精确估计关键点的坐标,如Tompson等人所论述的那样[46]。这种高非线性归因于每个关键点只需要从输入回归一个3D坐标的事实。
图1:2D深度图像中透视畸变的可视化。3D点云与3D姿势具有一对一的关系,但由于透视失真,2D深度图像具有多对一的关系。因此,网络被迫执行透视失真不变的估计。通过将3D点云平移ΔX=-300,0,300mm(从左到右)并且ΔY=-300,0,300mm(从下到上)来生成2D深度图。在所有情况下,ΔZ设定为0毫米。MSRA数据集中的真实人手大小和相机投影参数的类似值用于我们的可视化。
为了应对这些限制,我们提出了用于姿势估计的体素到体素预测网络(V2V-PoseNet)。与之前的大多数方法相比,V2V-PoseNet采用体素网格作为输入,并估算每个体素是每个关键点的可能性,如图2所示。
图2:来自单个深度图像的3D姿态估计的输入和输出的各种组合。以前的大部分工作都将2D深度图像作为输入,并估算关键点的3D坐标,如(a)中所示。相反,所提出的系统采用3D体素化网格并估计每个关键点的每体素可能性,如(d)中所示。注意,(b)和(d)仅由成为完全卷积结构的卷积层组成。
通过将2D深度图像转换为3D体素化形式作为输入,我们的网络可以看到物体的实际外观而没有透视变形。此外,估计每个关键点的每体素可能性使得网络比直接从输入估计3D坐标的高度非线性映射更容易地学习期望的任务。我们进行了一次彻底的实验,以证明所提出的输入和输出体素表示在3D手和人体姿势估计中从单个深度图的有用性。比较输入(即,2D深度图和体素化网格)和输出(即,3D坐标和每体素似然)类型的四种组合的性能。
实验结果表明,所提出的体素到体素预测允许我们的方法在几乎所有可公开获得的数据集中实现最先进的性能(即三个3D手[39,41,45]和一个3D人类[16]姿势估计数据集),而它实时运行。我们还在HANDS 2017基于帧的3D手姿势估计挑战[55]获得第一。我们希望所提出的系统从单个深度图成为3D手和人体姿势估计问题的里程碑。现在,我们假设术语“3D姿势估计”指的是3D空间中手或人体关键点的定位。
我们的贡献可归纳如下。
- 我们首先将从单个深度图估计3D姿态的问题转变为体素到体素的预测。与直接从2D深度图像回归3D坐标的大多数先前方法不同,我们提出的V2V-PoseNet估计来自体素化网格输入的每体素可能性。
- 我们通过比较每种输入类型(即2D深度图和体素网格)和输出类型(即3D坐标和每体素可能性)的性能,凭经验验证了体积输入和输出表示的有用性。
- 我们使用几乎所有现有的3D姿势估计数据集进行大量实验,包括三个3D手和一个3D人体姿势估计数据集。我们表明,与最先进的方法相比,所提出的方法产生了更为精确的结果。所提出的方法也首先在HANDS 2017基于帧的3D手姿势估计挑战中进行。
2 相关工作
基于深度的3D手姿势估计。手姿势估计方法可以分为生成方法,判别方法和混合方法。生成方法采用预先定义的手模型,并通过最小化手工制作的成本函数将其与输入深度图像相结合[35,42]。粒子游泳优化(PSO)[35],迭代最近点(ICP)[40]及其组合[33]是用于获得最佳手姿势结果的常用算法。
判别方法直接定位来自输入深度图的手关节。基于森林的随机方法[21,23,39,41-43,48]提供快速准确的表现。然而,他们利用手工制作的特征,并通过最近的基于CNN的方法[1,3,4,6,7,10,11,14,15,24,29,30,37,45,50,51]可以自己学习有用的功能克服。Tompson等人[45]首先利用CNN通过估算每个手关节的2D热图来定位手部关键点。Ge等人[10]通过利用多视图CNN来估计每个视图的2D热图,从而扩展了这种方法。Ge等人[11]直接通过3D CNN将2D输入深度图转换为3D形式和估计的3D坐标。郭等人[14,15]提出了一个区域集合网络来准确估计手部关键点的三维坐标,陈等人[3]通过迭代地重新估计估计的姿势来改进这种网络。Oberweger等人[29]通过利用最近的网络架构,数据增强和更好的初始手局部化改进了他们之前的工作[30]。
提出了混合方法来结合生成和判别方法。Oberweger等人[31]通过反馈循环训练判别和生成CNN。周等人[58]预先定义了手模型并估计了模型的参数,而不是直接回归3D坐标。Ye等人[53]使用空间注意机制和分层PSO。Wan等人[47]使用两个深度生成模型,共享潜在空间和训练的鉴别器来估计潜在姿势的后验。
基于深度的3D人体姿势估计。基于深度的3D人体姿势估计方法也依赖于生成和判别模型。生成模型通过发现预定义体模型和输入3D点云之间的对应关系来估计姿势。ICP算法通常用于3D体跟踪[8,13,18,22]。还提出了另一种方法,如模板处理高斯混合模型[52]。相比之下,判别模型不需要身体模板,他们直接估计身体关节的位置。传统的判别方法主要基于随机森林。Shotton等人[36]将每个像素划分为一个身体部位,而Girchick等人[12]和Jung等人[20]直接回归了身体关节的坐标。荣等人[57]使用随机树行走算法(RTW),显着减少了运行时间。最近,Haque等人[16]提出了使用CNN和多轮递归神经网络的视点不变姿态估计方法。他们的模型学习了视点不变特征,这使得模型对视点变化具有鲁棒性。
使用深度信息的体积表示。吴等人[49]介绍了深度图像的体积表示,并超越了现有的手工制作的基于描述符的三维形状分类和检索方法。他们将每个体素表示为二进制随机变量,并使用卷积深度置信网络来学习每个体素的概率分布。最近的一些作品[26,38]也将3D输入数据表示为3D对象分类和检测的体积形式。我们的工作遵循[26]的策略,其中提出了几种类型的体积表示(即占用网格模型),以充分利用丰富的三维信息源,并有效地处理大量的点云数据。他们提出的CNN架构和占用网格的性能优于Wu等人[49]。
3D姿态估计中的输入和输出表示。用于从单个深度图[1,3,7,14-16,24,29-31,47]进行3D姿态估计的大多数现有方法基于图2(a)中的模型,该模型采用2D深度图像并直接回归3D坐标。最近,Ge等人[11]和邓等人[6]将2D深度图像转换为基于3D体积形式的截断符号距离函数,并直接回归3D坐标,如图2(c)所示。在从RGB图像进行的3D人体姿态估计中,Pavlakos等人[32]通过2D CNN估算每个身体关键点的每体素可能性,如图2(b)所示。为了估计RGB图像的每体素可能性,他们将离散化的深度值视为特征图的通道,这导致每个深度值的不同内核。与所有上述方法相反,我们提出的系统通过来自体素化输入的3D完全卷积网络估计每个关键点的每体素可能性,如图2(d)所示。据我们所知,我们的网络是第一个使用3D CNN从体素输入生成体素输出以进行3D姿态估计的模型。
3 概述提出的模型
我们模型的目标是估计所有关键点的3D坐标。首先,我们通过重新投影3D空间中的点并将连续空间离散化,将2D深度图像转换为3D体积形式。在对2D深度图像进行体素化之后,V2V-PoseNet将3D体素化的数据作为输入并估计每个关键点的每体素可能性。每个关键点的最高似然响应的位置被识别并扭曲到真实世界坐标,这成为我们模型的最终结果。图3显示了所提出的V2V-PoseNet的整体架构。我们现在描述目标对象定位改进策略,生成所提出模型的输入的过程,V2V-PoseNet,以及在以下部分中提出的方法的一些相关问题。
图3:V2V-PoseNet的总体架构。V2V-PoseNet采用体素化输入并通过编码器和解码器估计每个关键点的每体素可能性。为了简化图形,我们绘制了每个没有Z轴的特征图,并将所有关键点的3D热图组合在一个体积中。3D热图中的每种颜色都表示同一手指中的关键点。
4 重新定位目标对象本地化
为了定位关键点,例如手或人体关节,在3D空间中包含手或人体的立方体盒是先决条件。这个立方体框通常放置在参考点周围,参考点是使用真实关节位置[30,31,58]或手部区域[3,14,15]周围的简单深度阈值后的质心获得的。但是,在现实世界的应用中,利用地面真实关节位置是不可能的。而且,通常,使用通过简单深度阈值计算的质量中心不能保证由于杂乱场景中的质心计算中的错误而将对象正确地包含在所获取的立方体框中。例如,如果其他对象靠近目标对象,则简单深度阈值方法无法正确过滤其他对象,因为它将相同的阈值应用于所有输入数据。因此,计算出的质心变得错误,这导致立方体盒仅包含目标对象的一部分。为了克服这些限制,我们参考Oberweger等人[29]训练了一个简单的2D CNN获得一个精确的参考点,如图4所示。该网络采用深度图像,其参考点通过手区域周围的简单深度阈值计算,并输出3D偏移从计算的参考点到地面真实关节位置的中心。可以通过将网络的输出偏移值添加到计算的参考点来获得重新定义的参考点。
图4:参考点重新定义网络。该网络采用裁剪的深度图像,并将当前参考点到地面-真实关节位置中心的3D偏移输出。
5 生成提出系统的输入
要创建所提出系统的输入,应将2D深度图转换为体素化形式。为了对2D深度图进行体素化,我们首先将深度图的每个像素重新投影到3D空间。在重新投影所有深度像素之后,基于预定义的体素尺寸将3D空间离散化。然后,通过在第4节中获得的参考点周围绘制立方体框来提取目标对象。如果体素被任何深度点占据,我们将网络输入V(i,j,k)的体素值设置为1,否则为0。
6 V2V-PoseNet
6.1 构建块设计
我们在设计V2V-PoseNet时使用了四种构建模块。第一个是体积基本块,它由体积卷积,体积批量标准化[19]和激活函数(即ReLU)组成。该块位于网络的第一部分和最后部分。第二个是从[17]中选项B的2D残差块延伸出来的体积残差块。第三个是体积下采样块,与体积最大池化层相同。最后一个是体积上采样块,它由一个体积反卷积层,体积批量标准化层和激活函数(即ReLU)组成。将批量标准化层和激活功能添加到反卷积层有助于简化学习过程。残差块的内核大小为3×3×3,下采样和上采样层的内核大小为步长2的2×2×2。
6.2 网络设计
V2V-PoseNet执行体素到体素预测。因此,它基于3D CNN架构,其将Z轴视为附加空间轴,使得内核形状为w×h×d。我们的网络架构基于沙漏模型[28],经过略微修改后可以进行更精确的估算。如图3所示,网络从7×7×7体积基本块和体积下采样块开始。在对特征图进行下采样之后,三个连续的残差块提取有用的局部特征。残差块的输出分别通过图5和6中描述的编码器和解码器。
图5:V2V-PoseNet的编码器。每个块下面的数字表示每个特征图的空间大小和通道数。我们绘制了没有Z轴的每个特征图,以简化图形。
图6:V2V-PoseNet的解码器。每个块的数字表示每个特征图的空间大小和通道数。我们绘制了没有Z轴的特征图来简化图形。
在编码器中,体积下采样块减少了特征图的空间大小,而体积残差块增加了通道数。根据经验证明,通道数量的增加有助于提高我们实验的性能。另一方面,在解码器中,体积上采样块放大了特征图的空间大小。上采样时,网络会减少压缩提取的要素的通道数。解码器中体积大小的放大有助于网络密集地定位关键点,因为它减少了特征图中体素之间的步幅。编码器和解码器与每个标度的体素加法连接,使得解码器可以更稳定地对特征图进行上采样。在通过编码器和解码器传递输入之后,网络通过两个1×1×1体积基本块和一个1×1×1体积卷积层来预测每个关键点的每体素可能性。
6.3 网络训练
为了监督每个关键点的每体素可能性,我们生成3D热图,其中高斯峰的平均值位于地面真实关键位置,如下所示:
H n ∗ ( i , j , k ) = e x p ( − ( i − i n ) 2 + ( j − j n ) 2 + ( k − k n ) 2 2 σ 2 ) ( 1 ) H^*_n(i,j,k)=exp(-frac{(i-i_n)^2+(j-j_n)^2+(k-k_n)^2}{2sigma^2})quadquad(1) Hn∗(i,j,k)=exp(−2σ2(i−in)2+(j−jn)2+(k−kn)2)(1)
其中
H
n
∗
H^*_n
Hn∗是第n个关键点的地面实况3D热图,
(
i
n
,
j
n
,
k
n
)
(i_n,j_n,k_n)
(in,jn,kn)是第n个关键点的地面真实体素坐标,σ=1.7是高斯峰的标准偏差。
另外,我们采用均方误差作为损失函数L如下:
L = ∑ n = 1 N ∑ i , j , k ∣ ∣ H N ∗ ( i , j , k ) − H n ( i , j , k ) ∣ ∣ 2 ( 2 ) L=sum^N_{n=1}sum_{i,j,k}||H^*_N(i,j,k)-H_n(i,j,k)||^2quadquad(2) L=n=1∑Ni,j,k∑∣∣HN∗(i,j,k)−Hn(i,j,k)∣∣2(2)
其中 H n ∗ H^*_n Hn∗和 H n H_n Hn分别是第n个关键点的地面实况和估计的热图,N表示关键点的数量。
7 实现细节
提出的V2V-PoseNet从头开始以端到端的方式进行培训。所有权重均从零均值高斯分布初始化,σ=0.001。根据损失函数计算梯度向量,并通过RMSProp[44]更新权重,小批量大小为8。学习率设置为 2.5 × 1 0 − 4 2.5times10^{-4} 2.5×10−4。建出的系统输入大小为88×88×88。我们执行数据增强,包括旋转(XY空间中的[-40,40]度),缩放(3D空间中的[0.8,1.2])和平移(3D空间中的[-8,8]体素)。我们的模型由Torch7[5]实现,NVIDIA Titan X GPU用于训练和测试。我们训练了10个时代的模型。
8 实验
8.1 数据集
ICVL手势数据集。ICVL数据集[41]由330K训练和1.6K测试深度图像组成。使用英特尔的Creative Interactive Gesture Camera[27]从10个不同的主题收集帧。手姿的注释包含16个关节,其中包括每个手指的三个关节和手掌的一个关节。
纽约大学手姿数据集。纽约大学数据集[45]包括72K训练和8.2K测试深度图像。从受试者A收集训练集,而通过来自不同视图的三个Kinect从受试者A和B收集测试集。手势的注释包含36个关节。以前的大多数工作只使用了正面视图中的帧和评估中36个关节中的14个,我们也遵循它们。
MSRA手姿数据集。MSRA数据集[39]包含9个受试者,每个受试者有17个手势。英特尔的Creative Interactive Gesture Camera[27]使用21个带注释的关节捕获了76K深度图像。为了评估,使用了遗漏一个受试者的交叉验证策略。
HANDS 2017基于帧的3D手姿态估计挑战数据集。HANDS 2017基于帧的3D手姿势估计挑战数据集[55]由957K训练和295K测试深度图像组成,这些图像从BigHand2.2M[56]和第一人手动作[9]数据集中采样。训练集中有五个受试者,测试阶段有十个受试者,包括五个没见过的受试者。该数据集的真实值是21个手关节的3D坐标。
ITOP人体姿势数据集。ITOP数据集[16]包括每个前视图和顶视图轨道的40K训练和10K测试深度图像。该数据集包含20个演员的深度图像,每个演员执行15个序列,并由两个华硕Xtion Pro摄像机录制。该数据集的真实值是15个身体关节的3D坐标。
8.2 评估指标
我们和[39,41]一样使用3D距离误差和成功帧的百分比度量来进行3D手势估计。对于3D人体姿势估计,我们使用平均精度(mAP),其被定义为基于10cm规则的所有人体关节的检测比率[16,57]。
8.3 消融研究
我们使用NYU手姿势数据集[45]来分析我们模型的每个组成部分,因为这个数据集具有挑战性并且远未饱和。
3D表示和每体素似然估计。为了证明输入和每体素似然估计的3D表示的有效性,我们在表1中比较了输入和输出形式的四种不同组合的性能。如表所示,无论输出表示如何,将输入表示类型从2D深度图转换为3D体素化形式(还将模型从2D CNN转换为3D CNN)大大提高了性能。这证明了所提出的3D输入表示的有效性,其没有透视失真。结果还表明,无论输入类型如何,将输出表示从3D坐标转换为每体素可能性都会显着提高性能。在这四种组合中,即使参数数量最少,体素到体素也能提供最佳性能。因此,与其他输入和输出组合相比,体素到体素预测方案的优越性显然是合理的。
表1:NYU数据集中的平均3D距离误差(mm)和输入和输出类型的参数比较。括号中的数字表示参数的数量。每种输入和输出类型的可视化模型如图2所示。
为了公平地比较四种组合,我们使用相同的网络构建块和设计,这些在第6节中介绍。唯一的区别是每体素似然估计的模型是完全卷积的,而对于坐标回归,我们完全使用网络末端的连接层。简单地将体素到体素转换为像素到体素会减少参数的数量,因为模型从3D CNN变为2D CNN。为了弥补这一变化,我们将像素到体素模型中每个要素图的通道数加倍。如果通道数量不加倍,则性能会下降。对于所有四个模型,我们使用48×48深度图或48×48×48体素网格作为输入,因为在体素到坐标的情况下原始尺寸(88×88×88)不适合GPU存储器。
重新定位目标对象的本地化。为了证明第4节中本地化重定义程序的重要性,我们比较了两个有和没有本地化改进步骤的性能。如表2所示,重新定义的参考点显着提高了我们模型的精度,这表明参考点重新定义过程对性能有重要影响。
表2:定位改进和周期组合的影响。在NYU数据集中计算平均3D距离误差。
阶段组合。为了获得更准确和稳健的估计,我们应用了一种简单的组合技术,我们将其称为阶段组合。阶段组合平均来自几个周期的估计。具体而言,我们在训练阶段为每个时期保存训练模型,然后在测试阶段,我们对训练模型中的所有估计3D坐标进行平均。当我们将模型训练10个时期时,我们使用10个模型来获得最终估计。当每个模型在不同的GPU中运行时,阶段组合对运行时间没有任何影响。但是,在单GPU环境中,阶段组合线性地增加了运行时间。阶段组合的效果如表2所示。
8.4 与最先进的方法进行比较
我们将三个3D手姿势估计数据集(ICVL[41],NYU[45]和MSRA[39])上的V2V-PoseNet的性能与大多数最先进的方法进行了比较,其中包括潜在的随机森林(LRF)[41],级联手姿态回归(Cascade)[39],DeepPrior with refinement(DeepPrior)[30],反馈循环训练方法(反馈)[31],基于手模型的方法(DeepModel)[58],分层抽样优化(HSO)[42],局部表面法线(LSN)[48],多视图CNN(MultiView)[10],DISCO[1],Hand3D[6],DeepHand[37],基于x组的方法(Lie-X)[50],改进的DeepPrior(DeepPrior++)[29],区域集成网络(REN-4×6×6[15],REN-9×6×6[14]),CrossingNets[47],姿势引导REN(Pose-REN)[3],全局到局部预测方法(Global-to-Local)[24],分类引导方法(Cls-Guide)[51],基于3DCNN方法(3DCNN)[11],基于遮挡感知的方法(Occlusion)[25],以及幻觉热量分布法(HeatDist)[4]。一些先前作品[3,14,15,29-31,41,50,58]报告的结果是通过在线提供的预测标签计算的。其他结果[1,4,6,10,11,24,25,37,39,42,47,48,51]是根据其论文的图表和表格计算出来的。
如图7和表3所示,我们的方法在标准评估指标中优于三个3D手姿势估计数据集上的所有现有方法。这显示了体素到体素预测的优越性,其首先用于3D手姿势估计。我们与之前的作品之间的性能差距在纽约大学数据集中是最大的,其非常具有挑战性且远未饱和。我们还按照之前的工作协议[39]测量了MSRA数据集上各种偏航角和俯仰角的平均3D距离误差分布,如图8所示。正如图所示,我们的方法几乎在所有偏航和俯仰角度都能提供出色的结果。
图7:所提方法(V2V-PoseNet)与最先进方法的比较。第一行:成功帧在不同错误阈值上的百分比。底行:每手关键点的3D距离误差。左:ICVL数据集,中间:NYU数据集,右:MSRA数据集。
表3:所提出的方法(V2V-PoseNet)与三个3D手姿势数据集上的最新方法的比较。平均误差表示平均3D距离误差。
图8:MSRA数据集上不同偏航(左)和俯仰(右)角的平均3D距离误差的比较。
我们的方法也在HANDS 2017基于帧的3D手姿势估计挑战[55]获得第一。前5个结果比较如表4所示。如表中所示,提出的V2V-PoseNet优于其他参与者。[54]中介绍了对挑战结果的更详细分析。
表4:HANDS 2017基于帧的3D手姿势估计挑战的前5个结果。
我们还评估了所提出的系统在ITOP 3D人体姿态估计数据集上的性能[16]。我们将该系统与最先进的工作进行了比较,其中包括基于随机森林的方法(RF)[36],RTW[57],IEF[2],基于视点不变特征的方法(VI)[16] ]和REN-9x6x6[14]。每种方法的得分均来自[14,16]。如表5所示,所提出的系统在两个视图中都大大优于所有现有方法,这表明我们的模型不仅可以应用于3D手姿态估计,还可以应用于其他具有挑战性的问题,例如前视图和顶视图的3D人体姿态估计。
表5:所提出的方法(V2V-PoseNet)与ITOP数据集的前视图和俯视图上的最新方法的比较。
V2V-PoseNet在ICVL,NYU,MSRA,HANDS 2017,ITOP前视图和ITOP顶视图数据集上的定性结果分别如图9,10,11,12,13和14所示。(见原论文)
8.5 计算复杂度
我们研究了所提出方法的计算复杂性。对于ICVL数据集,V2V-PoseNet的训练时间为两天,对于NYU和MSRA数据集为12小时,对于HANDS 2017挑战数据集为6天,对于ITOP数据集为3小时。当使用10个模型用于阶段组合时,测试时间为3.5fps,但在多GPU环境中可以加速到35fps,这表明了所提出的方法对实时应用的适用性。最耗时的步骤是输入生成,其包括参考点重建和体素化深度图。此步骤需要23毫秒,大部分时间用于体素化。下一步是网络转发,需要5毫秒,需要0.5毫秒才能从3D热图中提取3D坐标。请注意,我们的模型在使用单个GPU实时运行时,在ICVL,NYU,MSRA和ITOP数据集上没有阶段组合的情况下大幅优于以前的工作。
9 结论
我们提出了一种新颖而强大的网络V2V-PoseNet,用于从单个深度图进行3D手和人体姿态估计。为了克服以前工作的弊端,我们将2D深度图转换为3D体素表示,并使用我们的3D CNN模型进行处理。此外,我们不是直接回归关键点的3D坐标,而是估计每个关键点的每体素可能性。这两次转换可以显着提升性能,使得提出的V2V-PoseNet在三个3D手和一个3D人体姿势估计数据集上的表现大大优于以前的工作。它还允许我们赢得3D手部姿势估计挑战。由于体素到体素预测首先在单个深度图的3D手和人体姿态估计中进行尝试,我们希望这项工作能够提供精确的3D姿态估计的新方法。
最后
以上就是外向宝贝为你收集整理的V2V-PoseNet:Voxel-to-Voxel Prediction Network for Accurate 3D Hand and Human Pose Estimation from...的全部内容,希望文章能够帮你解决V2V-PoseNet:Voxel-to-Voxel Prediction Network for Accurate 3D Hand and Human Pose Estimation from...所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
发表评论 取消回复