著录项信息
专利名称 | 一种基于主动场景学习的对象跟踪方法 |
申请号 | CN201210180170.3 | 申请日期 | 2012-06-04 |
法律状态 | 权利终止 | 申报国家 | 中国 |
公开/公告日 | 2012-10-10 | 公开/公告号 | CN102722725A |
优先权 | 暂无 | 优先权号 | 暂无 |
主分类号 | G06K9/62 | IPC分类号 | G;0;6;K;9;/;6;2查看分类表>
|
申请人 | 西南交通大学 | 申请人地址 | 四川省成都市二环路北一段111号
变更
专利地址、主体等相关变化,请及时变更,防止失效 |
权利人 | 西南交通大学 | 当前权利人 | 西南交通大学 |
发明人 | 权伟;陈锦雄;余南阳 |
代理机构 | 成都博通专利事务所 | 代理人 | 林毓安 |
摘要
本发明提供了一种基于主动场景学习的对象跟踪方法,属于计算机图形图像模式识别技术领域。如何既保证跟踪系统对目标变化的适应能力,又保证学习的准确性,避免漂移而导致跟踪失败是需要共同面对的一个难题。本发明通过在线模型和短时跟踪、全局检测、主动场景学习、约束方法、运动区域分析和提取等步骤来实现对象跟踪。通过对场景的在线学习,主动发掘背景信息,同时,提出基于光流分析的运动区域分析和提取方法,并根据以上结构化的约束,有效地解决由于目标快速运动或者场景剧烈运动丢失目标且难以恢复的问题。有效地提高对目标变化的适应能力和模型学习的准确性,从而实现长时间稳定快速的对象跟踪。主要用于对象跟踪的各种场合。
1.一种基于主动场景学习的对象跟踪方法,所述方法包括如下内容:
(1)在线模型和短时跟踪
在线模型包括目标模型和背景模型,它们均由多个图像块组成,目标模型包含学习到的目标图像块,而背景模型则包含学习到的背景图像块,在线模型更新过程中,将这些图像块均规则化为一个较小的尺寸,即9×9;
设任意两个图像块zi,zj的规则化交叉互相关值为vNCC(zi,zj),颜色直方图的相似度值为vC(zi,zj),则它们的接近程度值vS(zi,zj)计算为:
vS(zi,zj)=avNCC(zi,zj)+bvC(zi,zj),
其中a,b分别为vNCC和vC的权重,0≤a,b≤1且a+b=1,实际跟踪过程中,短时跟踪器在以上次确定的目标位置为中心的搜索区域,与目标模型中所有图像块做比较,搜索使vS值最大的位置作为当前目标的位置;
(2)全局检测
为实现实时的全局检测和提高检测的分辨能力,采用新的三位二元模式特征3bitBP,即分别编码水平,垂直和对角矩形梯度值,构成3位特征值,为了对一个图像块进行特征值编码,将该图像块等分为4×4的小块,每4个相邻且组成正方形的特征构成一个随机蕨,其中最后一个随机蕨由水平和垂直两个方向平分整个图像块后得到的4个矩形特征组成,因此,检测器包含10个不同的随机蕨,每个蕨具有3×4=12位特征值编码,即每个蕨包含
12
2 =4096个叶节点;
检测器训练过程中,每个蕨接收训练样例图像块并计算其对应的特征值编码,如果该样例正样例为目标,则对应叶节点的正样例数加1;否则,其负样例为背景数加1,而检测器对一个测试样例的评价过程为,每个蕨分别计算该样例的特征值编码,计算其对应叶节点中正样例所占的比例,将这些蕨返回的 比例值求平均,如果该平均值大于0.5,则该测试样例预测为正样例并做相应标记;否则,为负样例并标记;
(3)约束方法
约束方法采用最近邻聚类方法,包括目标和背景两类:
设MT={xi}和MB={yi}分别表示目标模型和背景模型,对于候选图像块z,设SKNN(z,MT)表示目标模型中与候选图像块z的k=n个最接近的图像块中最小的那个vS值,同理,SKNN(z,MB)表示背景模型中与候选图像块z的k=n个最接近的图像块中最小的vS值,按照(1)的接近度计算,它们分别计算为:
则对应的约束值fconstraint计算为:
由此fconstraint用于作为跟踪学习的结构化约束;
因此,基于这种结构化约束的跟踪方法为:短时跟踪器在跟踪过程中,除自身基于目标模型的阈值判断外,同时加入该约束判断,即对短时跟踪器返回的最佳预测目标,计算fconstraint的值,如果fconstraint=+1即该预测目标更接近目标模型,则认为此预测目标为正确跟踪的目标,否则为背景;如果此预测目标判断为背景fconstraint=-1,则启动全局检测,此时与短时跟踪同步进行,同样,全局检测器除自身基于随机蕨概率模型的阈值判断外,对其得到的最佳预测目标计算fconstraint的值,如果fconstraint=+1,则重新初始化短时跟踪器; (4)主动场景学习
对于目标模型,短时跟踪与全局检测协同完成目标表观的学习,首先短时跟踪过程中,如果vS值高于设定的阈值且规则化交叉互相关值又小于其对应阈 值,且满足(3)的约束条件,则将该位置对应的图像块加入到目标模型,而在启动全局检测后,目标模型的更新又分为以下两种情况:
1)如果短时跟踪与全局检测返回的是相同位置,且满足(3)的约束条件,则将该位置对应的图像块加入到目标模型;
2)如果全局检测在另一个位置上具有较强的目标响应,且满足(3)的约束条件,则将该位置对应的图像块加入到目标模型,并重新初始化短时跟踪器;
对于背景模型,其学习过程包括场景变更判断和背景模型更新两个部分:
(ⅰ)场景变更判断
背景模型的更新,只需在场景发生一定变更时进行,对于相对固定的跟踪场景,背景模型更新不会太频繁;而相对于复杂的动态场景,背景模型更新则会经常发生;场景变更判断方法选择以下的任意一种:
分块统计分析:将整幅图像划分为多个区域,即划分为8×8的网格,计算每块图像区域的像素均值,如果该均值变化超过预设的阈值则认为该图像区域已变更;
光流统计分析:计算每帧图像各个像素点的运动向量,各个位置的运动向量反应了场景的变更细节,统计整个图像的运动向量值及其局部运动向量值,超过一定的阈值则认为整个场景已变更;
分块光流统计分析:此为以上两种方法的结合,即先对图像分块,再在各个分块区域分析其光流信息,最后统计所有局部区域,判断场景是否变更;
(ⅱ)背景模型更新
背景模型的更新选择其中的任意一种或者它们的组合:
全局固定:在整幅图像区域选择一些固定的坐标,作为背景图像块选择位置;如果跟踪过程中,目标运动到了任意预先设定的位置,则暂时将其排除;
全局随机:在整幅图像区域,且在目标所在的范围以外,随机的选择一些坐标,作为背景图像块选择位置;
定向固定:以目标所处位置为中心,将在多个方向上固定一定的距离所取得的坐标,作为背景图像块选择的位置;如果选择的坐标超出图像区域,则暂时将其排除; 定向随机:以目标所处位置为中心,在多个方向上,图像范围内,以随机产生的距离取得的坐标,作为背景图像块选择位置;
(5)运动区域分析和提取
基于光流分析的运动区域分析和提取方法,用于处理这样的问题,该方法具体步骤如下:
①计算相邻两帧图像各个像素点的运动向量;
②将整个图像划分为多个子区域;
③计算各个子区域的运动向量均值;
④对所有的子区域,如果该区域的运动向量均值超过阈值,则标记为运动区域; ⑤组合这些运动区域作为目标可能出现的搜索区域;
⑥计算各个候选位置的vS值并根据(3)的约束条件,用最大置信度值对应的图像位置重新初始化短时跟踪器。
一种基于主动场景学习的对象跟踪方法\n技术领域\n[0001] 本发明属于计算机图形图像模式识别技术领域,特别涉及机器学习,计算机视觉技术。\n背景技术\n[0002] 在无约束的环境下,实现长时间的可视跟踪是众多计算机视觉应用的关键问题,如视频监控,人机交互等。目前,基于机器学习特别是在线学习的跟踪方法成为该领域研究的热点,这是由于为了获得长时间稳定可靠的跟踪性能,跟踪系统需要能够适应目标对象的运动变化。\n[0003] 跟踪过程中在线学习的目的在于发掘未知的数据结构,对它的研究,逐步发展出一系列自适应的对象跟踪方法。Graber、Avidan、Collins和Lim等人分别采用不同的自学习方式,用接近和远离目标的样例更新对象模型,然而,这种方法一旦预测目标出错,则跟踪无法继续。为了克服这个问题,Yu等提出了通过协作训练获得一个可再生的判别分类器,从而实现重检测和失败恢复。因此,对象跟踪或者检测也被看作是一个分类问题,即通过训练得到的分类器来判断该区域是目标还是背景。由于跟踪的实时性本质,基于Boosting自举方法的分类器和基于随机森林(随机蕨)的分类器成为目前主要研究的方法。\n[0004] Viola等人将Boosting应用到实现快速稳定的对象检测任务,这项重要的工作为Boosting在计算机视觉领域的应用铺平了道路。随后,Javed等人提出一种协作训练的在线Boosting并用于对象检测,这种方法先在普通场景中离线训练分类器,然后再对其进行在线调整。Oza等人提出了通过在弱分类器集合中传播样例从而估计其重要度的思想,并且在他的博士论文中证明了在线Boosting在迭代次数无限大的情况下收敛于离线Boosting,并与之取得相同的结果。为了能够将Oza的方法直接用于特征的选择,Grabner等人提出了关于特征选择的在线Boosting算法,并成功地将其应用在对象跟踪任务中。之后,Grabner等人继续在此基础上提出了半监督的在线Boosting算法,实现了更加稳定的跟踪效果。Stalder等人通过在半监督在线Boosting框架中加入多个分类器,利用多重先验知识的更新操作,提出了超半监督的在线Boosting算法,取得了更好的跟踪效果。但是,由于Boosting算法对样例标记噪声敏感,因此,容易使得Boosting分类器在跟踪过程中识别能力下降,从而逐渐丢失目标。为了克服这个问题,Babenko等人提出了在线多实例Boosting算法(OMB),在很大程度上提高了跟踪性能。\n[0005] 另一方面,相对于Boosting,随机森林能够快速完成训练和分类,并且可以通过并行方式进行,这使得它在机器学习领域中得到越来越多的关注。随机森林算法由Breiman提出,是由结合Bagging技术的多个随机化的决策树组成。Bosch等人将随机森林用于分类问题,Shotton等人将其用于语义分割,Lepetit等人将随机森林用于实时关键点识别,他们都取得了很好的效果。Leistner等人为了有效降低半监督学习的复杂度,利用随机森林的计算效率,分别提出了半监督随机森林算法,多实例学习随机森林算法,以及在线多视图随机森林算法,并成功应用在机器学习的各项问题。Geurts等人提出极度随机森林,即随机森林中的测试阈值也是随机生成。随后,Saffari等人在此基础上结合在线Bagging提出了在线随机森林,并将其应用到对象跟踪,取得了良好的跟踪效果。为了进一步提高检测速率,Ozuysal提出了随机蕨算法,并用于关键点识别和匹配。之后,Kalal等人利用随机蕨作为在线对象检测模型,并结合其增长和裁剪学习策略(P-N Learning),取得了很好的跟踪效果。但是,随机森林(蕨)充分的分类能力,需要大量的数据作为训练样例和测试,这在很大程度上限制了随机森林(蕨)在对象跟踪中的应用。\n[0006] 而以上这些方法需要共同面对的一个难题是,如何既保证跟踪系统对目标变化的适应能力,又保证学习的准确性,避免漂移而导致跟踪失败。为此,Babenko等提出了袋学习的思想和OMB算法,在很大程度上提高了跟踪性能。Kalal等提出了TLD的跟踪学习框架,在跟踪过程中进行有约束的学习,即所谓的增长和裁剪学习策略,并进一步提出了P-N正负样例学习的思想。基于这种思想,Kalal等在其跟踪系统PNT中结合LK跟踪和随机蕨检测,取得了非常好的实时跟踪效果。然而他们给出的实验结果表明,特别地,对于场景初始就包含剧烈摄像头运动的情形,由于LK跟踪很快失败,P约束无法标识和学习到足够多的样例用于训练初始的检测器,所以跟踪在失败后难以恢复。\n[0007] 一般情况下,场景越复杂,跟踪或者检测就变得越困难,由于计算资源的局限和效率的要求,对象表观模型不能过于复杂。实际上,除了目标本身以外,背景信息也是十分有用且重要的信息。Yang等采用图像分割融合方法,通过时空分析发掘辅助对象作为跟踪协助,实现了较稳定的跟踪结果,然而该辅助对象的获取基于一定的运动假设,因而难以适应更复杂的跟踪环境,且计算效率有待进一步的提高。Grabner等提出通过获取目标周围有价值的特征点,借此预测目标的位置,增强了跟踪的稳定性,然而他们进行检测和匹配所有这些局部特征点的方法计算十分耗时。Fan等提出学习具有较强区别性的关注区域用以辅助跟踪,然而在场景出现剧烈运动时,受这些局部区域的限制,其计算效率依然不高。Godec等通过对场景进行聚类学习,将背景分类为多个虚拟的类型,取得了较为满意的跟踪效果,但是该方法假设背景只是逐步而细微的改变,这在很多跟踪场合并不成立,因此其应用有限。\n[0008] 因此,本发明提出基于主动场景学习的对象跟踪方法,该方法基于“跟踪-学习-检测”的基本结构,通过对场景的在线学习,主动发掘背景信息,并融合这些场景信息作为结构化的约束,有效地提高对目标变化的适应能力和模型学习的准确性,从而实现长时间稳定快速的对象跟踪。同时,提出基于光流分析的运动区域分析和提取方法,并根据以上结构化的约束,有效地解决由于目标快速运动或者场景剧烈运动导致学习不充分而丢失目标且难以恢复的问题。此外,本发明方法不仅可以用于单目标跟踪,通过增加和调整样例标记,还可以扩展用于多目标的跟踪。\n发明内容\n[0009] 本发明的目的是提供一种基于主动场景学习的对象跟踪方法,它能在无约束环境下,实现长时间实时稳定的对象跟踪。\n[0010] 本发明实现其发明目的所采用的技术方案是,一种基于主动场景学习的对象跟踪方法,所述方法包括如下内容:\n[0011] (1)在线模型和短时跟踪\n[0012] 在线模型包括目标模型和背景模型,它们均由多个图像块组成。目标模型包含学习到的目标图像块,而背景模型则包含学习到的背景图像块。在线模型更新过程中,将这些图像块均规则化为一个较小的尺寸,如9×9,15×15等。这里,图像块越大,则计算量越大。\n[0013] 相对于长时间的跟踪,短时跟踪只能保证相对较短时间内的跟踪准确性,它的目的在于尽可能的适应目标的变化。这里短时跟踪采用规则化交叉互相关与颜色组合的方法(NCC-C,Normalized Cross-Correlation and Color),即通过计算图像块之间的规则化交叉互相关值和颜色直方图的相似度值,来衡量两个图像块的接近程度。\n[0014] 设任意两个图像块zi,zj的规则化交叉互相关值为vNCC(zi,zj),颜色直方图的相似度值为vC(zi,zj),则它们的接近程度值vS(zi,zj)计算为:\n[0015] vS(zi,zj)=avNCC(zi,zj)+bvC(zi,zj),\n[0016] 其中a,b分别为vNCC和vC的权重,0≤a,b≤1且a+b=1。实际跟踪过程中,短时跟踪器在以上次确定的目标位置为中心的搜索区域,与目标模型中所有图像块做比较,搜索使vS值最大的位置作为当前目标的位置。\n[0017] (2)全局检测\n[0018] 为实现实时的全局检测和提高检测的分辨能力,采用新的三位二元模式特征(3bitBP),即分别编码水平,垂直和对角矩形梯度值,构成3位特征值。为了对一个图像块进行特征值编码,将该图像块等分为4×4的小块,如图1所示。每4个相邻且组成正方形的特征构成一个随机蕨,如图2所示。其中最后一个随机蕨由水平和垂直两个方向平分整个图像块后得到的4个矩形特征组成。因此,检测器包含10个不同的随机蕨,每个蕨具有\n12\n3×4=12位特征值编码,即每个蕨包含2 =4096个叶节点。\n[0019] 图像块按照以上的有序划分,而不是随机选择矩形特征,其目的是,有利于跟踪过程中适应目标尺度的变化,简化矩形特征调整过程。此外,每个矩形特征值的计算是通过图像积分图来实现。图像积分图每帧只需计算一次,然后进行简单的几次加减运算即可得到一个特征的值,从而实现快速地计算图像块特征值编码。\n[0020] 检测器训练过程中,每个蕨接收训练样例(图像块)并计算其对应的特征值编码。\n如果该样例为正样例(目标),则对应叶节点的正样例数加1;否则,其负样例(背景)数加\n1。而检测器对一个测试样例的评价过程为,每个蕨分别计算该样例的特征值编码,计算其对应叶节点中正样例所占的比例,将这些蕨返回的比例值求平均。如果该平均值大于0.5,则该测试样例预测为正样例并做相应标记;否则,为负样例并标记。\n[0021] (3)主动场景学习\n[0022] 场景学习的目的在于进一步提高对象检测的准确性,增强跟踪系统的稳定性。这里场景学习包括目标模型和背景模型的学习和更新,即将学习到的目标图像块加入到目标模型,将学习到的背景图像块加入到背景模型,以适应跟踪场景的变化。\n[0023] 对于目标模型,短时跟踪与全局检测协同完成目标表观的学习。首先短时跟踪过程中,如果vS值高于设定的阈值且规则化交叉互相关值又小于其对应阈值,且满足(4)的约束条件,则将该位置对应的图像块加入到目标模型。而在启动全局检测后,目标模型的更新又分为以下两种情况:\n[0024] 1)如果短时跟踪与全局检测返回的是相同位置,且满足(4)的约束条件,则将该位置对应的图像块加入到目标模型;\n[0025] 2)如果全局检测在另一个位置上具有较强的目标响应,且满足(4)的约束条件,则将该位置对应的图像块加入到目标模型,并重新始化短时跟踪器。\n[0026] 对于背景模型,其学习过程包括场景变更判断和背景模型更新两个部分。\n[0027] (i)场景变更判断\n[0028] 背景模型的更新,只需在场景发生一定变更时进行。对于相对固定的跟踪场景,如静态场景,背景模型更新不会太频繁;而相对于复杂的动态场景,背景模型更新则会经常发生。因此,这里采用以下的场景变更判断方法,实际情况下,可以选择其中的任意一种。\n[0029] 分块统计分析:将整幅图像划分为多个区域,如划分为8×8的网格,如图3所示。\n计算每块图像区域的像素均值,如果该均值变化超过预设的阈值则认为该图像区域已变更。统计所有这些图像区域的变更情况,如果变更区域所占的比例超过一定的阈值,则认为整个场景已变更,并更新所有图像区域的均值。与在线模型一样,这些图像区域均可规则化为较小的图像块,从而加快分析计算的速率。\n[0030] 光流统计分析:计算每帧图像各个像素点的运动向量,各个位置的运动向量反应了场景的变更细节。统计整个图像的运动向量值及其局部运动向量值,超过一定的阈值则认为整个场景已变更。\n[0031] 分块光流统计分析:此为以上两种方法的结合,即先对图像分块,再在各个分块区域分析其光流信息,最后统计所有局部区域,判断场景是否变更。\n[0032] (ii)背景模型更新\n[0033] 这里,背景模型的更新采用以下的方法。\n[0034] 全局固定:在整幅图像区域选择一些固定的坐标,作为背景图像块选择位置。如果跟踪过程中,目标运动到了任意预先设定的位置,则暂时将其排除。\n[0035] 全局随机:在整幅图像区域,且在目标所在的范围以外,随机的选择一些坐标,作为背景图像块选择位置。\n[0036] 定向固定:以目标所处位置为中心,将在多个方向上固定一定的距离所取得的坐标,作为背景图像块选择的位置。如果选择的坐标超出图像区域,则暂时将其排除。\n[0037] 定向随机:以目标所处位置为中心,在多个方向上,图像范围内,以随机产生的距离取得的坐标,作为背景图像块选择位置。\n[0038] 以全局随机为例,如图4所示,为其中一种可能的背景图像块选择结果。实际情况下,可以选择其中的任意一种或者它们的组合,不管选择哪种背景选择方式,其目的均在于最大程度的学习适应场景的变化。此外,不管哪种方法,背景图像块的大小均自动适应目标尺寸的变化,并经过规则化后加入到背景模型。\n[0039] (4)约束方法\n[0040] 由于(1)中短时跟踪器具有较强的目标适应能力,但在长时间的跟踪过程中,容易过多的吸收背景信息,而逐渐偏离目标(跟踪漂移)。另一方面,检测器的训练学习依赖于该短时跟踪,跟踪漂移将降低检测器的准确率,从而导致跟踪失败,甚至无法恢复。因此,背景模型将被用来对短时跟踪和全局检测进行结构化约束。\n[0041] 这里,约束方法采用K最近邻聚类方法(KNN,K-Nearest Neighbor),包括目标和背景两类。设MT={xi}和MB={yi}分别表示目标模型和背景模型。对于候选图像块z,设SKNN(z,MT)表示目标模型中与候选图像块z的k=n个最接近的图像块中最小的那个vS值,同理,SKNN(z,MB)表示背景模型中与候选图像块z的k=n个最接近的图像块中最小的vS值,按照(1)的接近度计算,它们分别计算为:\n[0042] \n[0043] \n[0044] 则对应的约束值fconstraint计算为:\n[0045] \n[0046] 由此fconstraint用于作为跟踪学习的结构化约束。\n[0047] 因此,基于这种结构化约束的跟踪方法为:短时跟踪器在跟踪过程中,除自身基于目标模型的阈值判断外,同时加入该约束判断,即对短时跟踪器返回的最佳预测目标,计算fconstraint的值,如果fconstraint=+1即该预测目标更接近目标模型,则认为此预测目标为正确跟踪的目标,否则为背景。如果此预测目标判断为背景(fconstraint=-1),则启动全局检测(此时与短时跟踪同步进行)。同样,全局检测器除自身基于随机蕨概率模型的阈值判断外,对其得到的最佳预测目标计算fconstraint的值,如果fconstraint=+1,则重新初始化短时跟踪器。\n[0048] 由于在线模型特别是目标模型将随跟踪的持续而线性增长,计算量会逐步加大,计算效率会迅速降低。对此,这里采用K均值聚类方法(K-means),根据图像像素均值对在线模型中的目标模型和背景模型分别构建一个二元搜索树,其计算复杂度可由O(n)降为O(logn),其中n为模型中包含的对象数量,这里指学习到的图像块的数量。\n[0049] (5)运动区域分析和提取\n[0050] 对于目标快速运动或者场景剧烈运动的情形,短时跟踪往往由于搜索范围有限而失败,由于目标表观时刻变化,此时全局检测也无法保证一定能够得到正确的目标位置,如果目标始终未能再现之前的特征,跟踪和检测都很难恢复,这个问题在场景初始就包含这种情况时尤为严重。另一方面,对于绝大多数的跟踪场景,目标总是时刻运动的,因此可以通过分析图像的运动区域来及时预测和协助搜索新的目标位置,从而利用(1)中短时跟踪器的适应能力尽快恢复跟踪。由此提出基于光流分析的运动区域分析和提取方法,用于处理这样的问题,该方法具体步骤如下:\n[0051] ①计算相邻两帧图像各个像素点的运动向量;\n[0052] ②将整个图像划分为多个子区域;\n[0053] ③计算各个子区域的运动向量均值;\n[0054] ④对所有的子区域,如果该区域的运动向量均值超过阈值,则标记为运动区域;\n[0055] ⑤组合这些运动区域作为目标可能出现的搜索区域;\n[0056] ⑥计算各个候选位置的vS值并根据(4)的约束条件,用最大置信度值对应的图像位置重新初始化短时跟踪器。\n[0057] 所述跟踪系统集成以上短时跟踪,全局检测,主动场景学习和约束方法,其基本结构如图5所示。其中综合器(Integrator)的作用在于融合学习和综合校验其余各部分的结果并给出最终预测的目标位置.运动区域的提取过程将在主动场景学习中根据需要进行.而短时跟踪和全局检测将依赖主动场景学习协同完成跟踪任务.\n[0058] 因此,本发明方法基于“跟踪-学习-检测”的基本结构,通过主动场景学习,自动学习目标表观和背景信息并作为结构化的约束条件,从而提高短时跟踪和对象检测的准确性,增强跟踪系统的稳定性,从而实现长时间稳定快速的对象跟踪。同时,通过分析和提取运动区域,有效地解决由于目标快速运动或者场景剧烈运动导致学习不充分而丢失目标且难以恢复的问题。此外,本发明方法不仅可以用于单目标跟踪,通过增加和调整样例标记,还可以扩展用于多目标的跟踪。\n[0059] 本发明的有益效果是:\n[0060] 本发明方法基于“跟踪-学习-检测”的基本结构,通过主动的场景学习来发掘背景信息,并融合这些场景信息作为结构化的约束,有效地提高对目标变化的适应能力和模型学习的准确性,从而实现长时间稳定快速的对象跟踪。同时,提出基于光流分析的运动区域分析和提取方法,并根据以上结构化的约束,有效地解决由于目标快速运动或者场景剧烈运动导致学习不充分而丢失目标且难以恢复的问题。此外,本发明方法不仅可以用于单目标跟踪,通过增加和调整样例标记,还可以扩展用于多目标的跟踪。\n附图说明\n[0061] 图1为本发明图像分块图;\n[0062] 图2为本发明随机蕨组及其包含的特征结构图;\n[0063] 图3为本发明图像区域划分图(1:该区域变更;0:该区域未变更);\n[0064] 图4为本发明背景图像选择图(T:目标;B:背景);\n[0065] 图5为本发明跟踪系统结构图;\n具体实施方式\n[0066] 本发明的方法可用于对象跟踪的各种场合,如智能视频分析,自动人机交互,交通视频监控,无人车辆驾驶,生物群体分析,以及流体表面测速等。\n[0067] 以智能视频分析为例:智能视频分析包含许多重要的自动分析任务,如对象行为分析,视频压缩等,而这些工作的基础则是能够进行长时间稳定的对象跟踪。因此,对于智能分析过程中感兴趣的视频对象,按照本发明提出的主动场景学习方法和跟踪方法,不仅可以实现无约束环境下的长时间跟踪任务,同时可对整个视频场景进行了分析和处理,在完成基础跟踪的同时,这些学习得到的场景信息可进一步增强系统对视频的分析能力。\n[0068] 本发明方法可通过任何计算机程序设计语言(如C语言)编程实现,基于本方法的跟踪系统软件可在任何PC或者嵌入式系统中实现实时对象跟踪应用。
法律信息
- 2019-05-21
未缴年费专利权终止
IPC(主分类): G06K 9/62
专利号: ZL 201210180170.3
申请日: 2012.06.04
授权公告日: 2014.05.21
- 2014-05-21
- 2012-12-05
实质审查的生效
IPC(主分类): G06K 9/62
专利申请号: 201210180170.3
申请日: 2012.06.04
- 2012-10-10
引用专利(该专利引用了哪些专利)
序号 | 公开(公告)号 | 公开(公告)日 | 申请日 | 专利名称 | 申请人 | 该专利没有引用任何外部专利数据! |
被引用专利(该专利被哪些专利引用)
序号 | 公开(公告)号 | 公开(公告)日 | 申请日 | 专利名称 | 申请人 | 该专利没有被任何外部专利所引用! |