自由Man

学习:P/N学习 - TLD算法翻译文稿(首创公开)

4.2 P/N学习

在机器学习中存在两类基本学习方法[12]。一类是有监督的学习;有监督的学习需要事先建立一个已经手工分类好的训练集,每个样本被标记为表示训练样本,表示该样本对应的分类标签。做训练目的,就是通过训练集得到一个函数映射关系,然后使用这个函数来对未知数据进行归类。基于监督学习的目标检测已成功应用于人脸识别[49]和行人检测[16]。但是,这种学习方法不适用于待检测目标不可预知的情况。同样,这种方法学习到的分类器对数据分布发生了改变的情况也不适用。另一类即无监督学习,它没有分类标签,它通过密度估计、聚类、降维及孤立点检测的方法来找到一种数据分割方法[12]

图4.1 P/N约束  图片来自[27]

半监督学习是鉴于这两种方法之间的一种学习方法,它需要标记样本、也需要未标记的样本。一种半监督学习,是使用训练数据的信息来对未标记的数据进行分类,并将分类结果加入到训练集来更新分类器。本文的跟踪目标是一个单标签样本。文献[27]定义了一种半监督学习方法:P/N学习。该方法描述了如何使用所谓的结构化约束来从无标签数据中提取训练数据用于二分类。P/N学习有两类约束:P约束找出那些被错检为负的正样本,并将其加入到正样本训练集中;N约束找出那些被错检为正的负样本,并加入到负样本训练集中。图4.1中,表示未标记数据。首先,使用现有分类器对未标记数据进行分类得到;然后,使用结构化约束条件找出错误分类的样本,并贴上新标签;接下来,把这些样本添加到训练集,再训练更新分类器。

我们采用[27]提出的目标检测的约束条件。P约束要求所有与最终检测结果的重叠率较高的图像块必须被归类为正样本;N约束要求所有与有效检测结果无重叠的图像块必须被归类为负样本。如果边界框B与边界框的重叠率大于等于60%,我们就认为他们是高重叠率的;如果它们的重叠率低于20%,我们就认为他们是不重叠的。重叠率的计算方法见章节3.6

Alg.5给出了完整的描述约束条件的算法。接下来,我们介绍如何使用集成分类器和模板匹配来准确分类这些样本。我们还没有解释集成分类器中每一蕨的后验概率的计算方法。表示对特征一个图像块为正样本的概率。我们定义后验概率为:

其中,表示特征归并时使用P约束的次数;表示使用N约束的次数。在Alg.5的第2行,我们检测一个与最终结果重叠的检测框是否被集成分类器错误分类。对每一个蕨,如果它的重叠度大于0.6且集成分类器得到的可信度低于0.5,则增加一次P约束使用次数(算法描述第5行);如果负样本被错分为正样本,则增加一次N约束使用次数(算法描述第10行)。更新集成分类器不会增加计算开销,但使用模板匹配会。因为对正/负样本集每增加一个图像块,都会增加需要比较的数量,而为了能够分类新的图像块这些比较是必须进行的。为了改变被误分类的正样本图像块便签以用于模板匹配,我们把它添加到正样本集中,然后对这个图像块的距离赋值为0(),即可信度赋为1。但是,只有当图像块中包含最终结果时,我们才会对其做如此操作(算法描述第18)

只有最终结果有效(即大于)时,才能执行以上学习过程。根据模板匹配的N约束,如果样本块同时被集成分类器和模板匹配错分,我们就将该负样本图像块添加到模板匹配方法中去。

4.2描述了正样本的添加过程。在点A处,从一个高可信度的有效结果开始跟踪,学习模块也开始工作,但可信度大于,这时并没有新样本加入。在B点,可信度下降到低于,但仍高于,根据Alg.4,该最终结果仍然是有效的。随后,由于有新增正样本的加入,可信度又开始逐渐提高。在点C处,因为可信度低于,所以得到的最终结果不再有效。在点D处,尽管其可信度与B点处于同一情况,但由于得到最终结果已经无效,所以学习模块不会工作。

图4.2 只有当可信度从A帧的高可信度降到之间(如B帧)时,正样本才会得到添加。由于可信度从一个低可信度的C帧上升的,所以在D帧时,学习模块并不会工作。这种机制保证了样本的数量一直保持在一个较小的量。



发表评论:

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。

Powered By Z-BlogPHP 1.5.2 Zero Theme By 爱墙纸

Copyright ZiYouMan.cn. All Rights Reserved. 蜀ICP备15004526号