0 引言
2012年Alexnet横空出世以来,深度学习在高层语义特征的识别与分割上大获成功。然而,基于极大量图像级或者边界框级标注数据的深度学习方法在实际应用中存在很多限制。
1、标注粗略,很多目标本身并不是方形,采用方形标注会引入误差数据;
2、边界框标注训练出来的框架分割精度不会达到超人检测精度,这是因为标注数据本身就没有达到超人级的精度;
3、解决遮挡问题很困难。
基于以上原因,有人提出了像素级标注的新思路,试图解决上述难题。
1 深度学习简介
参考周志华的讲话。
https://www.cnblogs.com/yourcool/p/9958202.html
(1)深度神经网络模型成功的原因。
周志华总结了三点:
1、高复杂度:深度神经网络极其复杂,其复杂度与模型的容量有关,并直接决定了模型的学习能力。通过增强一个学习模型的复杂度,它的学习能力就能够提升。因此,高复杂度是深度神经网络成功的第一个原因。
2、大数据:当模型具备高复杂度时,存在的另一个问题是过拟合,即模型将数据中不具备一般性质的规律学出来了,导致模型在描述测试集中的特征时失效。为了解决这个问题,需要准备大量训练数据,这些数据中包含了一般性的规律,并且可以训练框架收敛。
3、分层结构:逐层处理使得特征学习过程中存在特征变换,特征变换令深度神经模型在学习特征时具备从底层语义到高层语义逐步抽象的过程。
(2)深度学习存在的问题
1、模型的复杂度太大,容易学习到数据本身的特性,却没有学习到一般规律,导致过拟合。为了保证模型的效果,通常会使模型复杂度大于问题本身的复杂度。
2、需要大量训练数据,防止过拟合。 3、需要大量训练技巧,使系统收敛的同时,不要过拟合。 4、整个计算系统的开销非常大,我们需要非常长强有力的计算设备。 5、训练时要调超参,会导致结果的可重复性差。 6、训练的经验在跨任务时,可能会失效。2 像素/超像素级标注
给个链接吧
https://mp.weixin.qq.com/s/3lK1as-cdMxFVEtQX__dAw
超像素分割
超像素、语义分割、实例分割、全景分割 辨析https://www.cnblogs.com/CV-life/p/10188920.html超像素分割SLIC代码https://github.com/laixintao/slic-python-implementationhttps://www.cnblogs.com/wangyong/p/8991465.html
3 体素级标注
4 图像分类算法及其优化技巧
https://blog.csdn.net/u014380165/article/details/85268719