Ⅰ 目标检测中SSD为什么比YOLO还要快
SSD相当于YOLO + RPN的anchor + multi-scale的prediction。抛开网络结构来比较运行时间就是耍流氓,SSD用的是VGG16(但去掉了fc层加速)而YOLO普通版有24个卷积层。文章里的实验也说了,SSD的速度并没有Fast YOLO快。
Ⅱ 目标检测SSD相对于YOLO与faster-RCNN做了哪些改进效果如何
Windows Vista/7/8系统自带AHCI驱动,装完系统后直接安装AMD Chipset Driver即可。该驱动程序与AMD显卡驱动程序版本同步。
Ⅲ 目标有测评的功能吗
主流的目标检测算法主要是基于深度学习模型,其可以分成两大类:(1)two-stage检测算法,其将检测问题划分为两个阶段,首先产生候选区域(region proposals),然后对候选区域分类(一般还需要对位置精修),这类算法的典型代表是基于region proposal的R-CNN系算法,如R-CNN,Fast R-CNN,Faster R-CNN等;(2)one-stage检测算法,其不需要region proposal阶段,直接产生物体的类别概率和位置坐标值,比较典型的算法如YOLO和SSD。目标检测模型的主要性能指标是检测准确度和速度,对于准确度,目标检测要考虑物体的定位准确性,而不单单是分类准确度。一般情况下,two-stage算法在准确度上有优势,而one-stage算法在速度上有优势。不过,随着研究的发展,两类算法都在两个方面做改进。Google在2017年开源了TensorFlow Object Detection API,并对主流的Faster R-CNN,R-FCN及SSD三个算法在MS COCO数据集上的性能做了细致对比,如下图所示。近期,Facebook的FAIR也开源了基于Caffe2的目标检测平台Detectron,其实现了最新的Mask R-CNN,RetinaNet等检测算法,并且给出了这些算法的Baseline Results 。不得不说,准确度(accuracy)和速度(speed)是一对矛盾体,如何更好地平衡它们一直是目标检测算法研究的一个重要方向。
目标检测问题同时是一个回归和分类问题。首先,为了评估定位精度,需要计算IoU(Intersection over Union,介于0到1之间),其表示预测框与真实框(ground-truth box)之间的重叠程度。IoU越高,预测框的位置越准确。因而,在评估预测框时,通常会设置一个IoU阈值(如0.5),只有当预测框与真实框的IoU值大于这个阈值时,该预测框才被认定为真阳性(True Positive, TP),反之就是假阳性(False Positive,FP)。
对于二分类,AP(Average Precision)是一个重要的指标,这是信息检索中的一个概念,基于precision-recall曲线计算出来。对于目标检测,首先要单独计算各个类别的AP值,这是评估检测效果的重要指标。取各个类别的AP的平均值,就得到一个综合指标mAP(Mean Average Precision),mAP指标可以避免某些类别比较极端化而弱化其它类别的性能这个问题。
对于目标检测,mAP一般在某个固定的IoU上计算,但是不同的IoU值会改变TP和FP的比例,从而造成mAP的差异。COCO数据集提供了官方的评估指标,它的AP是计算一系列IoU下AP的平均值,这样可以消除IoU导致的AP波动。其实对于PASCAL VOC数据集也是这样,Facebook的Detectron上的有比较清晰的实现。
除了检测准确度,目标检测算法的另外一个重要性能指标是速度,只有速度快,才能实现实时检测,这对一些应用场景极其重要。评估速度的常用指标是每秒帧率(Frame Per Second,FPS),即每秒内可以处理的图片数量。当然要对比FPS,你需要在同一硬件上进行。另外也可以使用处理一张图片所需时间来评估检测速度,时间越短,速度越快。
Ⅳ 目标检测SSD相对于YOLO与faster-RCNN做了哪些改进效果如何
JayTsengFaster-R-CNN编译使用及相应问题解决1.首先opencv是需要安装的,我用的ubuntu14.04,opencv3.0,具体安装教程可以参考网上很多,不想多提。2.安装几个依赖包:cython,python-opencv和easydict,直接用sudoapt-get安装,网上很多用pip安装,bug比较多。3.从github上clone项目文件,注意:一定要在clone时加入--recursive参数,不然会很麻烦,也不要直接下载:gitclone--recursive/rbgirshick/py-faster-rcnn.git4.Cython模块的编译cdpy-faster-rcnn/libmake5.编译caffe-fast-rcnncd..cdcaffe-fast-rcnn修改这个目录下的Makefile.config(如果没有这个文件,就直接cpMakefile.config.exampleMakefile.config)将CPU_ONLY:=1开关和WITH_PYTHON_LAYER开关打开:然后在该目录下执行:make–j8&&makepycaffe注意:之前因为我没有在这个目录下面执行makepycaffe,因此在执行第6步报了如下错误:ImportError:/home/prlab/py-faster-rcnn/tools/../caffe-fast-rcnn/python/caffe/../../build/lib/libcaffe.so.1.0.0-rc3:undefinedsymbol:_所以提醒大家少走坑。6.运行demo.py在环境一切就绪的情况下,将faster的模型下载下来:在py-faster-rcnn/data/scripts目录下,执行./fetch_faster_rcnn_models.sh将数据下载,可能需要一定时间,慢慢等吧~~~下载完成之后在py-faster-rcnn/tools目录下运行:./demo.py大功告成!!!
Ⅳ 想请教python编程深度学习方面的大神SSD目标检测方面问题
vgg:老物,光芒被googlenet给掩盖了,真正的优点是 a.feature-map不变则conv-kenel-width这些不变b.用一次pooling,width提升一倍;
resnet:主流网络,在vgg基础上提升了长度,而且加入了res-block结构,还有resnext,也可以尝试下。
相帮帮不上啦。。。我也不太会,原来用过resnet 真不会转换。。。sorry
Ⅵ 目标检测SSD相对于YOLO与faster-RCNN做了哪些改进效果如何
但是由于运行selective—search实在是太慢,希望用更快的方法。
逗直接上YOLO呗可以参考博文:物体检测-从RCNN到YOLO参考列表中地YouOnlyLo好Once逗一项,包括YOLO的论文、视频、源码、使用方式。
Ⅶ 目标检测SSD相对于YOLO与faster-RCNN做了哪些改进效果如何
Faster RCNN用了整合了之前的RCNN啊,SPP-net啊,Fast RCNN啊这些网络的region proposal方式,提出了RPN,所谓RPN就是根据图像自身的色彩以及边缘信息等等来生成region proposal的一个网络,因此实现了end-to-end,但还是慢
YOLO就是把原图划成7x7的小格子,在每个格子里对目标进行预测,相当于固定了region proposal的位置和大小,所以没有了RPN,加快了速度,但是准确率下去了
SSD用了YOLO的思想,但是选了6个比例来对原图进行划分,这样就保证了大物体有大格子学,小物体有小格子学,不像YOLO只有一种大小的格子,准确率也提高了(相对于YOLO),速度也上去了(相对于Faster,SSD也没有RPN步骤)
Ⅷ 为什么SSD对小目标的检测效果不好
全这样,4k文件很零碎的,不能整体读取要一个一个的读取,如果这些文件的读写速度快了。那么容量的文件的速度就太惊人了。